شبکه‌های عصبی و یادگیری عمیق

این دوره یک شیرجه عمیق به دنیای یادگیری عمیق (Deep Learning) است. با فرض اینکه شرکت‌کنندگان با مبانی یادگیری ماشین آشنا هستند، دوره از شبکه‌های عصبی پرسپترون چندلایه (MLP) آغاز شده و به سرعت به سمت معماری‌های پیشرفته‌ای مانند شبکه‌های کانولوشنی (CNN) برای بینایی ماشین و شبکه‌های بازگشتی (RNN) و ترنسفورمرها برای پردازش زبان طبیعی حرکت می‌کند. تمرکز دوره بر پیاده‌سازی عملی این مدل‌های پیچیده با فریمورک‌های مدرن مانند PyTorch یا TensorFlow است.

مدرس دوره:

دکتر محمد رضا عاطفی
دکتر حمیدرضا یزدانی

مدت زمان دوره:

200 ساعت

پیشنیاز دوره:

ندارد

اهداف دوره:

  • تسلط بر مفاهیم یادگیری عمیق: درک عمیق از معماری‌ها و اصول کار شبکه‌های عصبی عمیق.
  • درک عمیق نظری و عملی شبکه‌های عصبی و الگوریتم پس‌انتشار (Backpropagation).
  • تسلط بر طراحی و آموزش شبکه‌های عصبی کانولوشنی (CNN) برای وظایف بینایی ماشین.
  • بهینه‌سازی و تنظیم مدل: آشنایی با تکنیک‌های بهینه‌سازی (Optimizers)، تنظیم هایپرپارامترها (Hyperparameter Tuning) و غلبه بر بیش‌برازش.
  • آشنایی با مکانیزم توجه (Attention) و معماری قدرتمند ترنسفورمر.
  • پیاده‌سازی پروژه‌های پیشرفته مانند تشخیص اشیاء، تحلیل احساسات و تولید متن.

پس از اتمام این دوره می توانید:

شما قادر خواهید بود برای مسائل پیچیده در حوزه بینایی کامپیوتر و پردازش زبان طبیعی، مدل‌های یادگیری عمیق مناسب را طراحی، آموزش و بهینه‌سازی کنید. می‌توانید از تکنیک یادگیری انتقال (Transfer Learning) برای بهره‌گیری از مدل‌های از پیش آموزش‌دیده بزرگ استفاده کرده و آن‌ها را برای وظایف خاص خود سفارشی‌سازی نمایید.

  •  شبکه‌های عصبی پیش‌خور، CNN و RNN را برای مسائل مختلف طراحی و پیاده‌سازی کنید.
  • با استفاده از TensorFlow یا PyTorch، مدل‌های یادگیری عمیق را آموزش داده، ارزیابی و بهینه‌سازی کنید.
  • مدل‌های از پیش آموزش‌دیده (Pre-trained Models) را برای مسائل خاص خود استفاده و تنظیم کنید (Transfer Learning).
  • مدل‌های یادگیری عمیق را برای مسائل بینایی ماشین (تشخیص تصویر شی) و پردازش زبان طبیعی (تولید متن، ترجمه ماشینی) به کار بگیرید.
  • معیارهای ارزیابی مناسب برای مدل‌های یادگیری عمیق را انتخاب و تفسیر کنید.
  • پروژه‌های یادگیری عمیق پیچیده را از مفهوم تا استقرار (مقدماتی) مدیریت کنید.

مخاطبان این دوره:

این دوره برای متخصصان هوش مصنوعی و علم داده، مهندسان یادگیری ماشین، توسعه‌دهندگان نرم‌افزار با پیش‌زمینه در پایتون و یادگیری ماشین ، و محققان علاقه‌مند به کاربردهای عملی یادگیری عمیق مناسب است.

سرفصل های دوره:

  1. از یادگیری ماشین تا یادگیری عمیق: محدودیت‌های مدل‌های کلاسیک.
  2. شبکه‌های عصبی مصنوعی (ANN) و پرسپترون چند لایه (MLP).
  3. الگوریتم پس‌انتشار (Backpropagation) و بهینه‌سازی با گرادیان کاهشی.
  4. فریمورک‌های یادگیری عمیق: مقدمه‌ای بر PyTorch/TensorFlow.
  5. تکنیک‌های بهینه‌سازی (Optimizers) و تنظیم نرخ یادگیری (Learning Rate Scheduling).
  6. روش‌های جلوگیری از بیش‌برازش: Regularization, Dropout, Batch Normalization.
  7. شبکه‌های عصبی کانولوشنی (CNN) برای بینایی ماشین.
  8. معماری‌های معروف CNN: LeNet, AlexNet, VGG, ResNet.
  9. یادگیری انتقال (Transfer Learning) و تنظیم دقیق (Fine-tuning) در بینایی ماشین.
  10. کاربردهای پیشرفته CNN: تشخیص اشیاء (Object Detection).
  11. شبکه‌های عصبی بازگشتی (RNN) برای داده‌های ترتیبی.
  12. چالش محوشدگی گرادیان و معماری‌های LSTM و GRU.
  13. کاربرد RNNها در پردازش زبان طبیعی (NLP): طبقه‌بندی متن.
  14. مدل‌های Sequence-to-Sequence و مکانیزم توجه (Attention).
  15. معماری ترنسفورمر (Transformer) و جایگاه آن در NLP مدرن.
  16. مقدمه‌ای بر مدل‌های مولد (Generative Models): Autoencoders و GANs.
  17. اخلاق و تفسیرپذیری در مدل‌های یادگیری عمیق.
  18. پروژه نهایی: ساخت یک سیستم طبقه‌بندی تصویر یا تحلیل احساسات متن با استفاده از یادگیری عمیق.
  1. مقدمه‌ای بر یادگیری عمیق و شبکه‌های عصبی:
    1. تفاوت بین یادگیری ماشین و یادگیری عمیق.
    2. مفاهیم نورون مصنوعی، تابع فعال‌سازی و لایه‌ها.
    3. فرآیند انتشار رو به جلو (Forward Propagation) و انتشار رو به عقب (Backpropagation).
    4. گرادیان و بهینه‌سازی گرادیان کاهشی (Gradient Descent).
  2. تنظیم محیط توسعه برای یادگیری عمیق:
    1. نصب TensorFlow/Keras و
    2. معرفی Google Colab و Kaggle Kernels.
  3. شبکه‌های عصبی پیش‌خور (Feedforward Neural Networks – FNNs):
    1. طراحی و پیاده‌سازی FNNs برای مسائل رگرسیون و طبقه‌بندی.
    2. انتخاب توابع فعال‌سازی مناسب.
    3. مدیریت بیش‌برازش: منظم‌سازی (Regularization) و
  4. مقدمه‌ای بر فریمورکها:
    1. Tensorها در
    2. ساخت شبکه‌های عصبی با nn.
    3. سیستم Autograd در
    4. تفاوت‌های کلیدی بین TensorFlow و
  5. شبکه‌های عصبی کانولوشنی (Convolutional Neural Networks – CNNs) برای بینایی ماشین:
    1. مفهوم کانولوشن، Pooling و لایه‌های fully connected.
    2. معماری‌های CNN
    3. افزایش داده (Data Augmentation) برای تصاویر.
  6. انتقال یادگیری (Transfer Learning) و Fine-tuning:
    1. استفاده از مدل‌های از پیش آموزش‌دیده (Pre-trained models) مانند VGG, ResNet, Inception.
    2. Fine-tuning مدل‌ها برای مسائل خاص.
  7. پروژه عملی ۱: طبقه‌بندی تصویر با CNN و Transfer Learning:
    1. ساخت یک طبقه‌بند تصویر برای مجموعه داده CIFAR-10 یا ImageNet کوچک.
    2. استفاده از Transfer Learning.
  8. شبکه‌های عصبی بازگشتی (Recurrent Neural Networks – RNNs) برای داده‌های ترتیبی:
    1. مفهوم RNN، BPTT (Backpropagation Through Time).
    2. مشکلات گرادیان محو شونده و انفجاری.
    3. معماری‌های LSTM و
  9. پردازش زبان طبیعی (NLP) با یادگیری عمیق:
    1. بردارسازی کلمات (Word Embeddings): Word2Vec, GloVe.
    2. تحلیل احساسات (Sentiment Analysis) با RNN/LSTM.
    3. مدل‌سازی زبان (Language Modeling) مقدماتی.
  10. پروژه عملی ۲: تحلیل احساسات متن با LSTM:
    1. ساخت یک مدل برای طبقه‌بندی احساسات از بررسی‌های فیلم یا توییت‌ها.
  11. مدل‌های تولیدی (Generative Models) مقدماتی:
    1. معرفی Autoencoders و Variational Autoencoders (VAEs).
    2. مقدمه‌ای بر Generative Adversarial Networks (GANs).
  12. معرفی به Transformer و Large Language Models (LLMs):
    1. مفاهیم Attention و Transformer مقدماتی.
    2. آشنایی با مدل‌های BERT و GPT کاربردها و محدودیت‌ها.
  13. استقرار (Deployment) مدل‌های یادگیری عمیق (مقدماتی):
    1. مفهوم استقرار مدل.
    2. مفاهیم اولیه Docker برای بسته‌بندی.
  14. بهینه‌سازی و تنظیم هایپرپارامترها:
    1. تکنیک‌های تنظیم هایپرپارامتر (Grid Search, Random Search, Optuna).
    2. نظارت بر آموزش مدل (TensorBoard).
  15. بایاس در یادگیری عمیق:
    1. بررسی چالش‌های اخلاقی و بایاس در مدل‌های یادگیری عمیق (مثال‌هایی از بینایی ماشین و NLP).
  16. کارگاه‌های عملی و حل مسئله:
    1. تمرینات کدنویسی برای هر سرفصل.
    2. چالش‌های کدنویسی پیشرفته.
  17. آماده‌سازی برای پروژه نهایی و ارائه:
    1. انتخاب موضوع پروژه نهایی.
    2. راهنمایی در مورد ساختاردهی پروژه.
  18. پروژه نهایی: طراحی و پیاده‌سازی یک سیستم یادگیری عمیق:
    1. انتخاب یک مسئله پیچیده در بینایی ماشین یا
    2. طراحی معماری مدل، آموزش، ارزیابی و ارائه نتایج.

ابزار های دوره:

پایتون، SQL و ابزارهای BI

منابع دوره:

Deep Learning with Python by François Chollet

Deep Learning by Ian Goodfellow, Yoshua Bengio, and Aaron Courville

Stanford’s CS231n: Convolutional Neural Networks for Visual Recognition

Stanford’s CS224n: Natural Language Processing with Deep Learning

پرسش و پاسخ:

  • آیا برای این دوره نیاز به سخت‌افزار خاصی (GPU) است؟ بله، برای آموزش مدل‌های عمیق، دسترسی به GPU (از طریق Google Colab یا سخت‌افزار شخصی) قویاً توصیه می‌شود.
  • پیش‌نیاز این دوره چیست؟ تسلط کامل بر مفاهیم دوره “یادگیری ماشین” و برنامه‌نویسی پایتون الزامی است.
  • آیا این دوره ریاضیات سنگینی دارد؟ بله، درک عمیق مطالب نیازمند دانش خوب در جبر خطی و حسابان است.
  • آیا این دوره نیاز به برنامه‌نویسی سنگین دارد؟ آشنایی با پایتون ضروری است.
  • آیا این دوره نیاز به برنامه‌نویسی سنگین دارد؟ تمرکز اصلی بر مفاهیم BI و SQL است، اما برای ساخت داشبورد و فرآیندهای ETL از پایتون استفاده خواهد شد. بنابراین آشنایی با پایتون ضروری است.
  • آیا این دوره به یادگیری ماشین می‌پردازد؟ خیر، این دوره کاملاً بر تحلیل‌های توصیفی و تشخیصی (Descriptive/Diagnostic Analytics) متمرکز است و با مدل‌های پیش‌بینی‌کننده سروکار ندارد.

تمایل دارید در دوره شرکت کنید؟
فرم زیر را پر کنید. ما در اسرع وقت با شما تماس خواهیم گرفت.