لگو وب سایت هوشمندان
جستجو

اطلاعات ویدیوی آموزشی

آموزش های مرتبط

آموزش یادگیری عمیق - بهینه سازی شبکه های عصبی

دوره بهبود شبکه های عصبی مصنوعی عمیق 

 هسته اصلی هوش مصنوعی، یادگیری عمیق است که می تواند شبکه های عصبی عمیق رو هوشمند می کند. با توجه به اهمیت شبکه مصنوعی سوالات زیادی از جمله، چگونه شبکه عصبی مصنوعی عمیق با دقت و سرعت بالا بسازیم؟ و یا چگونه با استفاده از یک سری عملیات ساده ریاضی، به پیاده سازی  کارهای فوق العاده ای که برای شبکه عصبی مصنوعی عمیق ساختیم، بپردازیم؟ همچنین در این دوره یاد می گیریم که چگونه  شبکه های عصبی رو بهینه کنیم و آن ها رو پیاده سازی کنیم؟

 در کورس دوم از دوره یادگیری عمیق، با مفاهیم بسیار مهم Regularization  و Optimization آشنا می شویم؛ انواع آن ها را می شناسیم و پیاده سازی می کنیم تا به کمک آن ها بتوانیم شبکه های عصبی مصنوعی عمیقی با دقت و سرعت بسیار بالاتر بسازیم.

چرا باید بهینه سازی شبکه های عصبی رو در یادگیری عمیق یاد بگیریم؟ 

دوره بهینه سازی شبکه های عصبی گام دوم دوره یادگیری عمیق تدریس شده توسط اندرو انگ  Andrew NG هست. در این دوره شما می توانید شبکه هایی که در کورس اول ساختید را با تفکری ساختارمند بهبود دهید، یعنی هم سرعت محاسبات آن ها و همچنین دقت را بالاتر ببرید. آموزش یادگیری عمیق در این دوره آموزشی پروژه محور و با زبانی ساده است که تمرینات و مثال های حل شده، مرجعی مناسب برای یادگیری شما است. مباحث هفته سوم این کورس، با توجه به هماهنگی موضوع آن ها با کورس سوم، به کورس سوم منتقل شده تا در آنجا بتوانیم با تغییر رویکرد کدنویسی، یعنی به جای این که از ابتدا کدنویسی را شروع کنید، با استفاده از کتابخانه های keras  و tensorflow کدنویسی کنید.  

چشم انداز دوره بهینه سازی شبکه های عصبی

با پایان این دوره ، شما میتوانید یک شبکه عصبی مصنوعی عمیق را در حالت کارکرد بهینه قرار بدید، و تفکری ساختارمند را برای حل مسائل یادگیری ماشین کسب کنید. روشی پایه ای به شما گفته می شود که وقتی با مشکلی در شبکه عصبی مصنوعی عمیق  مواجه شدید، متوجه راه حل درست برای حل آن مشکل بشوید

پیش نیاز دوره شبکه های عصبی

لازم به ذکر است که گذراندن و تسلط به مباحث دوره یادگیری عمیق و شبکه های عصبی ، برای شروع آموزش بهینه سازی شبکه های عصبی الزامی هست.


Improving deep neural networks: Hyperparameters tuning, Regularization, and Optimization

هفته اول

  1.  تنظیم مقادیر Train-Dev-Test Sets 
  2.  مباحث Bias-Variance
  3. دستورالعمل کلی برای مسائل یادگیری ماشینی
  4. Regularization
  5. چطور Regularization مشکلoverfit  رو بهبود میده
  6. Dropout Regularization
  7.  درک Dropout
  8. روشهای دیگر Regularization
  9. نرمالیز کردن ورودی ها
  10. Vanishing-Exploding Gradients
  11. مقداردهی اولیه به وزنها در شبکه های عمیق
  12. تقریب عددی gradients  در محاسبات شبکه های عصبی مصنوعی 
  13. Gradient Checking
  14.  نکاتی برایGradient Checking Implementation  

هفته دوم

  1. Mini Batch Gradient Descent
  2.  درک مبحث Mini-Batch Gradient Descent
  3. Exponentially Weighted Averages
  4. درک مبحث  Exponentially Weighted Averages
  5. Bias Correction of Exponentially Weighted Averages (اصلاح مقدار ابتدایی میانگین متحرک)
  6. الگوریتم بهینه سازی Gradient Descent with Momentum
  7.  الگوریتتم بهینه سازی RMSProp 
  8.  الگوریتم بهینه سازی Adam 
  9. Learning Rate Decay

 

حل تمرینات دوره

  1. کوئیز هفته اول
  2. Initialization
  3. Regularization
  4. Gradient Checking
  5. کوئیز هفته دوم
  6. Optimization methods