درباره دوره:
یادگیری ماشین، واژهای است که توسط آرتور ساموئل در سال ۱۹۵۹ ابداع شد. این فناوری شاخهای از هوش مصنوعی و علوم رایانه است. این تکنولوژی در علوم داده دارای اهمیت بسیار زیادی است.
یادگیری ماشین هوشمند کردن رایانههاست بدون اینکه مستقیماً به آنها یاد بدهیم چطور رفتار کنند. اما این اتفاق چطور میافتد؟ رایانهها میتوانند با استفاده از حجم عظیمی از داده، به طور خودکار الگوهایی تکرارشونده را بدون دخالت انسان یاد بگیرند. یادگیری این الگوریتمها به تقلید از شیوه یادگیری انسان انجام میشود و با بیشتر شدن تجربه رایانه، بهتدریج دقت آن بالاتر میرود.
دوره مقدمهای بر یادگیری ماشین از مجموعه دوره های آموزش هوش مصنوعی و آموزش ماشین لرنینگ مکتب خونه مناسب دانشجویان رشته مهندسی کامپیوتر و هوش مصنوعی و همه علاقهمندان به این دانش است و دانشجویان با فراگیری آن میتوانند مطالب را بیاموزند
این دوره در دانشکده مهندسی کامپیوتر و در ترم پاییز 1401 با تدریس دکتر شریفی زارچی و مهندس بهروز آذر خلیلی برگزار شده است
همچنین آدرس github درس عبارت است از:
https://github.com/asharifiz/Introduction_to_Machine_Learning
***این دوره درحال تکمیل است***
پیشنیاز ریاضی یادگیری ماشین:
1 – جلسه 1: مروری بر مفاهیم مقدماتی آمار و احتمال
2 – جلسه 2: مروری بر ریاضیات برداری و جبری
3 – اختیاری – مروری بر ریاضیات پیشنیاز درس (قسمت اول)
4 – اختیاری – مروری بر ریاضیات پیشنیاز درس (قسمت دوم)
5 – اختیاری – مروری بر ریاضیات پیشنیاز درس (قسمت سوم)
مرور روشهای کلاسیک یادگیری ماشین:
1 – جلسه 3: مقدمهای بر یادگیری ماشین و تعریف انواع Loss Function ها
2 – جلسه 4: دستهبندی (Clusteering) – الگوریتم K-means و درخت تصمیم (Decision Tree)
3 – جلسه تکمیلی: Decision Tree
4 – جلسه 5: ادامهی درخت تصمیم – کاهش ابعاد و Generalization Error
5 – جلسه تکمیلی: PCA
یادگیری، ارزیابی و تنظیمکردن مدلها:
1 – جلسه 6: ارزیابی مدلها – Confusion Matrix – انتخاب مدل
2 – جلسه 7: ماشین بردار پشتیبان (SVM)
مدلهای یادگیری ماشین برای دادههای جدول:
1 – جلسه 8: روشهای Ensemble شامل Bagging و Random Forest
2 – جلسه 9: ادامهی روشهای Ensemble و Boosting شامل AdaBoost و Gradient Boosting
3 – جلسه 10: ادامهی روشهای Boosting، روش Stacking و XGBoost
4 – جلسه تکمیلی: XGBoost
آشنایی با شبکه عصبی ژرف:
1 – جلسه 11: شروع شبکهی عصبی، Activation Functionها، Gradient Descent، شبکههای عصبی تکلایه و چندلایه و Back Propagation
2 – جلسه 12: شیوهی train کردن شبکههای عصبی، ادامهی Back Propagation، انواع مختلف GD
3 – جلسه 13: Vanishing Gradients, Weight Initialization, Exploding Gradients, Batch Norm
4 – جلسه 14: روشهای بهبود فرایند آموزش شبکههای عصبی
شبکههای عصبی پیچشی:
1 – جلسه 15: Autoencoder ها
2 – جلسه تکمیلی: VAE
3 – جلسه 16: CNN ها
4 – جلسه 17: معماریهای CNN مدرن
5 – جلسه 18: GAN
6 – جلسه تکمیلی GAN
مدلهای پردازش توالی:
1 – جلسه 19: Word Embedding
2 – جلسه 20: RNNها
3 – جلسه 21: ادامهی RNNها، LSTM
4 – جلسه 22: Encoder-Decoderها، Teacher Forcing و Beam Search
5 – جلسه 23: Attention