-
آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی ارائهدهندهی پکیجهای تخصصی: برنامهنویسی متلب-پایتون پردازش تصویر & سیگنالهای حیاتی شناسایی الگو-پترن یادگیری ماشین شبکههای عصبی واسط مغز- کامپیوتر تماس👇 09360382687 @onlineBME_admin سایت👇 www.onlinebme.com
سلام،
بعد از مدتها وصل شدیم!!
امیدوارم در سلامت باشید🙏❤️
از خودتون مراقبت کنید... برای رسیدن به روشنایی باید با صبوری از دل تاریکی ها عبور کرد.
سلام، چندین بار دوستان پرسیده بودند که برای درس پردازش سیگنال دیجیتال (DSP) چه کتابی بخونند، برای همین گفتم که کتابی خودم خوندم و خیلی مفید بود رو اینجا معرفی کنم.
یادمه دوران ارشد یک کتاب فوقالعاده داشتیم که هم مفاهیم رو خیلی روان توضیح میداد و هم کاملاً کدمحور بود؛ مخصوصاً با مثالهای MATLAB که واقعاً به فهم عمیقتر موضوعات کمک میکرد.
این کتاب Digital Signal Processing Using MATLAB (4th Ed.) هست.
این کتاب یکی از محبوبترین منابع برای یادگیری DSP هست.
از ویژگیهای برجستهٔ این کتاب میتونم به نکات زیر اشاره کنم:
◼️توضیح مفاهیم DSP بهصورت کاملاً شفاف
◼️تمرینها و پروژههای متنوع همراه با کد MATLAB
◼️مناسب برای دانشجویان کارشناسی و کارشناسی ارشد
◼️رویکرد «حل مسئله» که باعث فهم عمیقتر موضوعات میشه
🔺برای رعایت حق نشر، لینک رسمی کتاب رو قرار میدم:
📚 Digital Signal Processing Using MATLAB: A Problem-Solving Companion — Vinay K. Ingle & John G. Proakis
https://www.amazon.com/Digital-Signal-Processing-Using-MATLAB/dp/1305635124/ref=sr_1_1?ie=UTF8&qid=1453320715&sr=8-1&keywords=9781305635128
🔷 البته نسخهٔ PDF این کتاب توی بعضی سایتها وجود داره، ولی چون وضعیت حق کپی رایتش مشخص نیست، اینجا لینکش رو قرار نمیدهم.
💡برای دوستانی که میخوان مفاهیم DSP رو پایهای و کاربردی یاد بگیرند، این کتاب میتونه شروع خیلی خوبی باشه.
☑️ در کنار این کتاب، چند منبع دیگه هم در در پست معرفی کردم که میتونید برای مطالعه بیشتر بررسیشون کنید.
امیدوارم براتون مفید باشه 🙌📘
https://onlinebme.com/best-practical-books-for-learning-digital-signal-processing-dsp/
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
وضعیت من بعد از پیادهسازی هر الگوریتم (بعد از ۳۵۵ روز تلاش برای درک و پیادهسازیش)😂
@Onlinebme
💡از کشف تصادفی تا جایزه نوبل، داستانی که بینایی ماشین را متحول کرد!
کشف اتفاقی یک لبهٔ نور در آزمایشگاهی ساده در جانهاپکینز
به فهم عملکرد نورونهای بینایی انجامید،
جایزهٔ نوبل گرفت،
و پایهٔ شبکههای کانولوشنی (CNN) شد.
اگر امروز مدلهایی مانند HMAX، LeNet، AlexNet، ResNet یا Vision Transformers وجود دارند، ریشهٔ اصلی آنها به همان روزی برمیگردد که یک خط نور، به طور کاملاً تصادفی، یک نورون را فعال کرد.
✍ در دههی ۱۹۶۰، دو دانشمند جوان به نامهای David Hubel وTorsten Wiesel در دانشگاه Johns Hopkins، همکاریای را آغاز کردند که بعدها یکی از مهمترین کشفیات علوم اعصاب و بینایی ماشین را رقم زد.
نکتهی جالب این بود که آنها تجهیزات بسیار ابتدایی داشتند:
یک میکروالکترود، یک نمایشگر اسلایدی ساده و یک گربهی بیهوش.
⭕️جزییات بیشتر👇👇
PDF | website
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
همیشه دوست داشتم شبکه عصبیCNN رو همانند سایر شبکه ها مثل MLP، اول کاملا به صورت دستی پیاده سازی کنم. قبلا یکی دوبار تلاش کردم ولی موفق نشدم کامل پیاده سازی کنم. و این برمیگشت به عدم شناخت دقیق من از چهارچوب CNN و یه سری ریزه کاری ها در کدنویسی.
بعد از یادگیری RNN مجددا شانسم رو امتحان کردم، از اونجا که BPTT پیچیدگی های زیادی داشت، درک اون کمک کرد CNNهارو هم بتونم پیاده سازی کنم. و خب خیلی خوشحال شدم از این اتفاق😊
این هفته، در جلسه اول فصل شبکه های کانولوشنی قراره باهم یک شبکه ی عصبی کانولوشنی رو بدون استفاده از ابزار آماده پایتورچ پیاده سازی کنیم. ریاضیات و یپاده سازی خواهیم داشت😉
از جلسه بعد، میریم سراغ ابزار پایتورچ و معرفی ساختارهای مختلف!
💡 ما در دوره یادگیری عمیق، ابتدا شبکههای عصبی رو کاملا دستی پیادهسازی میکنیم، بعدش میریم سراغ ابزارهای آماده.
و برای پیادهسازی هم، اول ریاضیات و اثبات روابط یادگیری شبکه های عصبی رو کامل یاد میگیریم😊
در آخر هم میریم سراغ پروژه های عملی...
💡مجموعه ای از پستهای آموزشی ما در حوزه یادگیری ماشین، شبکههای عصبی و PyTorch (از مفاهیم پایه تا مباحث پیشرفته)
✍ در یکی دو سال گذشته، سعی کرده ایم مجموعه ای از پستهای آموزشی-کاربردی در حوزه برنامه نویسی پایتون، یادگیری ماشین، و یادگیری عمیق با شما به اشتراک بگذاریم. در این پستها، از مفاهیم پایه مانند توابع هزینه و ساختار شبکههای عصبی گرفته تا موضوعات پیشرفته تر مثل روشهای بهینه سازی، نحوه انتخاب معیارهای ارزیابی، ساخت دیتالودرهای سفارشی در پایتورچ...
✅ برای اینکه دسترسی به همه این مطالب راحتتر بشه، تصمیم گرفتم تمام پستها، همراه با لینک وبسایت و PDF را در یک پست مرتب قرار دهم.
💡اگر در مسیر یادگیری ماشین هستید، این مجموعه میتونه برایتان بهعنوان یک هندبوک آموزشی عمل کند.
🔵 بخش اول: Python & PyTorch — راهنمای عملی
نقشه راه یادگیری ماشین (از روشهای کلاسیک تا دیپ لرنینگ)
PDF | website
نقشه راه و چالش 10 هفتهای یادگیری پایتون
PDF | website
معرفی اجمالی کتابخانه PyTorch
PDF | website
تفاوت تنسور PyTorch با آرایه NumPy
PDF | website
تنسورفلو یا پایتورچ- چرا PyTorch برای محققین انتخاب مناسبی است؟
PDF | website
خواندن داده با فرمتهای مختلف در پایتون
PDF | website
ساخت dataloader سفارشی با کمک DataLoader و Dataset پایتورچ
PDF | website
🔵 بخش دوم: مفاهیم پایهای یادگیری ماشین و شبکههای عصبی
شبکه عصبی و اهمیت مدل سازی مغز انسان
PDF | website
انواع «یادگیری» در یادگیری ماشین
PDF | website
پنج موردی که باید در شروع کار با یادگیری عمیق بدانید
PDF | website
نحوه حل یک مسئله در شبکه عصبی
PDF | website
شبکه عصبی پرسپترون چند لایه و مسائل غیرخطی
PDF | website
شبکه عصبی CNN چطور کار میکنه؟!
PDF | website
تکنیک BOW در پردازش زبان طبیعی
PDF | website | GitHub
🔵 بخش سوم: توابع هزینه، معیارهای ارزیابی و تحلیل مدل
تابع هزینه cross entropy و تفاوت آن با مربعات خطا (MSE)
PDF | website
پارامترهای ارزیابی در مسائل رگرسیون و طبقه بندی
PDF | website
نحوه ی انتخاب بهترین معیار ارزیابی برای مسائل رگرسیون
PDF | website
🔵 بخش چهارم: بهینه سازی (Optimization)
گرادیان نزولی و نقش آن در فرایند یادگیری شبکه های عصبی
PDF | website
مطالعه مروری روشهای بهینهسازی مبتنی بر گرادیان نزولی (از SGD تا Adam)
PDF | website
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
💡تکنیک Bag of Words در پردازش زبان طبیعی | آموزش کامل همراه با پروژهی عملی spam detection
نویسنده: محمد نوری زاده چرلو
تکنیک BOW یکی از پرکاربردترین روشها در استخراج ویژگیهای متنی در حوزهی NLP است.
یکی از چالشهای اصلی در دادههای متنی، تفاوت اندازهی بردار ویژگی بین نمونه ها است که فرآیند آموزش مدلهای یادگیری ماشین را با چالش روبرو میکند. روش BOW با تبدیل متن به یک بردار ویژگی یکسان و قابل پردازش، این مشکل را برطرف میکند و پایهی بسیاری از مدلهای طبقه بندی متون است. در این پست ابتدا با مفهوم BOW، نحوهی ساخت بردار ویژگی و کاربردهای آن در sentiment analysis آشنا میشوید. سپس یک پروژهی عملی "تشخیص پیامکهای Spam" رو به صورت گام به گام پیاده سازی خواهیم کرد.
✅دسترسی به کد پروژه در GitHub
GitHub| Spam detection in python
⭕️جزییات بیشتر در وبسایت Onlinebme 👇👇
Onlinebme| Bag Of Words
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
وقتی برای هرکاری از ChatGPT استفاده میکنیم!
@onlinebme
🔘بخش کوتاهی از فصل دوم دوره یادگیری عمیق
✍خلاصه اثبات روابط برای تنظیم وزنهای سیناپسی در RNNs
💡 Back Propagation Through Time (BPTT)
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
💡مطالعه بیشتر برای شرکت کنندگان دوره آنلاین یادگیری عمیق
✍اثبات روابط مربوط به گرادیان لایه خروجی در مباحث طبقهبندی چندکلاسه
Cost Fun: Cross Entropy
Activation Fun: SoftMax
🔘بخش کوتاهی از فصل سوم دوره پایتورچ
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
✅ 《دوره یادگیری عمیق》
🔷 فصل 1: MLP و پس انتشار خطا
🔘 تمرینات سری اول
▪️ Back Propagation
@Onlinebme
دوره جامع یادگیری عمیق با محوریت RNNs+CNNs+Attention
💡سه هدف اصلی دوره:
🔷 ریاضیات شبکههای عصبی
🔷 درک عمیق شبکه های عصبی
🔷 انجام پروژه های عملی
آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
کاربردهای هوش مصنوعی در پردازش سیگنال های حیاتی
از یادگیری ماشین تا واسط مغز-کامپیوتر
زمان: جمعه ۱۰ مرداد- ساعت ۲۱
https://www.linkedin.com/events/bci7355151563297857536
✅ 《دوره یادگیری عمیق》
🔷 Season 03: CNNs
🔘 تمرینات سری ششم
▪️ CNNs
▪️ Convolutional layer
▪️ Pooling layer
▪️ Dense layer
▪️ Mathematics
▪️ Back Propagation
▪️ LeNet-5
▪️ Hybrid model (CNNs+RNNs)
▪️ Classification
▪️ Image processing
▪️ Signal processing
🔺مهلت تحویل تمرینات: یک هفته
💡 از روابط اثبات شده عکس گرفته و به ترتیب روابط شماره گذاری شوند و همراه با کدهای پیادهسازی شده برای پروژه ها به صورت فایل زیپ ارسال شوند.
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
☑️ این روزها باگهای برنامه نویسی فقط بیشتر نشدهاند… پیچیده تر هم شده اند!!
🔺یکی از دلایلش اینه که ما بیش از حد به مدلهای زبانی مثل ChatGPT تکیه میکنیم، مدلهایی که کد تولید میکنن بدون اینکه ما دقیقاً بفهمیم پشتش چه خبره.
🔻مشکل از هوش مصنوعی نیست. مشکل از اینه که ما داریم «فهمیدن» رو با «کپی کردن» جایگزین میکنیم.
💡برای مسیر یادگیری برنامه نویسی، بهتره که:
1⃣ مبانی رو خودمون یاد بگیریم، مثل متغیرها، حلقه ها، شرطها، توابع، کلاسها، ساختمان داده ها، ...
2⃣ کد کوچک و ساده بسازیم تا رفتار واقعی برنامه رو بفهمیم.
3⃣ قبل از سؤال پرسیدن از LLM، یک بار خودمون فکر کنیم.
4⃣ کد تولیدی مدلها رو خط به خط بخونیم، نه اینکه فقط اجرا کنیم.
5⃣ از LLM برای راهنمایی استفاده کنیم، نه برای جایگزینی فکر کردن.
⚠️ هوش مصنوعی ابزار قدرتمندیه، ولی بدون دانش پایه، تبدیل میشه به یک جعبهٔ جادوی خطرناک. هرچی کمتر بفهمیم، بیشتر باگ میسازیم!!
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
🗒جزوه خام: جلسه یک از فصل سوم دورهی جامع یادگیری عمیق
☑️شبکههای عصبی کانولوشنی (CNNs)
💡تئوری و ریاضیات+ پیادهسازی+ پروژه عملی
@Onlinebme
در این ویدیو آقای ویزل نحوه مشخص کردن receptive field نورونها رو توضیح میدهند...
@Onlinebme
⬛️◼️◾️ پکیجهای آموزشی Onlinebme ◾️◼️⬛️
🔆 اولین گروه آموزشیِ تخصصی و پروژه محور 🔆
〰〰〰 برنامهنویسی متلب 〰〰〰
🔲 اصول برنامهنویسی در متلب (رایگان)
▪️مدت دوره: 11 ساعت
🔘 Link
〰〰〰 برنامهنویسی پایتون 〰〰〰
⚪️ فصل 1: اصول برنامهنویسی پایتون
◽️مدت دوره: 32 ساعت
🔘 Link
⚪️ فصل 2-3: کتابخانه NumPy و Matplotlib
◽️مدت دوره: 18 ساعت
🔘 Link
⚪️ فصل 4: برنامه نویسی شیء گرا در پایتون
◽️مدت دوره: 14 ساعت 30 دقیقه
🔘 Link
〰〰 شناسایی الگو و یادگیری ماشین 〰〰
⚠️ 140 ساعت ویدیوی آموزشی
🔹آموزش تئوری و مباحث ریاضیاتی طبق مراجع معتبر
🔹پیادهسازی مرحله به مرحله الگوریتمها
🔹انجام پروژه های عملی و تخصصی
🔹پیاده سازی گام به گام مقالات تخصصی
⚪️فصل 1 تا 4: از بیزین تا SVM
◽️مدت دوره: 75 ساعت
🔘 Link
⚪️فصل 5: یادگیری جمعی
◽️مدت دوره: 18 ساعت
🔘 Link
⚪️فصل 6: الگوریتمهای کاهش بعد
◽️مدت دوره: 11 ساعت
🔘 Link
⚪️فصل 7: الگوریتمهای انتخاب ویژگی
◽️مدت دوره: 16 ساعت
🔘 Link
⚪️فصل 8: الگوریتمهای خوشهبندی
◽️مدت دوره: 13 ساعت
🔘 Link
〰〰〰〰 شبکههای عصبی 〰〰〰〰
⚪️ پیاده سازی گام به گام شبکه های عصبی
◽️مدت دوره: 25 ساعت
🔘 Link
⚪️ دوره پروژه محور شبکه عصبی کانولوشنی (CNN)
◽️مدت دوره: 11 ساعت
🔘 Link
⚪️ دوره پروژه محور شبکه عصبی بازگشتی (RNN)
◽️مدت دوره: 13 ساعت
🔘 Link
⚪️دوره پروژه محور کاربرد شبکههای عمیق در بینایی ماشین
◽️مدت دوره: 16 ساعت
🔘 Link
⚪️ دوره پیادهسازی شبکههای عصبی با PyTorch
◽️مدت دوره: 70 ساعت
🔘 Link
〰〰〰 پردازش سیگنال مغزی 〰〰〰
⚪️ دوره جامع پردازش سیگنال مغزی(EEG)
◽️مدت دوره: 50 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر P300
◽️مدت دوره: 28 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر SSVEP
◽️ مدت دوره: 33 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر تصور حرکتی
◽️مدت دوره: 21 ساعت
🔘 Link
⚪️ پیادهسازی مقاله CSSP (BCI مبتنی بر MI)
◽️مدت دوره: 7 ساعت و 30 دقیقه
🔘 Link
⚪️پیادهسازی مقاله RCSP (BCI مبتنی بر MI)
◽️مدت دوره: 5 ساعت
🔘 Link
⚪️دوره تبدیل فوریه زمان کوتاه در پردازش سیگنال مغزی
◽️مدت دوره: 8 ساعت
🔘 Link
⚪️دوره پردازش سیگنال مغزی با کتابخانه MNE پایتون
◽️مدت دوره: 33 ساعت
🔘 Link
〰〰〰〰 دوره جامع پردازش تصویر 〰〰〰〰
⚪️فصل 1: آستانه گذاری تصویر، تبدیلات شدت روشنایی و هندسی
◽️مدت دوره: 30 ساعت
🔘 Link
⚪️فصل 2: پردازش هیستوگرام تصویر
◽️مدت دوره: 6 ساعت و 30 دقیقه
🔘 Link
⚪️فصل 3: فیلترهای مکانی
◽️مدت دوره: 15 ساعت و 30 دقیقه
🔘 Link
⚪️فصل 4: عملیات مورفورلوژی
◽️مدت دوره: 6 ساعت
🔘 Link
〰〰〰〰〰 پردازش سیگنال قلبی 〰〰〰〰
⚪️ دوره پردازش سیگنال ECG
◽️مدت زمان دوره: 37 ساعت و 45 دقیقه
🔘 Link
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
💡پیادهسازی دستی شبکه عصبی کانولوشنی...
@Onlinebme
✅ 《دوره یادگیری عمیق》
🔷 Season 02: RNNs IN PRACTICE
🔘 تمرینات سری پنجم
▪️ RNN
▪️ LSTM
▪️ GRU
▪️ Bi-directional LSTM
▪️ Bi-directional GRU
▪️ Time series
▪️ PyTorch
▪️ Text Generation
▪️ Word-Level & Character-Level
▪️ Regression
▪️ Classification
▪️ Signal processing
🔺مهلت تحویل تمرینات: دو هفته
💡 کدهای پیادهسازی شده برای پروژه ها به صورت فایل زیپ ارسال شوند.
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
سلام وقت بخیر،
فصل مربوط به شبکههای بازگشتی (RNN) این هفته به پایان رسید. یک هفته استراحت خواهیم داشت و پس از آن وارد فصل سوم دوره (شبکههای کانولوشنی) میشویم.
در فصل دوم، یکی از پروژه هایی که با استفاده از RNNها انجام دادیم تولید متن بود. این شبکه ها از اولین مدلهایی بودند که برای اینکار استفاده میشدند. با این حال، RNNها محدودیتهایی داشتند و در تولید متن عملکرد چندان دقیق و کارآمدی نداشتند که بعدها با معرفی مکانیزم توجه و سپس مدلهای مبتنی بر ترنسفورمرها، یک تحول بزرگ در تولید محتوا رخ داد و نتیجه آن مدلهای قدرتمندی مانند ChatGPTاست.
✅ در این پروژه، یک شبکهی سبک LSTM (با تنها یک لایه بازگشتی و تعداد نورون محدود) رو روی یک دیتاست بسیار کوچک آموزش دادیم. سپس با استفاده از مدل آموزش دیده، چند نمونه متن به ازای مقادیر مختلف temperature تولید کردیم که خروجی جالبی داشتند.
پارامتر temperature که از مکانیک آماری قرض گرفته شده، در مدلهای زبانی برای کنترل میزان خلاقیت، ریسک پذیری و تنوع در انتخاب کلمات استفاده میشه. مقادیر پایینتر، خروجی را محافظه کارانه، تکراری و قابل پیش بینی میکنند. و در عوض مقادیر بالاتر، باعث تولید متنهای خلاقانه تر و غیرقابل پیش بینی تر میشوند
در ادامه چند نمونه از متنهای تولید شده را با شما به اشتراک میگذارم:
Prime text: i like to say
Temperature: 0.99
i like to say my word its time. how i should have to tell you. but they are married who were in any fix they mostly went to badger the dangerous look at the beginning of the stone own under a tree not long to be a leader. he left we thus with sid words that no star is a continual feast. little twoeyes. here we thank you lady mary so did she get a little ashamed of the questions who lived in that way. she said. he came down and carried it quickly about her. asked beth anxiously. so she was an odd merchant seeing that his son might choose. then they went and stood before the door and the one kept a wonderful one. then the kings daughter came with the cattle and went on his way …
i like to say my word its being rather dirty.
but i cant tell you how we can manage.
i am glad you think that i was a ghost or a man.
i want to be able to find it.
he hesitated.
he forgot all about the ball.
i want to lift my whole in the world to fill such a thing or two.
my brother say a name i have killed many times.
ye have called me a silly ass.
i was dumb.
i hadnt a bit of it out of the window…
the girl was afraid of the beautiful character. the poor woman declared with a little milk at once with a ball of dry kind. she began to beat her with a great storm as a sacrifice. the tin woodman followed with the swallow and fell asleep. when she saw him turning she threw her into the basin. she was so beautiful that he hoped it would be wise to him. but he never told anybody except that they should not come. so long after wealth and darling lived only a few hours earlier to …
i love to hunt my husband.
it is a pity because i am a capital fellow.
i dont know how to read it.
i have never seen him before.
i dont know how to give him to mine.
i have been married behind.
i am a traveler please excuse me.
i will not tell you how to behave.
but you must not talk about that.
it is a pity because i am a smart toad and i dont know.
i was sweeping my room my lady my lady i bought my mates in...
✅ 《دوره یادگیری عمیق》
🔷 Season 02: Long short-term memory (LSTMs)
🔘 تمرینات سری چهارم
▪️ LSTM
▪️ GRU
▪️ Bi-directional LSTM
▪️ Bi-directional GRU
▪️ Time series
▪️ Back Propagation Through Time
▪️ Pure mathematics behind LSTMs
🔺مهلت تحویل تمرینات: دو هفته
💡 از روابط اثبات شده عکس گرفته و به ترتیب روابط شماره گذاری شوند و همراه با کدهای پیادهسازی شده برای پروژه ها به صورت فایل زیپ ارسال شوند.
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
✅ 《دوره یادگیری عمیق》
🔷 Season 02: Bi-directional RNNs (BiRNNs)
🔘 تمرینات سری سوم
▪️ Back Propagation Through Time
▪️ Pure mathematics behind RNNs
▪️ Bi-directional RNNs
▪️ Time series
🔺مهلت تحویل تمرینات: یک هفته
💡 از روابط اثبات شده عکس گرفته و به ترتیب روابط شماره گذاری شوند و همراه با کدهای پیادهسازی شده برای پروژه ها به صورت فایل زیپ ارسال شوند.
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
✅ 《دوره یادگیری عمیق》
🔷 فصل 2: Recurrent neural networks (RNNs)
🔘 تمرینات سری دوم
▪️ Back Propagation Through Time
▪️ Pure mathematics behind RNNs
▪️ Elman/Vanilla RNNs
▪️ Jordan RNNs
▪️ Elman-Jordan RNNs
▪️ Time series dataset
🔺مهلت تحویل تمرینات: دو هفته
💡 از روابط اثبات شده عکس گرفته و به ترتیب روابط شماره گذاری شوند و همراه با کدهای پیادهسازی شده برای پروژه ها به صورت فایل زیپ ارسال شوند.
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
💡مطالعه بیشتر برای شرکت کنندگان دوره آنلاین یادگیری عمیق
✍اثبات روابط مربوط به گرادیان لایه خروجی در مباحث طبقهبندی دوکلاسه
Cost Fun: Binary Cross Entropy
Activation Fun: Sigmoid
🔘بخش کوتاهی از فصل سوم دوره پایتورچ
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
سلام وقت همگی بخیر
دوره یادگیری عمیق از این هفته برگزار میشه
اولین جلسه روز جمعه خواهد بود«ساعت 1»
🔺این جلسه صرفا جهت آشنایی با چارچوپ کار و هماهنگی بیشتر هست. از هفته دیگه دوره رسماً استارت میخوره.
☑️ برنامه در هر جلسه:
◾️رفع اشکال (حل یکی از پروژههای هفته قبل)
◾️آموزش مباحث جدید
☑️ برنامه در طول هر هفته:
◼️ارسال ویدیوهای هر جلسه بعد از ادیت نهایی
◼️ارایه فیدبک لازم در پروژه ها توسط مدرس
◼️آمادهسازی و ارائه جزوه خام قبل هر جلسه
◻️انجام پروژههای تعریف شده
دوستانی که قصد دارند در این دوره شرکت کنند به آیدی زیر پیام دهند.
@onlinebme_admin
امیدوارم که کنار هم تجربه ی خوبی داشته باشیم😊
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
سلام
امیدوارم حالتون خوب باشه،
قصد داریم یک دوره آنلاین با عنوان «دوره جامع یادگیری عمیق»
با محوریت RNNs +CNNs +Attention برگزار کنیم.
در این دوره ریاضیات، پیادهسازی و کاربردی عملی شبکههای عصبی آموزش داده خواهد شد.
سرفصل دوره
1⃣ مروری بر مباحث مقدماتی
┤◼️Back propagation
┤◻️MLP
┤◼️Cost function
┤◻️Optimizers
┤◼️DataLoader
┤◻️Dropout
┤◼️Batch Normalization
┤◻️...
🗂 Projects
2⃣ پیادهسازی شبکه های بازگشتی
┤◼️Elman-Jordan
┤◻️RNN
┤◼️LSTM
┤◻️GRU
┤◼️BiLSTM
🗂 Projects
3⃣ آشنایی با ساختارهای مختلف شبکه های کانولوشنی
┤◼️Convolution layer
┤◻️Pooling layer
┤◼️Spatial conv
┤◻️Temporal conv
┤◼️Seperabale conv
┤◻️Resent
┤◼️....
🗂 Projects
4⃣ ترکیب CNN و RNN
🗂 Projects
5⃣ مکانیزم توجه
┤◻️Attention in CNN
┤◼️Attention in LSTM
🗂 Projects
6⃣ ترکیب CNN+RNN+Attention
مدرس دوره: محمد نوری زاده چرلو
مدت زمان دوره: 30-50 ساعت
دوستانی که قصد دارند در این دوره شرکت کنند به آیدی زیر پیام دهند.
@onlinebme_admin
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
سلام و وقت بخیر
امیدوارم حالتون خوب باشه🙏
همانطور که قبلا اطلاع داده بودم، تصمیم داشتیم دورهای در زمینهی پیادهسازی شبکههای عصبی بازگشتی (RNN) برگزار کنیم. هدف اصلی این دوره، آشنایی با تئوری و ریاضیات این نوع شبکهها، پیادهسازی دستی آنها، استفاده از کتابخانه PyTorch، و در نهایت انجام پروژههای عملی بود.
در این مدت که مشغول مطالعهی روی شبکههای RNN و همچنین بررسی ترکیب آنها با سایر معماریها مانند CNN در مسائل مختلف بودم. متوجه شدم که عملکرد RNN در ترکیب با سایر شبکههای عصبی، بهویژه CNNها، بهینه تر و مؤثرتر میشود.
بر همین اساس، تصمیم گرفتم دورهای جامع طراحی کنیم که فصل اول آن به RNN اختصاص داده بشه و در فصلهای بعدی به معرفی و پیادهسازی سایر شبکهها مانند CNN و ترکیب آنها با RNN در پروژههای مختلف بپردازیم.
این دوره با عنوان "شبکههای عصبی با محوریت RNN و CNN" برگزار خواهد شد و محتوای آن به صورت کاربردی طراحی شده است. در این چند ماه تلاش کردم که الگوریتمهای مختلف را مطالعه و بررسی کنم تا بتونم محتوایی کامل و ساختاریافته ارائه دهم.
الان فهرست مطالب دوره در حال نهایی شدن است و ثبت نام از این هفته آغاز خواهد شد.
سرفصلهای تقریبی دوره:
فصل اول: مروری بر مفاهیم پایه شبکههای عصبی
🔺 پس انتشار خطا، توابع هزینه، روشهای بهینه سازی، dropout، batch normalization ....
فصل دوم: ریاضیات و پیادهسازی شبکههای بازگشتی (RNN, LSTM, GRU, BiLSTM)
🔺 پروژههای عمومی (مسائل قابل تعمیم به کاربردهای مختلف)
🔺 پروژههای پردازش سیگنالهای حیاتی (EEG, ECG)
فصل سوم: بررسی معماری شبکههای CNN
🔺انواع کانولوشن و ساختارهای رایج
🔺پیاده سازی شبکه EEGNet و توسعهی آن
🔺پیاده سازی شبکههای ShallowNet و DeepNet
🔺پروژههای عمومی و همچنین پروژههای مرتبط با سیگنال EEG و ECG
فصل چهارم: ترکیب شبکههای RNN و CNN
🔺پروژههای تحلیل دادههای سری زمانی
🔺پروژههای پردازش سیگنالهای حیاتی
فصل پنجم: آشنایی با Attention
🔺آشنایی با انواع Self-Attention
🔺طراحی لایه Attention برای انتخاب Feature Map/ Channel
🔺طراحی Attention مخصوص شبکههای
✅ ترکیب RNN+LSTM+Attention و پیاده سازی آن در پروژه های مختلف (تشخیص و پیش بینی خطا، سیگنالهای حیاتی، ... )
💡تمرکز این دوره بر ترکیب مبانی ریاضی و تئوری شبکههای عصبی با پروژههای عملی و کاربردی خواهد بود. امیدوارم کنار هم بتونیم تجربه خوبی داشته باشیم و خروجی خوبی از این دوره بدست بیاریم.
پیش نیاز دوره: پایتورچ
https://onlinebme.com/product/implementing-neural-networks-with-pytorch/
ثبتنام دوره این هفته شروع خواهد شد...
موفق باشید
محمد نوریزاده چرلو