10 عدد از برترین الگوریتم‌های  یادگیری عمیق که باید در مورد آن‌ها بدانید
الگوریتم‌های یادگیری عمیق ماشین‌ها را آموزش می‌دهند. شرکت‌ها و سازمان‌های بزرگ از این شبکه‌های عصبی مصنوعی برای انجام محاسبات پیچیده روی مقدار زیادی از داده‌ها استفاده می‌کنند. این مدل از یادگیری ماشین با تقلید از الگوی ساختاری مغز انسان سعی می‌کند محاسبات را به شیوه هوشمندانه‌ای انجام دهد. در حالی که الگوریتم‌های یادگیری عمیق دارای رویکرد خودآموزی هستند، اما به شبکه‌های عصبی مصنوعی (ANN) وابسته هستند و سعی می‌کنند در زمان محاسبه اطلاعات از رویکردی که نورون‌های مغزی بر مبنای آن کار می‌کنند به پردازش اطلاعات بپردازند.

1. شبکه عصبی پیچشی

شبکه عصبی پیچشی (Convolutional Neural Network) که به‌نام شبکه ConvNets نیز شناخته می‌شود از چند لایه تشکیل شده و عمدتا برای پردازش تصاویر و تشخیص اشیا استفاده می‌شود. یان لکون (Yann LeCun) اولین بار شبکه عصبی پیچشی را به دنیای  فناوری معرفی کرد و نام آن‌را LeNet نامید. شبکه‌ای که برای شناسایی کاراکترهایی مانند کد پستی و ارقام استفاده می‌شد. امروزه، شبکه عصبی پیچشی برای شناسایی تصاویر ماهواره‌ای، پردازش تصاویر پزشکی، سری‌های زمانی پیشگویانه و تشخیص ناهنجاری‌ها به شکل گسترده‌ای استفاده می‌شوند.

2. شبکه‌های حافظه طولانی کوتاه-مدت

شبکه حافظه طولانی کوتاه‌-مدت (Long Short Term Memory Networks) سرنام LSTM نوعی شبکه عصبی بازگشتی (Recurrent Neural Network) است که می‌تواند وابستگی‌های طولانی مدت را یاد گرفته و به خاطر بسپارد. یادآوری اطلاعات قبلی برای مدت طولانی أساس و پایه این مدل شبکه‌ها را شکل می‌دهد.  حافظه‌های طولانی کوتاه-مدت به مرور زمان اطلاعات را حفظ می‌کنند. آن‌ها در پیش‌بینی سری‌های زمانی مفید هستند، زیرا ورودی‌های قبلی را به خاطر می‌آورند. حافظه‌های طولانی کوتاه-مدت ساختاری شبیه به زنجیره دارند که چهار لایه متقابل با هم ارتباط منحصر به فردی دارند. علاوه بر پیش‌بینی‌های سری‌های زمانی، حافظه‌های طولانی کوتاه-مدت برای تشخیص گفتار، ترکیب موسیقی و توسعه دارویی استفاده می‌شوند.

 3. شبکه‌های عصبی بازگشتی

شبکه‌های عصبی بازگشتی (RNN) سرنام Recurrent Neural Networks دارای ارتباطاتی هستند که باعث پدید آمدن چرخه‌های مستقیمی می‌شوند و این قابلیت را فراهم می‌کنند تا خروجی‌های حافظه  طولانی کوتاه مدت را به عنوان ورودی به فاز فعلی تغذیه کرد. خروجی حافظه طولانی کوتاه‌ مدت  به ورودی فاز وارد می‌شود و به دلیل وجود حافظه داخلی می‌تواند ورودی‌های قبلی را حفظ کند. به‌طور معمول، شبکه‌های عصبی بازگشتی درک تصویر (image captioning)، تحلیل سری زمانی، پردازش زبان طبیعی، تشخیص دست خط و ترجمه ماشینی استفاده می‌شوند.

4. شبکه‌های مولد تخاصمی

شبکه‌های مولد تخاصمی (Generative Adversarial Networks) الگوریتم‌های یادگیری عمیق مولدی هستند که نمونه‌های جدیدی از داده‌ها که شبیه به داده‌های آموزشی هستند را تولید می‌کنند. شبکه‌های مولد تخاصمی دارای دو مولفه هستند. اولین مولفه مدل مولد (Generator Model) نام دارد که برای تولید نمونه‌های جدید آموزشی استفاده می‌شود. مولفه دوم مدل متمایزگر (Discriminator Model) است که سعی می‌کند تا نمونه‌های را به عنوان نمونه واقعی یا جعلی (تولید شده) دسته‌بندی کند. هر دو مولفه در قالب یک بازی مجموع صفر تخاصمی آموزش می‌بینند و این فرآیند ادامه پیدا می‌کند تا این‌که مدل متمایزکننده در نیمی از فعال اشتباه کند، در این حالت مشخص می‌شود که مدل مولد توانسته نمونه‌های قابل باور تولید کند. از این مدل شبکه‌ها می‌توان بهبود پردازش تصاویر مرتبط با اخترشناسی و شبیه‌سازی عدسی گرانشی برای تحقیقات در مورد ماده تاریک استفاده کرد. توسعه‌دهندگان بازی‌های ویدیویی نیز از شبکه مولد تخاصمی برای ساخت تصاویر با وضوح پایین، بافت‌های دو بعدی در بازی‌های ویدیویی قدیمی و بازآفرینی در وضوح بالاتر از طریق آموزش تصویر استفاده می‌کنند.

5. شبکه عصبی توابع شعاعی پایه

شبکه عصبی توابع شعاعی پایه (Radial Basis Function Network) نوع خاصی از شبکه‌های عصبی پیش‌رو است که از توابع پایه شعاعی به عنوان توابع فعال‌ساز استفاده می‌کند. آن‌ها دارای یک لایه ورودی، یک لایه پنهان و یک لایه خروجی هستند و بیشتر برای طبقه‌بندی، رگرسیون و پیش‌بینی سری زمانی استفاده می‌شوند. در شبکه‌های فوق ورودی می‌تواند به عنوان یک بردار از اعداد حقیقی مدل‌سازی شود. خروجی این شبکه یک تابع اسکالر از بردار ورودی است.

6. پرسپترون چند لایه

به گروهی از شبکه‌های عصبی مصنوعی پیشخور اشاره دارد. یک پرسپترون چند لایه حداقل سه لایه گره به‌نام‌های لایه ورودی، لایه پنهان و لایه خروجی دارد. به غیر از گره‌های ورودی، هر گره یک سلول عصبی است که از یک تابع فعال‌سازی غیر خطی استفاده می‌کند. MLP از تکنیک یادگیری نظارت شده به نام بازپرداخت برای آموزش استفاده می‌کند. لایه‌های متعدد آن و فعال‌سازی غیر خطی آن MLP را از یک پرسپترون خطی متمایز می‌کند. در واقع می‌تواند داده‌هایی را متمایز کند که به صورت خطی قابل ‌تفکیک نیستند. MLP مکان بسیار خوبی برای شروع یادگیری در مورد فناوری یادگیری عمیق است. تعداد ورودی و خروجی آن‌ها ممکن است یکسان باشند، اما ممکن است چند لایه پنهان داشته باشد. این مدل شبکه‌ها را می‌توان برای ساخت نرم‌افزار تشخیص گفتار، تشخیص تصویر و ترجمه ماشین استفاده کرد.

7. شبکه خودسازمان ده

شبکه عصبی خودسازمان ده (Self Organizing Maps) را اولین بار پروفسور تووو کوهونن (Teuvo Kohonen) ابداع کرد. برای مصورسازی داده‌ها با هدف کاهش ابعاد داده‌ها این قابلیت در اختیار توسعه‌دهندگان قرار دارد که از شبکه‌های عصبی مصنوعی خودسازمانده استفاده کنند. در فرآیند تجسم‌سازی داده‌ها تلاش می‌شود تا مشکلاتی که انسان‌ها به دلیل حجم بالای داده‌های چند ساختاری قادر به حل آن‌ها نیستند را از طریق تجسم‌سازی حل کرد. شبکه عصبی خودسازمان ده (SOM) برای کمک به کاربران در درک اطلاعات با ابعاد بالا ایجاد شده‌اند.

8. شبکه باور عمیق

شبکه باور عمیق (Deep Belief Network) مدل‌های مولدی هستند که از چند لایه متغیر تصادفی و نهان تشکیل شده‌اند. متغیرهای نهفته مقادیر باینری دارند و اغلب واحدهای پنهان نامیده می‌شوند. شبکه باور عمیق مجموعه‌ای از ماشین‌های Boltzmann است که بین لایه‌ها ارتباط دارد و هر لایه شبکه را با دو لایه قبلی و بعدی مرتبط می‌کند. از شبکه‌های باور عمیق برای شناسایی تصویر، تشخیص فیلم و داده‌های موشن‌کپچر استفاده می‌شود.

9. ماشین بولتزمن محدود

ماشین بولتزمن محدود (Restricted Boltzmann Machine) توسط جفری هینتون توسعه یافته است. ماشین بولتزمن محدود شبکه‌های عصبی تصادفی هستند که می‌توانند از توزیع احتمال در مجموعه‌ای از ورودی‌ها یاد بگیرند. این الگوریتم یادگیری عمیق برای کاهش ابعاد، طبقه‌بندی، رگرسیون، فیلتر مشترک، یادگیری ویژگی‌ها و مدل‌سازی موضوع استفاده می‌شود. RBM بلوک‌های سازنده DBNها هستند.

10. رمزگذاران خودکار

خودرمزگذارها (Autoencoders) نوع خاصی از شبکه‌های عصبی پیشخوان هستند که در آن‌ها ورودی و خروجی یکسان است. جفری هینتون برای حل مشکلات یادگیری بدون نظارت در دهه 1980 رمزگذاران خودکار را طراحی کرد. آن‌ها شبکه‌های عصبی آموزش دیده‌ای هستند که داده‌ها را از لایه ورودی به لایه خروجی تکثیر می‌کنند. رمزگذاران خودکار برای اهدافی مانند شناسایی داروها، پیش‌بینی‌ها و پردازش تصویر استفاده می‌شوند.

ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را می‌توانید از کتابخانه‌های عمومی سراسر کشور و نیز از دکه‌های روزنامه‌فروشی تهیه نمائید.

ثبت اشتراک نسخه کاغذی ماهنامه شبکه     
ثبت اشتراک نسخه آنلاین

 

کتاب الکترونیک +Network راهنمای شبکه‌ها

  • برای دانلود تنها کتاب کامل ترجمه فارسی +Network  اینجا  کلیک کنید.

کتاب الکترونیک دوره مقدماتی آموزش پایتون

  • اگر قصد یادگیری برنامه‌نویسی را دارید ولی هیچ پیش‌زمینه‌ای ندارید اینجا کلیک کنید.

ایسوس

نظر شما چیست؟