شبکه‌های عصبی و کاربرد آن
راهنمای جامع انواع مختلف شبکه‌های عصبی
‌گستره شبکه‌های عصبی مصنوعی (Artificial Neural Networks) روز به روز بیشتر می‌شود و هر چند وقت یکبار شاهد عرضه نوع جدیدی از آن‌ها هستیم. هر یک از این شبکه‌های هوشمند برای مقاصد خاصی استفاده می‌شوند و بر همین اساس مهم است با قابلیت‌ها و کاربردهای خاص‌منظوره این شبکه‌ها آشنا شویم. بر همین اساس در این مقاله معماری و هم‌بندی مهم‌ترین شبکه‌های عصبی مصنوعی را بررسی کرده‌ایم.

ثبثبثب.gif

انواع شبکه‌های عصبی مصنوعی

‌در حالت کلی شبکه‌های عصبی بر مبنای یک معماری چند لایه داده‌ها را پردازش و خروجی مناسب را ارائه می‌کنند. به بیان ساده‌تر، در هر لایه، پردازش یا پیش‌پردازشی روی داده‌ها انجام می‌شود و نتیجه برای لایه بعدی ارسال می‌شود، با این‌حال، عملکرد تمامی شبکه‌های عصبی این‌گونه نیست و هر یک بر مبنای کارکردی که برای آن‌ها تعریف شده از نوع خاصی از هم‌بندی برای پردازش اطلاعات استفاده می‌کنند. 

شبکه عصبی پرسپترون

پرسپترون (Perceptron) ساده‌ترین و قدیمی‌ترین نوع شبکه‌های عصبی است (شکل 1). پرسپترون تعدادی ورودی را دریافت، آن‌ها را ترکیب و تابع فعال‌سازی روی آن‌ها اجرا می‌کند و در نهایت نتایج را برای لایه خروجی ارسال می‌کند. شبکه‌های عصبی پرسپترون چند‌لایه، متشکل از یک لایه ورودی، لایه‌های نهان و لایه خروجی هستند. در این شبکه‌ها گره‌های شبکه عصبی که سلول عصبی نامیده می‌شوند واحدهای محاسباتی هستند. در شبکه‌های عصبی پرسپترون چند‌لایه، خروجی‌های لایه اول به عنوان ورودی‌های لایه نهان استفاده می‌شوند و این روند ادامه پیدا می‌کند تا وقتی که خروجی آخرین لایه یا لایه‌های نهان به عنوان ورودی‌ لایه خروجی استفاده شود. در این شبکه‌ها به لایه‌هایی که میان لایه ورودی و لایه خروجی قرار می‌گیرند لایه نهان (Hidden Layers) گفته می‌شود. 

شکل 1

شبکه عصبی پیش‌خور

شبکه‌های عصبی پیش‌خور (Feed Forward Neural Networks) قدمتی بیش از 50 سال دارند و همانند شبکه عصبی پرسپترون یکی از قدیمی‌ترین شبکه‌های عصبی به شمار می‌روند (شکل 2). معماری این شبکه‌های عصبی به این گونه‌ است که تمامی گره‌ها به‌طور کامل به یکدیگر متصل هستند. در این شبکه‌ها فعال‌سازی از لایه ورودی به خروجی بر مبنای یک لایه پنهان میان ورودی و خروجی و بدون آن‌که مشکل حلقه رو به عقب به وجود آید انجام می‌شود. در بیشتر موارد، برای آموزش شبکه‌های عصبی پیش‌خور از رویکرد پس‌انتشار (Backpropagation) استفاده می‌شود. 

شکل 2

شبکه عصبی شعاعی پایه

شبکه‌های عصبی شعاعی پایه (Radial Basis Networks) نوع بهبودیافته شبکه‌های عصبی پیش‌خور هستند که برای عملکرد بهتر از تابع شعاعی پایه به جای تابع لجستیک به عنوان تابع فعال‌ساز استفاده شده است 

 (شکل 3). شبکه‌های عصبی پیش‌خور و شعاعی چه تفاوتی با یکدیگر دارند؟ تابع لجستیک برخی از مقادیر دلخواه را به یک بازه صفر تا یک نگاشت می‌کند تا بتواند به یک پرسش بله یا خیر پاسخ دهد. این مدل شبکه‌های عصبی برای طبقه‌بندی (Classification) و سامانه‌های تصمیم‌گیر(Making Systems) مناسب هستند، در نتیجه زمانی که قرار است از مقادیر پیوسته در این شبکه‌ها استفاده شود، دیگر سودبخش نیستند. در نقطه مقابل، توابع شعاعی پایه برای پاسخ‌گویی به این پرسش استفاده می‌شوند که چقدر از هدف دور هستیم؟ شبکه‌های عصبی شعاعی پایه برای تخمین تابع و کنترل ماشین (به عنوان جایگزینی برای کنترل‌کننده PID) مناسب هستند. در مجموع باید بگوییم که شبکه‌های شعاعی پایه نوع بهبودیافته شبکه‌های عصبی پیش‌خور با تابع فعال‌ساز و ویژگی‌های متفاوت هستند. 

شکل 3

شبکه عصبی پیش‌خور عمیق

شبکه عصبی پیش‌خور عمیق (Deep Feed Forward Neural Networks) اوایل دهه 90 میلادی پدید آمدند (شکل 4). این شبکه‌های عصبی شبیه به شبکه‌های عصبی پیش‌خور هستند با این تفاوت که بیش از یک لایه پنهان در آن‌ها تعبیه شده است. این شبکه‌های عصبی چه تفاوتی با شبکه‌های عصبی پیش‌خور قدیمی دارند؟ در زمان آموزش شبکه عصبی پیش‌خور، تنها بخش کوچکی از خطا به لایه عقب ارسال می‌شود. با توجه به این‌که از لایه‌های زیادی در این شبکه‌ها استفاده می‌شود، شاهد رشد نمایی زمان آموزش این شبکه‌ها هستیم که باعث می‌شود شبکه‌های عصبی پیش‌خور عمیق چندان کاربردی نباشند. اوایل سال 2000 میلادی تلاش شد تا مشکلات اساسی این شبکه‌ها برطرف شود و امکان آموزش یک شبکه عصبی پیش‌خور عمیق (DFF) به شکل کارآمدتری انجام شود. امروزه شبکه‌های عصبی پیش‌خور عمیق، پایه و اساس سامانه‌های یادگیری ماشین مدرن را شکل می‌دهند و نتایجی در حد شبکه‌های عصبی پیش‌خور را ارائه می‌کنند، و حتی در اغلب موارد نتایج بهتری نسبت به آن‌ها ارائه می‌کنند. 

شکل 4

شبکه‌های عصبی بازگشتی

شبکه‌های عصبی بازگشتی (Recurrent Neural Networks) مفهوم جدیدی به‌نام سلول‌های بازگشتی (Recurrent Cells) را به دنیای هوش مصنوعی و شبکه‌های عصبی وارد کردند (شکل 5). اولین شبکه عصبی بازگشتی که شبکه جردن نام داشت بر مبنای این معماری کار می‌کرد که هر یک از سلول‌های پنهان، ورودی و خروجی خود را با بر مبنای یک یا چند مرحله تکرار و با تاخیر ثابت دریافت/ارسال می‌کردند. صرف‌نظر از این موضوع، شبکه جردن عملکردی مشابه با شبکه‌های عصبی پیش‌خور رایج داشت. با این‌حال، تغییرات مختلفی نظیر هدایت حالت به گره‌های ورودی، تاخیر متغیرها و موارد این چنینی در شبکه‌های عصبی بازگشتی اعمال شد، اما در حالت کلی معماری و عملکرد آن‌ها خط سیر مشخصی دارد. این نوع شبکه‌های عصبی زمانی استفاده می‌شوند که زمینه (Context) مهم باشد. در این حالت هنگامی که تصمیم‌گیری‌‌ها بر مبنای تکرارهای قبلی یا نمونه‌ها اتخاذ شود، روی نمونه‌های کنونی تاثیرگذار می‌شوند. رایج‌ترین مثالی که در ارتباط با زمینه‌ها می‌توان به آن اشاره کرد متن است. در متن یک کلمه را می‌توان تنها در زمینه کلمه یا جمله پیشین تحلیل کرد. امروزه، چنین رویکردی در ارتباط با شناسایی هرزنامه‌ها از ایمیل‌های عادی توسط ارائه‌دهندگان خدمات ایمیلی استفاده می‌شود. 

شکل 5

حافظه کوتاه‌مدت بلند

حافظه کوتاه‌مدت بلند (Long/Short Term Memory) نوع جدیدی از سلول حافظه را معرفی می‌کند (شکل 6). این سلول می‌تواند داده‌ها را هنگامی که شکاف زمانی وجود دارد پردازش کند. شبکه عصبی پیش‌خور می‌تواند متن را با به خاطر سپردن ده کلمه قبلی پردازش کند. با این‌حال، شبکه‌های مبتنی بر حافظه کوتاه‌مدت/بلندمدت قادر هستند قاب‌های ویدیویی را با به خاطر سپردن حالتی که در قاب‌های قبل‌تر اتفاق افتاده پردازش کنند. این مدل شبکه‌ها به‌طور گسترده‌ای در ارتباط با بازشناسی گفتار و بازشناسی رفتار استفاده می‌شوند. سلول‌های حافظه متشکل از یک جفت عنصری هستند که به آن‌ها دروازه گفته می‌شود. این عناصر قابلیت بازگشتی دارند و چگونگی به یاد آوردن و فراموش کردن اطلاعات را کنترل می‌کنند. برای درک بهتر موضوع به شکل 7 دقت کنید. ایکس‌های موجود در نمودار، دروازه هستند و وزن و گاهی اوقات تابع فعال‌ساز دارند. به‌طور مثال، ایکس‌ها تصمیم می‌گیرند که داده‌ها به جلو هدایت شوند یا خیر، حافظه را پاک کنند یا خیر و کارهای این چنینی را انجام دهند. دروازه ورودی، تصمیم می‌گیرد که چه میزان اطلاعات از آخرین نمونه در حافظه نگه‌داری شود. دروازه خروجی نرخ داده‌های انتقال داده شده به لایه بعد را تنظیم می‌کند، در حالی که دروازه فراموشی، نرخ خارج شدن داده‌ها از حافظه را کنترل می‌کند. 

شکل 6

شکل 7

شبکه عصبی واحد بازگشتی دروازه‌ای

واحد بازگشتی دروازه‌ای (Gated Recurrent Unit) نوع خاصی از شبکه‌های LSTM با دروازه‌ها و بازه زمانی متفاوت است (شکل 8). این نوع از شبکه‌های عصبی عملکرد نسبتا ساده‌ای دارند. امروزه این مدل شبکه‌های عصبی بازگشتی بیشتر در موتور متن به گفتار و ترکیب صدا استفاده می‌شوند. برخی متخصصان هوش مصنوعی بر این باور هستند که شبکه عصبی واحد بازگشتی دروازه‌ای اندکی متفاوت از حافظه کوتاه‌مدت/بلندمدت هستند، زیرا تمامی دروازه‌های شبکه LSTM در یک دروازه که به آن دروازه به‌روزسانی گفته می‌شود ترکیب می‌شوند و دروازه بازشناسی (Rest) در نزدیکی گره ورودی قرار دارد. علاوه بر این شبکه‌های GRU نسبت به LSTM از منابع کمتری استفاده می‌کنند، اما عملکرد یکسانی با LSTM دارند. 

شکل 8

شبکه عصبی خودرمزگذار

شبکه‌های عصبی خودرمزگذار (Auto Encoder) برای دسته‌بندی، خوشه‌بندی و فشرده‌سازی ویژگی‌ها استفاده می‌شوند (شکل 9). هنگامی که یک شبکه عصبی پیش‌خور برای طبقه‌بندی آموزش داده می‌شود باید نمونه‌های ایکس و وای طبقه به عنوان خوراک داده‌ای در اختیار شبکه قرار گیرد تا یکی از سلول‌های وای فعال شوند. در اصطلاح رایج به این نمونه معماری، یادگیری تحت نظارت می‌گویند. با توجه به ساختار و معماری این شبکه‌ها، در آن‌ها تعداد لایه‌های پنهان کمتر از تعداد سلول‌های ورودی هستند و تعداد سلول‌های خروجی برابر با سلول‌های ورودی هستند. در نتیجه این امکان فراهم است تا شبکه‌های عصبی خود رمزگذار را به گونه‌ای آموزش داد تا خروجی را تا حد امکان به ورودی نزدیک‌تر کنند و با تعمیم داده‌ها به دنبال الگوهای رایج بگردند. بنابراین این امکان فراهم است تا شبکه عصبی خودرمزگذار را بر مبنای رویکرد یادگیری بدون نظارت نیز استفاده کرد. 

شکل 9

شبکه خودرمزگذار متغیر

شبکه عصبی خود رمزگذار متغیر (Variational Auto Encoder) در مقایسه با شبکه عصبی خود رمزگذار، احتمالات را به جای ویژگی‌ها فشرده می‌کند (شکل 10). در شرایطی که تفاوت جزیی میان این دو شبکه عصبی وجود دارد، اما هر یک از آن‌ها برای کاربرد خاصی در نظر گرفته شده‌اند. شبکه عصبی خودرمزگذار به دنبال پاسخ برای این پرسش است که چگونه می‌توان داده‌ها را تعمیم داد؟ در حالی که شبکه خود رمزگذار متغیر به دنبال پاسخی برای این پرسش است که ارتباط میان دو رویداد چقدر زیاد است (به‌طور مثال، ارتباط میان ابر و باران) و باید خطا را میان دو رویداد توزیع کرد یا آن‌ها به‌طور کامل مستقل از یکدیگر هستند.

شکل 10

شبکه خود رمزگذار دینوزینگ

در شرایطی که شبکه‌های خودرمزگذار قادر به حل بسیاری از مشکلات هستند، گاهی اوقات این شبکه‌ها به جای شناسایی بهترین ویژگی، تنها روی داده‌های ورودی سازگار با یکدیگر متمرکز می‌شوند (شکل 11). شبکه عصبی خود رمزگذاری دینوزینگ (Deniising AutoEncoder) برای حل این مشکل مقداری نویز (اغتشاش) به سلول ورودی اضافه می‌کند. در این حالت شبکه باید برای ارائه خروجی، کار بیشتری انجام دهد تا بتواند ویژگی‌های متداول‌تر بیشتری را پیدا کند که در نهایت خروجی دقیق‌تری آماده شود. 

شکل 11

شبکه عصبی خود رمزگذار اسپارس

شبکه عصبی خود رمزگذار اسپارس (Sparse AutoEncoder) گونه پیشرفته‌تری از شبکه‌های عصبی مصنوعی خود رمزگذار است که می‌تواند برخی از الگوهای گروهی مستتر در داده‌ها را آشکار کند (شکل 12). ساختار شبکه عصبی خود رمزگذار اسپارس شباهت زیادی به شبکه عصبی خود رمزگذار دینوزینگ دارد. در شبکه‌های خودرمزگذار اسپارس تعداد لایه‌های پنهان بیشتر از تعداد سلول‌های لایه ورودی و خروجی است. 

شکل 12

زنجیره مارکو

زنجیره‌های مارکو یکی از قدیمی‌ترین مباحث دنیای گراف‌ها هستند که در آن‌ها هر یال دربرگیرنده احتمالی است (شکل 13). در گذشته از زنجیره‌های مارکو برای ساخت متن استفاده می‌شد، به‌طور مثال بعد از واژه Hello، با احتمال 0.0053 درصد کلمه Dear و با احتمال 0.03551 درصد کلمه You ظاهر می‌شد. امروزه از تکنیک مارکو در موبایل‌ها و با هدف پیش‌بینی متن استفاده می‌شود. زنجیره‌های مارکو، شبکه‌های عصبی کلاسیک نیستند و می‌توانند برای طبقه‌بندی بر پایه احتمالات (فیلترهای بیزی)، خوشه‌بندی (برخی از انواع) و ماشین حالت متناهی استفاده شوند. 

شکل 13

شبکه عصبی هاپفیلد

شبکه‌های هاپفیلد (Hopfield Networks) روی مجموعه محدودی از نمونه‌ها آموزش می‌بینند و بنابراین به یک نمونه شناخته شده با نمونه مشابهی پاسخ می‌دهند (شکل 14). قبل از آموزش، هر سلول به عنوان یک سلول ورودی در طول آموزش به عنوان یک سلول پنهان و در هنگام استفاده به عنوان یک سلول خروجی در نظر گرفته می‌شود. یک شبکه هاپفیلد سعی می‌کند نمونه‌های آموزش دیده بسازد. شبکه‌های عصبی هاپفیلد در تعامل با دینوزینگ و بازگردانی ورودی‌ها استفاده می‌شوند. اگر به این شبکه‌ها نیمی از یک تصویر یا توالی ارائه شود قادر است نمونه کامل را باز می‌گرداند. 

شکل 14

ماشین بولتزمن

ماشین بولتزمن (Boltzmann Machines) به دلیل این‌که برخی از سلول‌ها به عنوان ورودی علامت‌گذاری شده و پنهان می‌مانند، شباهت زیادی به شبکه‌های هاپفیلد دارند (شکل 15). سلول‌های ورودی زمانی‌که سلول‌های پنهان حالت خود را به‌روزرسانی می‌کنند تبدیل به سلول‌های خروجی می‌شوند. 

شکل 15

ماشین بولتزمن محدود

ماشین بولتزمن محدود (Restricted Boltzmann Machine) به لحاظ معماری شباهت زیادی به ماشین بولتزمن دارد، اما به دلیل محدود بودن تنها امکان آموزش آن با استفاده از رویکرد پس‌انتشار تنها به عنوان پیش‌خور فراهم است، زیرا داده‌های ارسال شده پس‌انتشار یکبار به لایه ورودی برگشت داده می‌شوند (شکل 16). 

شکل 16

شبکه باور عمیق

شبکه باور عمیق (Deep Belief Network) نشان داده شده در شکل هفده، پشته‌ای از ماشین‌های بولتزمن است که توسط متغیر خودرمزگذار احاطه شده‌اند (شکل 17). آن‌ها را می‌توان به شکل زنجیره به یکدیگر متصل کرد و برای تولید داده‌ها بر مبنای یک الگوی یاد گرفته شده از آن‌ها استفاده کرد. 

شکل 17

شبکه پیچشی عمیق

شبکه پیچشی عمیق (Deep Convolutional Network) دارای سلول‌های پیچشی و هسته‌هایی هستند که هر یک برای کاربرد خاصی در نظر گرفته می‌شوند ‌(شکل 18). هسته‌های پیچشی داده‌های ورودی را پردازش می‌کنند و سلول‌های پیچشی با استفاده از توابع غیر‌خطی نظیر Max و کاهش ویژگی‌های غیر ضروری فرآیند فوق را ساده‌تر می‌کنند. به‌طور معمول، شبکه‌های عصبی پیچشی برای بازشناسی تصاویر استفاده می‌شوند. به‌طوری که روی یک زیرمجموعه از تصاویر در ابعاد 20 در 20 عمل می‌کنند.

شکل 18

این پنجره ورودی، روی کل تصویر به شکل کره‌کره‌ای و پیکسل به پیکسل حرکت می‌کند. در این حالت داده‌ها بر مبنای فشرده‌سازی ویژگی‌های ورودی به گونه‌ای به لایه‌های پیچشی هدایت می‌شوند که در نهایت حالتی شبیه به یک قیف را پدید می‌آورند. در این حالت اولین لایه گرادیان، دومین لایه خطوط و سومین لایه شکل را شناسایی می‌کنند. این فرآیند تا زمانی ادامه پیدا می‌کند که یک شی مشخص تشخیص داده شود. 

شبکه دکانولوشن

شبکه دکانولوشن (Deconvolution Network) عملکردی برعکس شبکه پیچشی عمیق دارد (شکل 19). شبکه دکانولوشن برای تشخیص تصویری شبیه به گربه، اطلاعات را دریافت و برداری نظیر {dog: 0, lizard: 0, horse: 0, cat: 1} ایجاد می‌کند و در ادامه بر مبنای اطلاعات به دست آمده تصویر گربه را ترسیم می‌کند. 

شکل 19

شبکه گرافیکی معکوس پیچشی عمیق

شبکه گرافیکی معکوس پیچشی عمیق (Deep Convolutional Inverse Graphics Network) نشان داده شده در شکل بیست، یک شبکه خودرمزگذار است که در آن شبکه پیچشی عمیق و شبکه دکانولوشن به جای آن‌که به عنوان شبکه‌های مجزا کار کنند با هدف فاصله‌گذاری‌هایی برای ورودی و خروجی شبکه استفاده می‌شوند (شکل 20). این مدل شبکه بیشتر برای پردازش تصویری که قبلا آموزشی در مورد آن‌ها ندیده‌اند استفاده می‌شوند. این شبکه‌ها به دلیل سطوح انتزاعی که دارند قادر به حذف اشیا خاصی از تصاویر یا ترسیم دوباره تصاویر هستند و علاوه بر این توانایی جایگزینی اشیا درون تصویر را دارند. به‌طور مثال به جای اسب یک گورخر را در تصویر جایگزین کنند. این مدل شبکه‌ها در ارتباط با دیپ‌فیک استفاده می‌شوند. 

شکل 20

شبکه مولد تخاصمی

شبکه‌های مولد تخاصمی (Generative Adversarial Networks) یک شبکه دوگانه متشکل از مولد و (Generator) و متمایزکننده (Discriminator) هستند (شکل 21). این مدل شبکه‌های عصبی به شکل مستمر به‌روزرسانی می‌شوند تا دو شبکه بتوانند تصویر واقعی تولید کنند. 

شکل 21

ماشین حالت سیال

ماشین حالت سیال (Liquid State Machine) یک شبکه عصبی اسپارس نیمه‌متصل است که در آن توابع فعال‌ساز با سطح آستانه مشخصی جایگزین شده‌اند (شکل 22). در این شبکه‌ها سلول، مقادیر را از نمونه‌های ترتیبی تجمیع می‌کند و خروجی را تنها زمانی ارائه می‌کند که مطابق با سطح آستانه تعیین شده باشد. در ادامه شمارنده خارجی را روی صفر قرار می‌دهد. ماشین حالت سیال با الهام از مغز انسان ساخته شده‌اند و به‌طور گسترده در بینایی ماشین و سامانه‌های بازشناسی گفتار استفاده می‌شوند، هرچند این شبکه‌ها به کندی پیشرفت می‌کنند.

شکل 22

 ‌ماشین تورینگ عصبی

شبکه‌های عصبی شبیه به جعبه سیاه هستند. این شبکه‌ها را می‌توان آموزش داد، نتایج آن‌ها را دریافت کرد و عملکرد آن‌ها را بهبود بخشید، با این‌حال به درستی مشخص نیست که آن‌ها بر مبنای چه راهکاری تصمیمات خود را اتخاذ می‌کنند. ماشین تورینگ عصبی (Neural Turing Machine)

برای حل این مشکل طراحی شده است (شکل 23). ماشین تورینگ عصبی یک شبکه عصبی پیش‌خور با سلول‌های حافظه استخراج شده است. برخی دانشمندان معتقد هستند که ماشین عصبی تورینگ نوعی انتزاع روی LSTM است. در این نوع از شبکه‌های عصبی، حافظه به وسیله محتوای آن ارجاع داده می‌شود و شبکه می‌تواند بسته به حالت فعلی از حافظه بخواند یا  روی آن بنویسید.

شکل 23

ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را می‌توانید از کتابخانه‌های عمومی سراسر کشور و نیز از دکه‌های روزنامه‌فروشی تهیه نمائید.

ثبت اشتراک نسخه کاغذی ماهنامه شبکه     
ثبت اشتراک نسخه آنلاین

 

کتاب الکترونیک +Network راهنمای شبکه‌ها

  • برای دانلود تنها کتاب کامل ترجمه فارسی +Network  اینجا  کلیک کنید.

کتاب الکترونیک دوره مقدماتی آموزش پایتون

  • اگر قصد یادگیری برنامه‌نویسی را دارید ولی هیچ پیش‌زمینه‌ای ندارید اینجا کلیک کنید.

ایسوس

نظر شما چیست؟