رقابتی با هدف تسلط بر یک فناوری مخاطره‌آمیز
آینده زندگی ما در دستان پردازنده‌های هوش مصنوعی
این روزها بخش زیادی از خبرهایی که می‌شنویم و می‌خوانیم به هوش مصنوعی مربوط می‌شود. تحقیقات زیادی در این حوزه صورت می‌گیرد و کاربردهای جدیدی برای آن تعریف می‌شود. در گذشته وقتی سخن از هوش مصنوعی به میان می‌آمد، کدها و الگوریتم‌ها در مرکز توجه بودند. اما امروزه توان سخت‌افزاری موضوع بسیار مهمی است و بخش زیادی از بحث‌های فنی به سخت‌افزار مورد نیاز برای اجرای الگوریتم‌های هوش مصنوعی مربوط است. مراکز دانشگاهی و شرکت‌های گوناگون، از شرکت‌های بزرگ گرفته تا شرکت‌های کوچک و نوپا به‌دنبال یافتن بهترین پیکربندی سخت‌افزاری برای هوش مصنوعی هستند و هریک بخشی از نیازهای این حوزه را می‌بینند و برایش راهکار ارائه می‌دهند. آن طور که پیدا است در آینده، علاوه بر پردازنده مرکزی و پردازنده گرافیکی، یک پردازنده AI هم به دستگاه‌های ما افزوده خواهد شد.

پردازنده‌های مرکزی (CPU) سال‌ها بازیگر اصلی حوزه محاسبات و پردازش بوده‌اند. اما امروزه داستان پردازنده‌ها وارد مرحله جدیدی شده است. این روزها شرکت‌هایی که خدمات پردازشی ارائه می‌کنند یا نیازمند پردازش هستند، اهدافی را دنبال می‌کنند که دستیابی به آن‌ها با تکیه صرف بر پردازنده‌های مرکزی امکان‌پذیر نیست. یادگیری عمیق و به طور کلی هوش مصنوعی یکی از اهداف مهمی است که شرکت‌های فعال در حوزه‌های مختلف، از بازارهای آنلاین تا موتورهای جست‌وجو و شبکه‌های اجتماعی و حتی خودروسازها دنبال می‌کنند و در حال حاضر بسیاری از این شرکت‌ها، اعتماد زیادی به معماری‌های سنتی پردازنده‌ها ندارند. مشتریان قدیمی اینتل نظیر گوگل و مایکروسافت، اکنون به‌دنبال دستیابی به پردازنده‌های ویژه‌ای هستند که توانایی برآورده کردن نیازهای پردازشی هوش مصنوعی را داشته باشند. در سال‌های گذشته، یکی از منطقی‌ترین گزینه‌ها برای استفاده در این کاربرد، پردازنده‌های گرافیکی (GPU) بودند. واحدهای پردازشی مجهز به صدها هسته پردازشی که برخلاف پردازنده‌های سنتی، قادر به پردازش موازی و هم‌زمان هستند.

مطلب پیشنهادی

آیا ما در حال ورود به عصری در سیطره هوش مصنوعی هستیم
آینده‌ای که ارزش انتظار کشیدن را دارد

بحران اقتصادی سال‌های 2008 و 2009 کمک زیادی کرد تا شرکت انویدیا که در حال زمین خوردن بود بار دیگر امکان نفس کشیدن یابد. این شرکت در آن سال‌ها دریافت که بسیاری از مؤسسات مالی و تحقیقاتی از پردازنده‌های گرافیکی برای محاسبات پیچیده‌‌ای غیر از محاسبات گرافیگی استفاده می‌کنند. انویدیا زبان برنامه‌نویسی CUDA را معرفی کرد که به مشتریانش این امکان را می‌داد، پردازنده‌های گرافیکی این شرکت را به دلخواه خود و برای انجام اهدافی که دارند برنامه‌ریزی کنند. چند سال پیش زمانی که محاسبات ابری، بزرگ داده‌ها و هوش مصنوعی در کنار هم مورد توجه قرار گرفتند، تراشه‌های انویدیا دقیقاً همان چیزی را ارائه می‌کردند که در این فضا لازم بود. شرکت‌های بزرگ اینترنتی از تراشه‌های گرافیکی انویدیا برای سامان دادن به خدمات هوش مصنوعی خود استفاده کردند و این بازار رو به رشد همچنان هم برای انویدیا گشوده است. این شرکت در سال گذشته مالی تنها از محل فروش تراشه به مراکز داده، 296 میلیون دلار سود کسب کرده است. اما انویدیا در حوزه هوش مصنوعی تنها نبوده است و رقبای سرسخت و بی‌شماری دارد.

هوش مصنوعی و تراشه‌های آن

علاوه بر پردازنده‌های گرافیکی انواع دیگری از تراشه‌ها هم برای به‌کارگیری در حوزه هوش مصنوعی امتحان شده‌اند. از جمله تراشه‌هایی که این روزها در حوزه هوش مصنوعی در کانون توجه است، می‌توان به «مدارهای مجتمع با کاربرد خاص» یا به اختصار ASIC اشاره کرد. این تراشه‌ها برای یک هدف خاص برنامه‌ریزی می‌شوند و بسیار پرقدرت و در عین حال کم‌مصرف هستند. شرکت‌های زیادی به‌دنبال پیاده‌سازی الگوریتم‌های هوش مصنوعی روی این تراشه‌ها هستند که از جمله آن‌ها می‌توان به گوگل اشاره کرد.
 Tensor Processing Unit یا به اختصار TPU گوگل نمونه‌ای از کاربرد ASIC درحوزه هوش مصنوعی است. (شکل1)
یکی دیگر از انواع تراشه‌هایی که در این حوزه محبوبیت زیادی دارد، FPGA است که تراشه‌ای با قابلیت برنامه‌ریزی در محل محسوب می‌شود. این ویژگی امکان بسیار مهمی را در اختیار قرار می‌دهد اینکه بر اساس موقعیت و نیاز پردازشی، مدارهای داخل تراشه را تعریف کنیم و برای تغییر عملکرد سامانه، نیاز به تعویض تراشه نداشته باشیم، به طوری که همه تغییرات با یک به‌روزرسانی نرم‌افزاری قابل اعمال خواهد بود. مایکروسافت از این تراشه‌ها در بسیاری از سرورهای موتور جست‌وجوی Bing استفاده کرده است.


شکل1 - نمونه‌ای از یک بورد مبتنی بر TPU که در شکاف توسعه قرار می‌گیرد.

مطلب پیشنهادی

فرآیند ساخت اولین تراشه هوش مصنوعی جهان آغاز شد

اما استراتژی اینتل در سال‌های اخیر، بهینه‌سازی معماری‌های خود و ساخت پردازنده‌های مرکزی قدرتمندتر بوده است. اینتل برای اینکه در بازار نوپای هوش مصنوعی عقب نماند، دست به تقویت بنیه فنی خود زده است. به طور مثال این شرکت در سال 2015 اقدام به خرید Altera، یکی از دو شرکت مهم حوزه FPGA کرد که گران‌ترین خرید اینتل تا آن زمان محسوب می‌شد. اینتل چندی قبل هم اقدام به خرید شرکت نوپای Nervana کرد. شرکتی که تنها سه سال از تأسیس آن می‌گذرد و با این حال موفق به ارائه راهکارهای قابل‌ توجهی در حوزه هوش مصنوعی شده است و حتی تراشه‌ای بر این اساس توسعه داده که آنقدر جذاب بوده تا توجه اینتل را به خود جلب کند.
انویدیا اما آینده را به ‌گونه دیگری می‌بیند و معتقد است چون شرکت‌های زیادی در دنیا نرم‌افزارهای خود را برای کار روی تراشه‌های انویدیا نوشته‌اند، بازار این شرکت در حوزه‌هایی نظیر هوش مصنوعی تضمین شده است. IBM  هم در حوزه پردازنده‌های مرکزی عرصه را بر اینتل تنگ کرده است، به‌خصوص زمانی که در سال 2013 معماری پردازنده خود موسوم به Power را به طور منبع باز منتشر کرد و این امکان را در اختیار طراحان پردازنده‌های سفارشی قرار داد تا از Power در کنار طراحی‌های خود استفاه کنند.

هوش مصنوعی؛ حوزه جدید رقابت

به عقیده متئو ایستوود تحلیلگر مؤسسه IDC، آینده پردازنده‌ها وابستگی زیادی به نحوه رشد هوش مصنوعی خواهد داشت. اگر هوش مصنوعی تحولی را که اکنون بسیاری انتظار آن را می‌کشند ایجاد نکند و جوش و خروشی که به پا کرده است چند سالی دوام بیاورد و درنهایت بی‌فروغ شود، اینتل همچنان حضور قدرتمند خود را در بازار پردازنده‌ها حفظ خواهد کرد. اما اگر رشد بازار هوش مصنوعی ادامه یابد، سایر انواع پردازنده‌ها نیز این شانس را خواهند داشت که خود را در بازار تثبیت کنند. اما قطعاً دوره پردازنده‌های مرکزی (CPU) همه‌کاره‌ به پایان رسیده است. پردازنده‌هایی که طراحی می‌شدند تا همه نوع بار کاری از هر نوع پیچیدگی را پوشش دهند.
یادگیری عمیق روشی که در حال حاضر در بین فعالان هوش مصنوعی محبوبیت زیادی دارد، دو مرحله کلی دارد که هر مرحله توان محاسباتی ویژه خود را می‌طلبد. مرحله «آموزش سامانه» که در آن سامانه با در اختیار داشتن داده‌ها، وظایف خود را می‌آموزد و مرحله 
«اجرای آموخته‌ها» که در آن سامانه باید بر اساس آموخته‌هایش در شرایط جدید و پیش‌بینی نشده عمل کند. انویدیا برای هر دو مرحله راهکارهایی ارائه کرده است، اما شرکت‌هایی نظیر IBM در این حوزه و به‌ویژه در مرحله «اجرای آموخته‌ها» روش‌های نوآورانه‌ای دارند. سکوی محاسبات شناختی شرکت IBM که ترکیبی از پردازنده‌های Power، پردازنده‌های گرافیکی و پردازنده‌های مرکزی رایج است از جمله این راهکارها است.
آنچه پردازنده‌های گرافیکی و حتی پردازنده‌های Power را برای استفاده در مرحله آموزش سامانه جذاب می‌کند، توانایی آن‌ها در اجرای موازی وظایف است. دلیلی که باعث شده است گوگل ترجیح دهد کدهای Tensor Flow را روی پردازنده‌های گرافیکی اجرا کند و یا فیس‌بوک، سخت‌افزار هوش مصنوعی خود را بر اساس پردازنده‌های گرافیکی بسازد. با اینکه پردازنده‌های گرافیکی همچنان گزینه‌های خوبی در این حوزه به حساب می‌آیند، اما محققان در پی آزمودن ایده‌هایی نظیر پردازنده‌های probabilistic و انواع جدیدی از حافظه‌ها هستند تا شبکه‌های عصبی بهینه‌تری پیاده‌سازی کنند. (شکل 2)


شکل2 - نمودار عمکلرد داخلی یک TPU

مطلب پیشنهادی

هوش مصنوعی دقیقاً چگونه کار می‌کند؟
دانشمندان هنوز هم تاریک‌ترین راز نهفته در اعماق هوش مصنوعی را کشف نکرده‌اند

اما جمع رقبا به IBM و اینتل و انویدیا محدود نمی‌شود. 
شرکت کوالکام رقیب اینتل در حوزه موبایل، سکوی نرم‌افزاری هوش مصنوعی Zeroth را برای محاسبات روی موبایل معرفی کرده است. شرکت ARM که اکثر مردم آن را به‌واسطه معماری‌های کم‌مصرفش می‌شناسد نیز تلاش‌هایی در این حوزه داشته است و به طور مثال پردازنده‌ای گرافیکی برای آموزش الگوریتم‌های ساده یادگیری عمیق ارائه کرده است. به‌گفته فیل هیوز سخن‌گوی این شرکت، ARM به طور پیوسته در حال مذاکره با شرکایش است تا از نیازهای محاسباتی آینده‌ آن‌ها مطلع شود. هوش مصنوعی و یادگیری ماشین از جمله مواردی است که ARM توجه ویژه‌ای به آن دارد. مایکروسافت نیز در نسخه جدید پردازنده HPU خود که پردازنده‌ای ویژه هولولنز است، یک کمک‌پردازنده هوش مصنوعی تعبیه کرده است. اوایل سال جاری میلادی، یکی از مدیران اجرایی گوگل اظهار امیدواری کرده بود که سازندگان دستگاه‌های همراه به استفاده از پردازنده‌های جدید ویژه هوش مصنوعی روی آورند. شاید یکی از مثال‌های مهم در این حوزه را امسال شرکت اپل ضمن معرفی نسخه‌های جدید آیفون به ما نشان داد. A11 Bionic که مجهز به پردازنده‌ای اختصاصی برای هوش مصنوعی است. (شکل 3)
گوگل چند سال را صرف توسعه بستر نرم‌افزاری هوش مصنوعی و یادگیری عمیق اختصاصی خود TensorFlow کرد و سال پیش سخت‌افزاری را برای آن معرفی کرد به اسم TPU که نسخه جدید آن امسال معرفی شد. نسخه اول تنها در مرحله اصلی یادگیری عمیق (اجرای آموخته‌ها) استفاده می‌شد، اما نسخه جدید می‌تواند کار آموزش را نیز انجام دهد. البته گوگل برای آموزش همچنان از پردازنده‌های گرافیکی نیز استفاده خواهد کرد. طبق ادعای گوگل کار آموزش یک سامانه ترجمه ماشینی با استفاده از 32 پردازنده گرافیکی پیشرفته یک روز زمان می‌برد، در حالی که هشت TPU همین کار را در شش ساعت انجام خواهند داد. شرکت‌های دیگر هم در این حوزه بیکار ننشسته‌اند. شرکت انویدیا معماری Volta و فوجیتسو DLU (سرنام Deep Learning Unit) را معرفی کرده است.


شکل3 - A11 Bionic شرکت اپل به پردازنده‌ای اختصاصی برای هوش مصنوعی مجهز است.

استارت‌آپ‌های زیادی روی توسعه تراشه‌های ویژه یادگیری عمیق کار می‌کنند که از آن جمله می‌توان به Groq اشاره کرد که توسط مهندسان سابق گوگل که روی TPU کار می‌کردند تأسیس شده است. لینلی گوانپ بنیانگذار Linley Group مؤسسه تحلیلگر صنعت نیمه‌هادی معتقد است: «شرکت‌هایی نظیر اینتل و انویدیا تلاش می‌کنند فروش آنچه تا امروز می‌فروخته‌اند را ادامه دهند، اما می‌بینیم که شرکت‌های ارائه‌دهنده خدمات ابری و استارت‌آپ‌ها با سرعت بیشتری در این حوزه حرکت می‌کنند، زیرا آن‌ها نیازهای مراکز داده خود را می‌دانند و بازار وسیع‌تری را درک کرده‌اند.»

واحدی جدید برای پردازش

همان طور که گفته شد، اگر هوش مصنوعی عقب‌نشینی نکند و همچنان در بازار رشد کند، باید انتظار داشته باشیم که در آینده، علاوه بر پردازنده مرکزی و کارت‌های گرافیک، بخشی از هزینه خود را صرف خرید کارت‌های هوش مصنوعی کنیم. یکی از نکات امیدبخش در این حوزه این است که برخلاف دوران پردازنده‌های مرکزی و گرافیکی که بازیگران بازار تنها چند شرکت محدود بودند، اکنون علاوه بر شرکت‌های بزرگ، استارت‌آپ‌های بسیار زیادی در سطح جهان متولد شده‌اند که به طور ویژه روی توسعه پردازنده برای هوش مصنوعی کار می‌کنند و اغلب این شرکت‌ها ایده‌های جذابی برای رفع نیازها دارند. هوش مصنوعی در کنار همه نگرانی‌هایی که ایجاد کرده است، دست‌کم در حوزه کسب و کار فرصت‌های جدیدی را پیش ‌روی ما گذاشته است.

برچسب: