ضرورت درک عام برای هوش مصنوعی
برای اولین بار عملکرد و قدرت هوش مصنوعی زیر سوال رفت
سال‌های متمادی است که شبکه‌های عصبی با حجم بسیار عظیمی از اطلاعات تغذیه می‌شوند تا یاد بگیرند شبیه به انسان‌ها فکر کنند، اما علیرغم تمامی تلاش‌ها هوش مصنوعی هنوز هم هیچ درک عامی ندارند. آیا دانشمندان و متخصصان هوش مصنوعی در مسیر اشتباهی گام بر می‌دارند؟

1606683296_1_0.gif

پنج سال پیش، برنامه‌نویسان شرکت دیپ‌مایند (Deep Mind) به سامانه هوش مصنوعی که طراحی کرده‌ بودند با اشتیاق نگاه می‌کردند که به‌خودش نحوه بازی کلاسیک Arcade را یاد می‌داد. آن‌ها از مبحث داغ آن روزگار یعنی یادگیری عمیق برای این سیستم هوش مصنوعی استفاده کرده بودند. 
یادگیری عمیق برای ماشین‌ها حکم خودآموزی دارد، زیرا به هوش مصنوعی حجم عظیمی از اطلاعات را می‌دهید و سیستم به‌تنهایی شروع به درک الگوها می‌کند. سیستم هوش مصنوعی شرکت دیپ‌مایند که به آن شبکه عصبی گفته می‌شد مجموعه‌ای از الگوریتم‌های لایه‌‌ای بود، بدون آن‌که آموزشی درباره قوانین، اهداف و حتا نحوه بازی به‌ آن نشان داده شود. کدنویسان فقط به سیستم عصبی اجازه دادند که نتایج هر عملی که انجام می‌دهد را ارزیابی کند. این کار چه نتیجه‌ای داشت؟ درست است که هوش مصنوعی در بازی‌های اول شکست خورد اما بعد از چندصد مرتبه بازی کردن با دقت زیادی توپ‌ها را پرتاب می‌کرد. دمیس هاسابیس، مدیرعامل اسبق دیپ‌مایند می‌گوید: «برای ما خیلی تعجب‌برانگیز بود. این استراتژی کاملا از لایه‌های زیرین شبکه عصبی نشأت می‌گرفت، زیرا شبکه‌های عصبی انعکاس‌دهنده ساختار مغز انسان هستند، از همین رو نظریه‌ای شکل گرفت که شبکه‌های عصبی عمیق به نوعی می‌توانند الگوهای شناختی انسان‌ها را تقلید کنند. در آن زمان به‌نظر می‌رسید که این نظریه کاملا درست است.»

سال گذشته، دانشمندان کامپیوتر شرکت هوش‌مصنوعی Vicarious در سانفرانسیسکو پیشنهاد دادند که باید بررسی دقیق‌تری انجام شود. آن‌ها یک هوش مصنوعی مشابه آن‌چه دیپ‌مایند استفاده کرده بود را برای بازی Breakout آموزش دادند. سیستم به‌خوبی بازی می‌کرد، متخصصان در ادامه تصمیم گرفتند در بازی تغییرات کوچکی اعمال کنند. انسان‌ها به سرعت خود را با تغییرات سازگار می‌کنند، اما شبکه عصبی این توانایی را ندارد. سامانه فوق‌العاده هوشمند شرکت Vicarious تنها روشی از بازی Breakout که صدها بار برای استاد شدن در آن تمرین کرده بود را می‌توانست به خوبی بازی کند و قادر به‌ انجام بازی‌های جدید نبود. انسان‌ها می‌توانند درباره دنیای اطراف خود نتیجه‌گیری‌های منطقی داشته باشند، در واقع ما مخزنی بزرگ از دانش درک عام (common sense یا عقل سلیم) هستیم که کمک می‌کند تا شرایط جدید را تحلیل کنیم. اما شبکه عصبی چیزی درباره این بازی نفهمیده بود بلکه فقط می‌توانست الگوها را دنبال کند.

مطلب پیشنهادی

فریب دادن شبکه‌های عصبی
ماشین‌های بینایی که فریب نمی‌خورند

یادگیری عمیق یکه‌تاز دنیای هوش مصنوعی است. از شش سال پیش که این روند مهم دنیای هوش مصنوعی عمومیت پیدا کرد موفق شد تا حدود بسیار زیادی به هوش مصنوعی کمک کرد دنیای پیرامون خود را بهتر شناخته و درک کند. توانایی الکسا در شناسایی صحبت‌ها، خودروهای خودران Waymo و ترجمه آنی گوگل همگی بر پایه یادگیری عمیق کار می‌کنند. با اینحال، برخی معتقدند یادگیری عمیق به دلیل روبه‌رو شدن با موانع متعدد به حالت سکون وارد شده است. به اعتقاد متخصصان، یادگیری عمیق می‌تواند به‌تنهایی روند جدیدی به‌نام هوش مصنوعی عمومی را ایجاد کند، زیرا هوشی که قرار است شبیه به هوش انسان‌ها رفتار کند نباید تنها در شناخت الگوها ماهر باشد. ما باید به دنبال پیدا کردن راهی باشیم که بتوانیم درک عام روزانه را وارد دنیای هوش مصنوعی کنیم. عدم موفقیت در این‌کار باعث می‌شود در به‌کارگیری یادگیری عمیق در دنیای واقعی با محدودیت‌های زیادی روبرو شویم، اگر در این راه موفق شویم، شاهد تحول بسیار بزرگی در ساخت تجهیزات ایمن‌تر و کاربردی‌تر خواهیم بود. 

چگونه استدلال‌های درست در یک ماشین شکل می‌گیرند؟

گری مارکوس، پروفسور 48 ساله علوم اعصاب دانشگاه نیویورک اولین بار در دهه 80 و 90 میلادی به هوش مصنوعی علاقمند شد، یعنی زمانی‌که شبکه‌های عصبی همچنان در مرحله آزمایش بودند. وی می‌گوید: «به‌محض رشد انفجار یادگیری عمیق به دوستانم گفتم این مسیر اشتباه است!»
ایده‌ای که یادگیری عمیق در آن روزگار بر پایه آن شکل گرفت با امروز فرقی نمی‌کند. متخصصان به دنبال ساخت ماشینی بودند که قادر باشد به‌خودش آموزش دهد تا گل‌های مینا را بشناسد. ابتدا باید چند لایه شبکه عصبی را کدنویسی می‌کردید، الگوریتم‌ها را شبیه به یک ساندویچ از طریق لایه‌ها به‌هم متصل می‌کردید، تصویر یک گل مینا را به ‌لایه اول نشان می‌دادید، شبکه عصبی آن‌را بر اساس نمونه‌هایی که قبل از آن دیده بود درک می‌کرد یا بدون توجه از کنار آن می‌گذشت. سیگنال به‌لایه بعد حرکت می‌کرد و این فرآیند دوباره تکرار می‌شد.

مطلب پیشنهادی

روبات‌هایی که می‌بینند و از انسان می‌آموزند

در ابتدا، عملکرد یک شبکه عصبی بر پایه حدس و گمان بود و یک حلقه بازخوردسومند پایه و اساس این شبکه عصبی بود. هر مرتبه که هوش مصنوعی در شناسایی یک گل با مشکل روبرو می‌شد، مجموعه ارتباطات عصبی پیوندی که منجر به حدس اشتباه شده بود را ضعیف می‌کرد و اگر موفق شده بود، پیوند عصبی را تقویت می‌کرد. هرچه زمان و گل بیشتری به شبکه عصبی نشان داده شود، شبکه عصبی دقت بیشتری پیدا می‌کند. با گذشت سال‌ها، این ایده اصلی بهبود یافت و به‌نظر می‌رسید هرجایی که این شیوه استفاده شود عملکرد یکسان و مطلوبی دارد. مارکوس اعتقاد چندانی به این شیوه آموزش نداشت و بر این باور است که مشکل اصلی هوش مصنوعی در عدم وجود درک عام است که اجازه نمی‌دهد هوش مصنوعی درباره موضوعات مختلف یک درک اولیه داشته باشد. او معتقد است که انسان‌ها هوش خود را ذاتا با مشاهده دنیای اطراف می‌سازند و ماشین‌ها هم می‌توانند چنین کاری را انجام دهند. مارکوس فکر نمی‌کند که این شیوه کار مغز انسان‌ها باشد. وی به شدت به‌این جمله نوام چامسکی باور دارد که می‌گوید: «انسان‌ها وقتی به‌دنیا می‌آیند به‌یادگیری متصل هستند، برنامه‌ریزی شده‌اند که در زبان به‌درجه استادی برسند و دنیای فیزیکی را تفسیر کنند.»
با این وجود، شبکه‌های عصبی برخلاف آن‌چه که درباره آن‌ها تصور می‌شود مانند مغز انسان عمل نمی‌کنند. برای شروع، به شدت نیاز به تغذیه از طریق داده‌ها دارند. در خیلی از موارد، هر شبکه عصبی برای آموختن به‌هزاران یا میلیون‌ها نمونه نیاز دارد. بدتر از آن، هر زمان که بخواهید شبکه عصبی گونه جدیدی از یک عنصر را بشناسد باید از ابتدا شروع کنید. به‌طور مثال، یک شبکه عصبی که آموزش دیده تا فقط قناری‌ها را بشناسد نمی‌تواند پرنده آوازه‌خوان یا گفتار انسان را تشخیص دهد.
مارکوس می‌گوید: «ما برای یادگیری نیازی به حجم عظیمی از داده‌ها نداریم. مترجم گوگل نمونه خوبی در این زمینه است. این فناوری می‌تواند معادل یک جمله انگلیسی را به فرانسوی نمایش دهد، اما نمی‌داند که هر کلمه آن جمله چه معنایی دارد. ولی انسان‌ها نه‌تنها الگوهای گرامر بلکه منطق پشت آن‌را هم درک می‌کنند. سیستم‌های یادگیری عمیق نمی‌دانند که چگونه چکیده‌های دانش را ادغام کنند.»
اورن اتزیونی دانشمند کامپیوتر و مدیر مؤسسه Allen که در زمینه هوش مصنوعی در سیاتل روی حل مشکل درک عام کار می‌کند بر این باور است که شکست استاد بزرگ شطرنج، گری کاسپاروف توسط آی‌بی‌ام دیپ‌بلو در سال 1997 و شکست غیرمنتظره برترین بازیکن Go دنیا توسط دیپ‌مایند آلفاگو در سال 2018 بیشتر دو پیروزی حماسی برای هوش مصنوعی بودند. 

مطلب پیشنهادی

خودکارسازی یادگیری ماشین با H2O.ai
برنامه‎نویسان چگونه می‎توانند از هوش مصنوعی بدون ناظر (Driverless AI) استفاده کنند

اتزیونی می‌گوید: «با Deep Blue برنامه‌ای داشتیم که می‌توانست یک حرکت ابرانسانی در شطرنج انجام دهد، در حالیکه اگر اتاق در همان زمان آتش می‌گرفت الگوریتم دیپ‌بلو هیچ اهمیتی به موضوع نمی‌داد و فقط به فکر برنده شدن در بازی بود. حالا بعد از 20 سال، کامپیوتری داریم که می‌تواند یک حرکت ابرانسانی در Go انجام دهد در حالیکه بازهم اتاق در حال آتش گرفتن است. انسان‌ها چنین محدودیتی ندارند. اگر در هنگام بازی، اتاق آتش بگیرد، زنگ خطر را به‌صدا درمی‌آورند و به‌سمت در اتاق فرار می‌کند. به‌عبارت دیگر، انسان‌ها از یک دانش اولیه درباره جهان به‌همراه توانایی در درک استدلال کاری که باید انجام دهند بهره می‌برند. باید تمامی این نکات را به هوش مصنوعی آموزش دهیم. مادامی که هوش مصنوعی مفاهیم اساسی و اولیه را نداشته باشد قادر به‌استدلال نخواهد بود. اولین مشکل عمده هوش مصنوعی تشریح درک عام است. درک عام چیست؟ دانشی که تمامی انسان‌ها و حیوانات از آن برخوردار هستند، اما کسی حرفی درباره آن نمی‌زند.» 
یکی از راه‌های رسیدن به ‌این دانش بهره گرفتن از انسان‌ها است. آزمایشگاه اتزیونی به‌افرادی که در Mechanical Turk آمازون حضور دارند پول می‌دهد تا در ساخت نمونه‌های درک عام کمک کنند. سپس تیم وی از روش‌های مختلف یادگیری ماشین استفاده می‌کند تا دانشی سودمند از آن صحبت‌ها استخراج کند. در صورت موفقیت، آن‌ها می‌توانند قدرت استدلال‌ را به هوش مصنوعی بیاموزند تا یک الگوریتم هوشمند مجموعه‌ای از کلمات نوشته شده را درک کند، یک مجموعه فیزیکی را درک می‌کند و به‌همین ترتیب کارهای دیگر را انجام دهد.
اما در این بین یک پرسش عمیق‌تر فلسفی هم مطرح شده: به‌طور کلی، طراحی یک هوش مصنوعی نزدیک به هوش انسانی ایده خوبی است؟ برخی از متفکران هوش مصنوعی نگران توانایی هوش مصنوعی برای صحبت با انسان‌ها و فهمیدن روانشناسی آن‌ها هستند. همین مسئله باعث می‌شود تا یک الگوریتم هوش مصنوعی با درک عام به پدیده بسیار خطرناک تبدیل شود. یکی از دلایل راه‌اندازی و سرمایه‌گذاری ایلان ماسک در OpenAI احساس خطر او از این موضوع بود.
نگرانی دانشمندان از جمله اتزیونی آن است که هوش مصنوعی فعلی به‌شدت بی‌منطق است. وی می‌گوید: «هوش مصنوعی بی‌منطقی که به‌اسلحه‌های مرگبار وصل باشد به‌راحتی همه موجودات را قتل عام می‌کند.» به همین است که می‌خواهد به هوش مصنوعی درک عام یاد دهد. این کار باعث می‌شود تا هوش مصنوعی امن‌تر شود. از طرف دیگر، مارکوس موافق است که هوش مصنوعی استدلال‌گرا خطراتی خواهد داشت، اما معتقد است که نکات مثبت آن خیلی بیشتر و بزرگ‌تر است. هوش مصنوعی که بتواند استدلال کند و ادراکی مانند انسان‌‌ها داشته باشد و در عین‌حال با سرعت کامپیوتر حرکت کند قادر است انقلاب عظیمی در علوم ایجاد کند.
له‌کان، یکی دیگر از دانشمندان حوزه AI می‌گوید: «هرچه هوش مصنوعی بیشتر شبیه انسان شود، راحت‌تر در دنیای ما عمل می‌کند. اما این‌که مستقیما شیوه فکری انسان را تقلید کند، معلوم نیست که تا چه اندازه مفید باشد. اگر آن‌ها بتوانند توانایی‌هایی که ما نداریم را داشته باشند کاربرد بیشتری خواهند داشت. آن وقت است که تقویت‌کننده هوش می‌شوند. برای همین می‌خواهیم تا حدودی شکل غیرانسانی  هوش را برداریم. به دنبال آن هستیم تا نسبت به ‌انسان‌ها منطق بیشتری به آن‌ها دهیم.»

ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را می‌توانید از کتابخانه‌های عمومی سراسر کشور و نیز از دکه‌های روزنامه‌فروشی تهیه نمائید.

ثبت اشتراک نسخه کاغذی ماهنامه شبکه     
ثبت اشتراک نسخه آنلاین

 

کتاب الکترونیک +Network راهنمای شبکه‌ها

  • برای دانلود تنها کتاب کامل ترجمه فارسی +Network  اینجا  کلیک کنید.

کتاب الکترونیک دوره مقدماتی آموزش پایتون

  • اگر قصد یادگیری برنامه‌نویسی را دارید ولی هیچ پیش‌زمینه‌ای ندارید اینجا کلیک کنید.

ایسوس

نظر شما چیست؟

دیدگاه‌ها

تصویر علی اصغر خسروابادی
علی اصغر خسروابادی

با این سرعت پیشرفت

این محدودیت ها احتمال تا 4-5 دهه اینده خیلی هاش برطرف میشه