آيا سرانجام ماشین‌های هوشمند در راستای معیارهای انسانی می‌اندیشند؟
 من، الگوريتم!
هوش مصنوعی نيز همچون بسياری ديگر از شاخه‌های علم، دوره‌های پرفراز و نشيبی را پشت سر گذاشته‌است و امروز با وجود دستاوردهای چشمگيرش‌ در يک سو، موانع کوچک و بزرگی را نيز در سوی ديگر، پيش رو دارد. هدف دانشمندان هوش مصنوعی اين است که سازوکار سيستم‌های هوشمند را تا جایی که می‌شود به شيوه استدلال و استنباط ذهن انسان شبيه‌تر کنند. آنچه در ادامه می‌آيد، نگاهی است به گوشه‌ای بسيار کوچک از تلاش‌هایی که در سال‌های گذشته به انجام رسيده و گاهی نيز راه به آزمون و خطا برده‌است.

این مقاله یکی از قسمت‌های سلسله مقالات یادنامه آلن تورینگ است. این مجموع پیش از این در ماهنامه شبکه منتشر شده اما به سایت جدید منتقل نشده بود. با توجه به اهمیت موضوع، این مجموعه را به سایت مجله اضافه می‌کنیم و امیدواریم که مورد توجه علاقمندان قرار بگیرد.


پدرو دومينگوس دانشمند علوم کامپيوتر در دانشگاه واشنگتن واقع در شهر سياتل، در دوراهی انتخاب میان يک پزشک يا يک سيستم هوش مصنوعی، به نفع دومی رأی می‌دهد و می‌گويد: «من به ماشين بيش از پزشک اعتماد دارم.» باتوجه به اين‌که هوش مصنوعی اغلب بازخوردهای بدی دريافت می‌کند و خيلی‌ها هنوز به آن اعتماد ندارند و آن‌را ناديده می‌انگارند، به ندرت اتفاق می‌افتد که کسی مثل دومينگوس چنين صريح از آن پشتيبانی ‌کند.
در دهه 1960 ميلادی، به نظر می‌رسيد که سيستم‌های هوش مصنوعی آشکارا قصد دارند خصوصيات کليدی ذهن انسان را تقليد و شبيه‌سازی کنند. دانشمندان تلاش‌ کردند با استفاده از منطق رياضی به بازنمایی دانش انسان درخصوص جهان واقعی و استدلال درباره آن بپردازند اما اين شيوه، خيلی زود به مانعی بر سر راه هوش مصنوعی تبديل شد. در حالی که منطق می‌توانست مثل ذهن انسان نقشی پدیدآورنده و توليدکننده داشته باشد، اما به جهت سرشت خود در مواجهه با موقعيت‌های غيرقطعی کارایی نداشت.
هوش مصنوعی پس از گذراندن يک دوره سرد و زمستانی ناشی از موانع موجود بر سر راه، اکنون دوباره در حال شکوفایی است و دومينگوس تنها فردی نيست که با چنين اميد و اعتمادی از آن سخن می‌گويد. پژوهشگران اميدوارند که اين هوش مصنوعی تازه بتواند از پس کارهایی مانند تشخيص بيماری نوزادان، تبدیل گفتار به متن و حتی به اصطلاح بو کشيدن و شناسایی انفجارهای اتمی غيرعلنی و مخفی برآيد و اين نشان می‌دهد که حساب ويژه‌ای روی اين شاخه علمی باز شد‌ه‌است؛ زیرا از آن انتظار می‌رود که بتواند در آينده قدرت استدلال انسان را حتی در شرايط درهم و آشفته نيز شبيه‌سازی کند. يکی از موارد تأثيرگذار در دوره احيای هوش مصنوعی، روشی است که به آن برنامه‌نويسی يا برنامه‌سازی احتمال‌گرا (probabilistic programming) گفته می‌شود و شالوده‌های منطقی هوش مصنوعی سنتی را با قدرت آمار و احتمال درهم می‌آميزد. استوارت راسل از پيشتازان هوش مصنوعی مدرن در دانشگاه برکلی کاليفرنيا آن‌را اتحاد بين دو تئوری قدرتمند می‌داند که با هدف درک جهان و استدلال درباره آن پديد آمده‌اند. اين ترکيب قدرتمند سرانجام دارد هوای مه‌آلود و زمستانی حاکم بر عرصه هوش مصنوعی را کنار می‌زند. از اين رو است که جاش تننباوم دانشمند علوم شناختی انستيتوی فناوری ماساچوست (MIT) می‌گويد: «بی‌شک بهار هوش مصنوعی از راه رسيده ‌است.»

عبارت «هوش مصنوعی» در سال 1956 توسط جان مک‌کارتی از دانشگاه MIT ابداع شد. او در آن زمان از به‌کارگيری منطق برای ساخت کامپيوترهای استدلال‌گر حمايت می‌کرد. اين شيوه به دنبال استفاده از منطق مرتبه اول (first-order logic) به بلوغ رسيد. در منطق مرتبه اول دانش موجود درباره دنيای واقعی با استفاده از نشانه‌ها و نمادهای رياضی مدل‌سازی می‌شود. اين شيوه برای دنيای اشيا‌‌‌‌‌ و رابطه‌ بين اشيا طراحی شده‌بود و می‌توانست درباره دنيا استدلال کند و به نتايج کاربردی هم دست يابد. به عنوان مثال، اگر شخص X به بيماری بسيار عفونی Y مبتلا است و شخص X با شخص Z ارتباط نزديکی دارد، می‌‌توان با استفاده از اين منطق نتيجه گرفت که شخص Z هم به بيماری Y مبتلا است. 
البته بزرگ‌ترين برگ برنده منطق مرتبه اول، اين بود که با به‌کارگيری آن می‌شد اجزای منطقی بسيار کوچک را کنار هم چيد و به مدل‌هایی با پيچيدگی‌های فزاينده دست يافت. به عنوان مثال، سناريوی فوق را می‌شود به راحتی به مدل بزرگ‌تری از جمله اپيدمی‌ها يا بيماری‌های مسری مرگبار، تعميم داد و درباره ميزان پيشرفت بيماری نتيجه‌گيری کرد. 
قدرت منطق در پديد آوردن مفاهيم کلان از مفاهيم خرد حتی باعث شد عده‌ای نظریه‌ای دهند مبنی بر این که شايد در ذهن انسان نيز فرآيند مشابهی صورت می‌پذيرد. 

مطلب پیشنهادی

آزمون تورینگ چیست و چه کاربردی دارد؟
آزمون تورینگ؛ غایتی که در گنجه خاک می‌خورد

اين خبر خوبی بود. اما نوح گودمن، دانشمند علوم شناختی دانشگاه استنفورد کاليفرنيا می‌گويد: «اين موضوع جنبه ناراحت‌کننده‌ای هم داشت: اين که منطق آن‌طور که انتظار می‌رفت، خواسته‌ها را برآورده نکرد» زیرا استفاده از منطق برای بازنمایی دانش و استدلال درباره آن، مستلزم اين بود که اطلاعات ما درباره کم و کيف جهان واقعی دقيق باشد، يعنی نبايد هيچ جایی برای ابهام باقی می‌ماند. يک مسئله يا بايد به‌طور کامل درست می‌بود يا به‌طور کامل نادرست. هيچ جایی اجازه نداشتيم از مفهوم «شايد» استفاده کنيم و اين در حالی بود که دنيای ما و بسياری از قوانين کلی آن پر است از اين شايدها، عدم قطعيت‌ها، شايعه‌ها و استثناها. در نتيجه، سيستم‌های هوش مصنوعی که براساس منطق مرتبه اول طراحی شده‌بودند، به راحتی در رویارویی با اين موارد ناکارآمدی خود را نشان دادند. فرض کنيد می‌خواهيد بدانيد آيا شخص Z در مثال فوق به بيماری Y دچار شده‌است يا نه. قانون اين کار بايد روشن و بدون ابهام باشد: اگر شخص Z با شخص X در ارتباط بوده، پس آن‌گاه شخص Z به بيماری Y مبتلا است. اما مشکل زمانی به وجود می‌آيد که بگوييم شايد شخص Z به هر علتی مبتلا نشده‌باشد و اينجا است که منطق مرتبه اول نمی‌تواند چنين سناريویی را که در آن احتمالات هم وارد بازی شده‌است، هضم کند. 
يک مشکل جدی ديگر هم وجود داشت: اين منطق قابليت استدلال معکوس يا ارجاعی نداشت. برای نمونه، اگر می‌دانستيد که شخص Z به بيماری Y دچار شده، اين منطق نمی‌توانست با قطعيت نتيجه بگيرد که شخص Z اين بيماری را از شخص X گرفته‌است. اين مشکلی است که در سيستم‌های تشخيص پزشکی حساسيت زيادی دارد و بسيار جلب‌توجه می‌کند. قوانين منطقی می‌توانند بيماری‌ها را به نشانه‌ها پيوند بدهند اما يک پزشک بايد بتواند در جهت معکوس هم حرکت کند و اگر نشانه خاصی را مشاهده کرد، بداند که اين نشانه مربوط به کدام بيماری است. تننباوم می‌گويد: «لازمه اين کار وارونه کردن مسیر فرمول‌های منطقی است و استدلال کل به جز‌ء(deductive reasoning) برای اين کار مناسب نيست.» 
به دنبال چنين مشکلاتی هوش مصنوعی تا اواسط دهه 1980 راه به جایی نبرد. با اين حال، به باور گودمن اشخاصی که روی اين موضوع کار می‌کردند تسليم نشدند و تلاش‌ها هرچند غيرآشکار ادامه يافت. 
نخستین مراحل شکوفایی هوش مصنوعی با به ميدان آمدن دانش شبکه‌های عصبی (Neural networks) در اواخر دهه 1980 آغاز شد. این ایده به‌واسطه سادگی اساس و شالوده‌اش بسیار درخشان بود. پيشرفت‌ها در دانش عصبی باعث شد مدل‌های ساده‌ای متشکل از سلول‌های عصبی پيشنهاد شوند. اين موضوع در کنار پيشرفت‌هایی که در عرصه الگوريتم‌ها صورت گرفت، به پژوهشگران اجازه داد تا شبکه‌های عصبی مصنوعی يا به اختصار ANNها  را معرفی کنند. اين شبکه‌ها می‌توانستند مثل يک مغز واقعی مطالب گوناگونی را ياد بگيرند. 
اين پيشرفت، دانشمندان علوم کامپيوتر را تشويق کرد تا به فکر ايجاد شبکه‌های عصبی مصنوعی شامل ميلياردها يا تريليون‌ها سلول بيافتند. اما به زودی مشخص شد که مدل‌های عصبی ارائه‌شده تا آن‌زمان بسيار ساده‌انگارانه بوده‌اند و محققان حتی نمی‌توانستند تعيين کنند کدام مشخصات سلول عصبی در شبکه اهميت بيشتری دارد، چه رسد به آن که بخواهند آن‌ها را مدل‌سازی کنند. با اين همه، شبکه‌های عصبی بخشی از راه را برای تولد يک هوش مصنوعی جديد هموار کردند. بعضی از پژوهشگرانی که روی شبکه‌های عصبی مصنوعی کار می‌کردند، سرانجام دريافتند که اين شبکه‌ها دنيا را در قالب آمار و احتمالات بازنمایی می‌کنند. آن‌ها به جای بحث درباره سيناپس‌ها و اسپايک‌ها (از اجزای يک سلول عصبی)، بر تعيين پارامتر و متغيرهای تصادفی تمرکز کردند. تننباوم می‌گويد: «اکنون به نظر می‌رسيد به جای يک مغز بزرگ، با يک مدل بزرگ مبتنی بر احتمالات روبه‌رو هستيم.» 

سپس در سال 1988 جوديا پرل از دانشگاه کاليفرنيا، در لس آنجلس، کتاب معروفی نوشت که «استدلال احتمال‌گرا در سيستم‌های هوشمند» نام داشت و در آن رويکردی کاملاً جديد به هوش مصنوعی با ذکر جزئيات بازگو شده‌بود. در پس اين رويکرد جديد، قضيه توماس بيز (Thomas Bayes)، روحانی و رياضی‌دان انگليسی قرن 18 ميلادی خانه کرده‌بود. قضيه بيز (Bayesian theorem)، احتمال شرطی وقوع رويداد مفروض P در حالي که Q روی داده‌است را به احتمال شرطی Q در حالي که P در دست است، ربط می‌دهد. به اين ترتيب، می‌شد بين علت و معلول، رفت و برگشت داشت. تننباوم می‌گويد: «اگر بتوانيد دانش خود درباره سوژه‌های مختلف را به اين شيوه بيان کنيد، آن گاه رياضيات به شيوه استنباط بيزی (Bayesian inference) به شما می‌گويد که چطور معلول‌ها را مشاهده کنيد و با بازگشت به عقب، علت‌های احتمالی ديگر را نيز بررسی کنيد.» کليد اين مسئله، يک شبکه بيزی يا Bayesian network است که در واقع مدلی متشکل از متغيرهای تصادفی مختلف با توزيع‌های احتمال گوناگون است که خود به متغير ديگری وابسته است. با ايجاد يک تغيير کوچک در هر متغير، توزيع احتمال متغيرهای ديگر نيز تغيير می‌کند. اگر مقدار يک يا چند متغير در دست باشد، می‌شود با استفاده از شبکه بيز، توزيع احتمال ديگر متغيرها يا به عبارتی مقدار تقريبی آن‌ها را پيدا کرد. اکنون می‌‌شود به مثال قبل برگشت و اين متغيرها را با علائم بيماری، خود بيماری‌ها و نتايج آزمايش‌ها متناظر کرد. اگر نتيجه آزمايش (به عنوان مثال وجود يک ويروس عفونی) و نشانه‌های بيماری (به عنوان مثال، تب يا سرفه) مشخص باشد، می‌توان گفت احتمال اين که علت اين معلول‌ها بيماری آنفولانزا باشد، بيشتر است و در مقابل، احتمال اين که بيماری مذکور ذات‌الريه باشد بسيار کم است. 

در اواسط دهه 1990 ميلادی، پژوهشگرانی مانند استوارت راسل، توسعه الگوريتم‌ها برای استفاده در شبکه‌های بيز را شروع کردند. اين الگوريتم‌ها می‌توانستند از داده‌های موجود استفاده کرده و مطالب جديدی را ياد بگيرند. اين شيوه شباهت زيادی به شيوه يادگيری انسان داشت زیرا انسان نيز با استفاده از دانسته‌های فعلی خود مطالب جديد را ياد می‌گيرد. از اين‌رو، اين الگوريتم‌های جديد می‌توانستند با در دست داشتن داده‌های اندک، به فهم مطالب بسيار پيچيده‌تر و مدل‌های بسيار دقيق‌تر نائل آيند. در مقايسه با شبکه‌های مصنوعی عصبی اين قدم بزرگی به شمار می‌آمد زیرا در شبکه‌های عصبی مصنوعی امکان استفاده از دانش پيشين وجود نداشت و برای حل هر مسئله‌ای همه چيز بايد از صفر شروع می‌شد. 

شکار!

اجزای مختلف  مورد نیاز برای ایجاد هوش مصنوعی قابل استفاده در دنیای واقعی، کم‌کم داشتند در جای خود قرار می‌گرفتند. پارامترهای يک شبکه بيز همان توزيع‌های احتمال هستند و هرچه دانش شخص درباره جهان بيشتر باشد، اين توزيع‌های‌ احتمال بيشتر به کار می‌آيند. اين در حالی است که در اين سيستم، برخلاف سيستم‌هایی که براساس منطق مرتبه اول طراحی شده‌‌بودند، اگر دانش در يک حيطه ناقص باشد، چيزی از بين نمی‌رود. البته منطق نيز کنار گذاشته نمی‌شود چون شبکه‌های بيزی به تنهایی کافی نيستند و علتش اين است که شبکه‌های بيزی اجازه نمی‌دهند با استفاده از اجزای ساده، مجموعه‌‌های پيچيده دلخواه‌تان را بسط دهيد. در عوض سنتز يا ترکيب برنامه‌سازی منطقی با شبکه‌های بيزی، راه را برای برنامه‌سازی احتمال‌گرا باز می‌کند. 
در خط مقدم این هوش مصنوعی جدید مجموعه‌ای از زبان‌های برنامه‌نویسی وجود دارند که از هر دوی این عناصر استفاده می‌کنند. البته تمام آن‌ها هنوز در مراحل تحقیقاتی به سر می‌برند. به‌عنوان مثال، می‌توان از زبان چرچ نام برد که توسط گودمن، تننباوم و همکارانشان توسعه داده شده و نام آن از آلونزو چرچ گرفته‌شده است؛ کسی که مبدع نوعی از منطق برای استفاده در زبان‌های برنامه‌نویسی بود.
 تيم دومينگوس از ترکيب منطق با شبکه بيز مارکوف (شبکه‌ای شبيه شبکه بيز)، شبکه‌ منطقی مارکوف يا Markov Logic Network را توسعه داده‌است. راسل و همکارانش اين شبکه را BLOG ناميده‌اند که سرنام عبارت Bayesian Logic ‌است. 
راسل قدرت آشکار چنين زبان‌هایی را در گردهمایی‌ سازمان معاهده منع آزمايش‌های هسته‌ای سازمان ملل يا CTBTO (سرنام Comprehensive Test Ban Treaty Organization) در شهر وين اتريش به نمايش گذاشت. CTBTO از راسل دعوت کرده‌بود تا توضيح دهد تکنيک‌های هوش مصنوعی جديد چطور می‌توانند انفجارهای هسته‌ای را شناسایی کنند. 
پس از اين که حضار تمام صبح را به توضيحات درباره مشکلات شناسایی لرزه‌های‌ ناشی از انفجارهای هسته‌ای در نقاط دور گوش فرا دادند، راسل دست به کار شد تا اين مشکل را با استفاده از برنامه‌سازی احتمال‌گرا مدل‌سازی کند. راسل می‌گوید: «طی مدتی که شرکت‌کنندگان ناهار می‌خوردند ‌توانستم مدل کاملی از تمام اين چيزها را ايجاد کنم.» حجم اين برنامه نيم صفحه بود. دانش پيشين را می‌توان در مدل‌هایی از اين دست تلفيق کرد و برای مثال احتمال وقوع زمين‌لرزه در سوماترای اندونزی را با احتمال روی دادن آن در بيرمنگام بريتانيا مقايسه کرد. به زعم سازمان CTBTO همه سيستم‌ها فرض را بر اين می‌گيرند که احتمال وقوع انفجار در همه نقاط زمين يکسان است. داده‌های واقعی نيز در دسترس هستند (سيگنال‌های دريافت‌شده در ايستگاه‌های مانيتورينگ CTBTO). کار سيستم هوش مصنوعی در اين ميان اين است که همه اين داده‌ها را بررسی کرده و محتمل‌ترين توضيح را برای هر مجموعه از سيگنال‌ها ارائه دهد. چالش، درست همين‌جا است. زبان‌هایی مثل BLOG به موتورهای استنباطی عام مجهز هستند. وقتی با مدل شبيه‌سازی شده از چالشی در دنيای واقعی که شامل متغيرها و توزيع‌های احتمالی مختلف است مواجه هستيم، موتور عام بايد احتمال يک انفجار در هر نقطه را با استفاده از دانش پيشين درباره رويدادهای مورد انتظار و داده‌های حاصل از ثبت لرزه‌های جديد به دست آورد. اگر به مثال بيماری و نشانه‌های آن برگرديم، اين مدل بايد بتواند بيماری را تشخيص دهد. به بيان ديگر، الگوريتم‌های آن بايد بسيار فراگير باشند. 
با اين توضيح بايد گفت که رويکرد جاری بسيار ناکارآمد است. نتيجه اين که، اين الگوريتم‌ها بايد در مواجهه با هر موقعيت و چالش جديد تغيير داده شده و به اصطلاح سفارشی شوند. اما راسل می‌گويد نمی‌شود که يک دانشجوی دکترا را تمام وقت استخدام کرد تا هر مشکل جديدی که پيش آمد، الگوريتم را تغيير دهد. او می‌افزايد: «مغز انسان که اين گونه کار نمی‌کند؛ مغز انسان به سرعت درگير مسئله می‌شود.» همين موضوع باعث شده راسل، تننباوم و ديگران سرگردان بمانند و به آينده هوش مصنوعی خيره شوند. راسل می‌گويد: «دوست دارم به مردم خبرهای مسرت‌بخش بدهم اما نه طوری که فکر کنند داریم سر آن‌ها را کلاه می‌گذاریم.» تننباوم نيز موافق است. او که حدود چهل سال سن دارد، می‌گويد شانس اين که مشکل استنباط کارآمد اين سيستم‌ها در دوران عمر وی حل شده و به نتيجه برسد پنجاه-پنجاه است و اين در حالی است که کامپيوترها در حال سريع‌تر شدن و الگوريتم‌ها در حال پيشرفته‌تر شدن هستند. به گفته او، مشکلات مذکور سخت‌تر از مشکلاتی هستند که در سفر به ماه و مريخ با آن‌ها مواجه بوديم. البته اين به معنی کم‌اهميت جلوه دادن روح حاکم بر جامعه هوش مصنوعی نيست. برای مثال، دافنه کولر (Daphne Koller) از دانشگاه استنفورد توانسته است با استفاده از همين برنامه‌‌سازی احتمال‌گرا بعضی از مسئله‌های خاص را به خوبی حل کند. او به همراه يک پزشک متخصص نوزادان به نام آنا پن (Anna Penn) و همکارانش از همين دانشگاه، سيستمی موسوم به PhysiScore را توسعه داده‌اند که پيش‌بينی می‌کند «آيا نوزادان زودرس مشکل سلامتی خواهند داشت يا نه»، که کار بسيار سختی است. 

مطلب پیشنهادی

زندگی‌نامه آلن تورینگ؛ پدر علوم کامپیوتر (قسمت اول)

پزشکان نمی‌توانند اين مسئله را با قطعيت پيش‌بينی کنند و از طرفی اين مسئله‌ای است که برای خانواده‌ها بسيار مهم است. PhysiScore شاخص‌هایی مانند دوران بارداری و وزن نوزاد هنگام تولد و نيز داده‌های بلادرنگ گردآوری‌ شده در ساعات پس از تولد مثل نرخ ضربان قلب، تنفس و ميزان خلوص اکسيژن را مد نظر قرار می‌دهد. 
کولر می‌گويد: «ما قادريم ظرف سه ساعت اوليه تولد بگوييم که کدام نوزادان به احتمال سالم‌تر خواهند بود و کدام‌ها احتمال دارد ظرف دو هفته بعد دچار مشکلات حاد شوند.» پن می‌گويد: «متخصصان نوزادان از ديدن سيستم PhysiScore به وجد آمده‌اند.» پن به عنوان يک پزشک از اين که سيستم‌های هوش مصنوعی می‌توانند همزمان با صدها (اگر نگوييم هزارها) متغير مرتبط با تصميم‌گيری دست و پنجه نرم کنند، لذت می‌برد. چنين سيستمی حتی می‌تواند از همتايان انسانی خود نيز پيشی بگيرد. او می‌گويد، اين ابزارها سيگنال‌هایی را که پزشکان و پرستاران حتی نمی‌توانند مشاهده‌ کنند، معنی و تفسير می‌کند. به همين علت است که دومينگوس تا اين اندازه به سيستم‌های تشخيص پزشکی خودکار اعتماد دارد. يکی از معروف‌ترين اين سيستم‌ها QMR-DT (سرنام Quick Medical Reference Decision Theoretic) نام دارد که يک شبکه بيز است و می‌تواند 600 بيماری عمده و چهار هزار نشانه مربوط به اين بيماری‌ها را مدل‌سازی کند. هدف اين سامانه بررسی نشانه‌ها و تعيين احتمال وقوع يک بيماری خاص است. پژوهشگران الگوريتم‌های استدلالی سيستم QMR-DT را به خوبی سازمان‌دهی کرده‌اند و به آن ياد داده‌اند که چطور از سوابق اطلاعاتی بيماران بهره ببرد. دومينگوس می‌گويد، انسان‌ها موقع قضاوت‌هايشان از جمله در تشخيص بيماری خيلی متزلزل هستند. تنها دليلی که باعث شده اين سيستم‌ها به‌طور گسترده مورد استفاده قرار نگيرند اين است که پزشکان نمی‌خواهند از يکی از جنبه‌های عمده حرفه‌شان (تشخيص بيماری) کناره‌گيری کنند و عرصه را به اين سيستم‌ها وابگذارند.  تکنيک‌هایی از اين دست در هوش مصنوعی، موفقيت‌های ديگری هم کسب کرده‌اند. يکی از قابل‌توجه‌ترين اين موارد تشخيص گفتار است. سيستم تشخيص گفتار که در آغاز راه خود خطاهای خنده‌داری مرتکب می‌شد امروز به‌طرز خيره‌کننده‌ای به يک سيستم دقيق تبديل شده‌است. پزشکان اکنون می‌توانند سوابق بيماران را به اين سيستم ديکته کنند تا نرم‌افزار تشخيص گفتار آن‌ها را به اسناد الکترونيکی تبديل کند و به اين ترتيب نياز به نوشتار خطی کاهش پيدا می‌کند. ترجمه زبان نيز حيطه ديگری است که دارد موفقيت سيستم‌های تشخيص گفتار را تکرار می‌کند. 

ماشين‌هایی که می‌آموزند

با اين‌‌ همه، هنوز عرصه‌هایی هستند که چالش‌های عمده‌ای را پيش رو دارند. به عنوان مثال، برای يک روبات خيلی سخت است تشخيص دهد که آنچه از طريق دور‌بینش مشاهده می‌کند، چيست. برای بر‌طرف‌کردن اين مشکل راهی طولانی در پيش است و بايد روبات‌هایی ساخته شوند که بتوانند خودشان را ناوبری کنند. 
علاوه بر توسعه الگوريتم‌های استنباطی منعطف و سريع، پژوهشگران بايد قابليت سيستم‌های هوش مصنوعی را در يادگيری نيز ارتقا دهند. چه اين ارتقا با کمک داده‌های جاری صورت پذيرد و چه با استفاده از حسگرها و در تعامل با دنيای واقعی. امروزه يادگيری ماشينی بیشتر با استفاده از الگوريتم‌های سفارشی و خاص به همراه مجموعه‌های حاوی داده‌های به دقت گردآوری شده انجام می‌شود تا به خوبی به سيستم بياموزد که چه کار خاصی را بايد انجام دهد. 
کولر می‌گويد: «ما طالب سيستم‌های چندکاره هستيم تا بتوان از آن‌ها در دنيای واقعی بهره برد و آن‌ها نيز بتوانند از انواع مختلف ورودی‌هایی که از محيط دريافت می‌کنند چيزهای جديدی بياموزند.» 
هدف نهایی هوش مصنوعی همچون گذشته ساختن ماشين‌هایی است که هوش انسانی را تقليد کنند البته به گونه‌ای که برای ما انسان‌ها نيز قابل فهم باشد. تننباوم می‌گوید: «رسیدن به این هدف ممکن است درست همانند یافتن حیات در بیرون از منظومه شمسی دور از دسترس و حتی به همان اندازه خطرناک باشد.» 
او می‌افزاید: «ایجاد هوش مصنوعی انسان‌گونه،‌که اصطلاحی فراگیرتر و گسترده‌تر است، هنوز در توان ما نیست. ما بسیار خوشحال خواهیم شد اگر بتوانیم یک سیستم بینایی به وجود آوریم که بتواند به صحنه‌ای نگاه کرده و بگوید چه اتفاقی در حال رخ دادن است؛ درست به همان شکلی که انسان‌ها این کار را می‌کنند.

 

برچسب: