فرمان‌پذیری روبات‌ها؟!
روزی که روبات‌ها به انسان «نه» بگویند
بحث در مورد روبات‌ها هر روز داغ‌تر از قبل می‌شود. در حالی که نزدیک به چند دهه پیش انسان‌ها در حسرت ساخت روبات‌ها بودند و همواره اصطلاح آدم ماشینی در کارتون‌ها، داستان‌های کمیک و فیلم‌ها دنبال می‌شد، اما در نهایت دنیای علم و فناوری ثابت کرد، مغز انسان به اندازه‌ای قدرتمند است که به راحتی از پس ساخت این محصولات بر می‌آید. اما به نظر می‌رسد امروزه صحبت در ارتباط با جنبه‌های علمی و فنی این قضیه نیست و کم کم ردپای موضوعات اخلاقی به میان آمده است. دانشمندان در نظر دارند "نه" گفتن را به روبات‌ها بیاموزند.

در دنیای هوش‌ مصنوعی، قانونی وجود دارد که می‌گوید روبات‌ها نباید به انسان‌ها آسیب برسانند و همواره باید مطیع آن‌ها باشند. اما مطیع بودن ممکن است با اصل هوشمندی کمی منافات داشته باشد، گروهی از دانشمندان بر این باور هستند که باید حق "نه" گفتن را در اختیار روبات‌ها قرار داد. اما عده دیگری از کارشناسان "نه" گفتن را به معنای سرپیچی از دستورات تخصیص داده شده به روبات‌ها تفسیر کرده‌اند. در ظاهر چنین به نظر می‌رسد که مهندسان در حال آموزش این مفهوم به روبات‌ها هستند که باید از فرمان‌های ارباب خود سرپیچی کرده و بر علیه آن‌ها به پا برخیزند، اما این جمله ممکن است کمی مشکل‌ساز باشد.

سؤال اصلی این است که آیا ما واقعا نیاز داریم به هوش مصنوعی اجازه دهیم، در آینده برای انجام کارها به ما "نه" بگویید؟ قبل از آن‌که به‌طور صریح و روشن به این سؤال پاسخ دهیم ابتدا بهتر است یکسری اطلاعات در اختیار ما قرار بگیرند تا ذهن ما به صورت شفاف‌تری به این سؤال پاسخ دهد. به عبارت دیگر نه گفتن در بعضی موارد ممکن است در زندگی واقعی جان انسان‌های زیادی را نجات دهد. اما چگونه؟

روبات‌های کارگری که سهوا جان انسان‌ها را می‌گیرند

روبات‌هایی که در خط مونتاژ یک کارخانه خودروسازی کار می‌کنند را در نظر بگیرید، در بیشتر موارد این روبات‌ها به سادگی دستورالعمل‌هایی که به آن‌ها تخصیص داده شده است را دنبال می‌کنند، اما اگر به‌طور مثال بازوی انسانی در معرض خطر قرار داشته باشد آیا این دستگاه نباید به اندازه کافی هوشمند باشد که فعالیت خود را متوقف سازد؟ در اوایل سال جاری میلادی بود که کارگر کارخانه ماشین‌سازی در آلمان در میان بازو‌های مکانیکی روبات کارخانه گرفتار شد و جان خود را از دست داد. برای آن‌که این ماشین توانایی چنین کاری را داشته باشد، لازم است یکسری پیش‌فرض‌های برنامه‌نویسی که برای آن در نظر گرفته شده است را رونویسی کرده یا به عبارت دقیق‌تر از آن‌ها صرفنظر کرده، تا انسان‌ها در معرض تهدیدات کمتری قرار بگیرند. (در دنیای برنامه‌نویسی متدها از نمونه‌های چندگانه‌ای ساخته شده‌اند که هر یک بر اساس پارامترهای ورودی مختلف کار می‌کنند، همچنین شرکت‌های نرم‌افزاری این توانایی را در اختیار برنامه‌نویسان قرار می‌دهند تا متدهای موجود در یک کلاس را در اصطلاح رایج رونویسی override کنند.) یک تیم از محققان آزمایش‌گاه تعامل انسان و ماشین در دانشگاه Tufts در نظر دارند چنین مفهومی را به روبات‌ها آموزش دهند.

تحقیقات و مطالعات این تیم روی مفهومی به نام شرایط اقتضایی (Felicity conditions) که در آن مغز انسان هر زمان کاری از او خواسته شود آن‌را انجام می‌دهد، متمرکز است. تحت چنین شرایطی، ما با در نظر گرفتن یکسری ملاحظات کارها را انجام می‌دهیم. به‌طوری که قبل از انجام هرگونه کنشی سؤالات زیر را از خود می‌پرسیم:

آیا من می‌دانم چگونه باید این کار را انجام دهم؟ آیا من به لحاظ فیزیکی از عهده انجام این کار بر می‌آیم؟ آیا اکنون این کار را به درستی انجام داده‌ام؟ آیا من به لحاظ موقعیت اجتماعی توانایی انجام این کار را دارم؟ و سرانجام  آیا کاری که انجام می‌دهم باعث نقض هنجارها نمی شود؟

هوش مصنوعی به ادراک‌پذیری نیازمند است

اگر روبات‌ها به درجه‌ای از ادراک‌پذیری برسند که توانایی پاسخ‌گویی به چنین سؤالاتی را داشته باشند، آن‌گاه این توانایی را خواهند داشت، تا خود را با شرایط غیر منتظره تطبیق داده و هماهنگ سازند. در میان سؤالاتی که به آن‌ها اشاره شد، دو سؤال آخر در پروسه ادارک‌پذیری روبات‌ها اهمیت بسزایی دارند. یک روبات مسئولیت‌پذیر باید در خصوص دستورالعمل‌هایی که از سوی کارفرمایش دریافت می‌کند، تصمیمات مستقلی را اتخاذ کند، به‌طوری که باید دلایل خود را در ارتباط با نادیده گرفتن وظایفی که به او تخصیص داده شده است، بیان کرده و نشان دهد این دستورات باعث آسیب رساندن به افراد می‌شود.

این یک مفهوم ساده و سطحی نیست که بتوان آن‌را در سریع‌ترین زمان پیاده‌سازی و اجرا کرد. همان‌گونه که در فیلم 2001  ادویسه فضایی آن‌‌را مشاهده کردیم. در فیلمی که این گروه از محققان آن‌را منتشر کرده‌اند، آن‌ها یکسری مکالمات ساده را بین روبات و کاربر مورد آزمایش قرار داده‌اند، به‌طوری که یک تعامل دو طرفه مابین هر دو گروه وجود داشته است. آن‌ها سعی دارند به روبات یاد دهند که برای انجام کارها دلایل خود را بیان کند. به‌طور مثال روبات می‌تواند بگویید که در اثر انجام یک فرآیند خاص به‌طور مثال نزدیک شدن به لبه میز سقوط خواهد کرد. در حالی که اپراتور می‌تواند دلایل بیشتری برای انجام این ‌کار ارائه کند.

مشکل تصمیم‌گیری تنها مختص روبات‌ها نیست

اما این مشکل تنها مختص سازندگان روبات‌ها نیست. محققانی که در زمینه طراحی ماشین‌های خودران مشغول به کار هستند نیز با معضل اخلاقی مشابهی روبرو هستند. اگر یک ماشین خودران در شرایط اضطراری قرار بگیرد که در آن زندگی چند انسان در معرض خطر قرار داشته باشد، آیا این ماشین باید به صورت خودآگاه و از روی عمد خود را به دیواری کوبیده و منجر به کشته شدن سرنشینان درون ماشین شود یا باید مطابق با دستورالعمل‌هایی که به آن تخصیص داده شده است رفتار کرده، به میان مردم رفته و باعث مرگ انسان‌های بیشتری شود؟ پیتر دکریال در این‌باره گفته است: «در نظرسنجی به عمل آمده از سوی مردم، آن‌ها اعلام کرده‌اند که با کاهش میزان تلفات موافق هستند. حتی اگر این کار منجر به مرگ سرنشینان داخل یک خودرو شود.» متن کامل این گزارش را در سایت ScienceAlert مطالعه کنید.

مطلب پیشنهادی

10 روبات جذابی که از حیوانات الهام گرفته شده‌اند + تصویر

در حالی که نافرمانی روبات‌ها یا به عبارت دقیق‌تر سرپیچی آن‌ها از دستورات انسانی یک خطر بالقوه و خطرناک می‌تواند قلمداد شود، اما دنبال کردن کورکورانه دستوراتی که به آن‌ها تخصیص داده شده است، در واقع خطرات بیشتری را متوجه انسان‌ها خواهد ساخت. انسان‌ به دلایل متعددی ممکن است از اجرای دستورات سرپیچی کند. ناتوانی در اجرای دستورات یا مغایرت با اصول اخلاقی تنها دو مورد از هزاران دلیلی است که انسان‌ها برای سرباز زدن از اجرای دستورات از آن‌ها استفاده می‌کنند. در نهایت، مجموعه‌ای یکپارچه از مکانیزم‌های ادراکی در ارتباط با معماری شناختی روبات‌ها برای قبول کردن یک دستور یا سرباز زدن از اجرای دستورات خلاء‌ای  است که در این زمینه وجود دارد. آن‌ها باید برای اجرا یا عدم اجرای دستورات خود دلایل قانع کننده‌ای ارائه کنند.

========================

شاید به این مطالب هم علاقمند باشید:

واتسون، کامپیوتری با استعدادهای ادراک‌پذیری، پزشکی و آشپزی!

سنفونی پایان غیر طبیعی جهان به روایت استیون هاوکینگ

هوش‌ مصنوعی؛ تهدید یا فرصت؟

واتسون روبات دوست داشتنی ژاپنی را باهوش‌تر می‌کند

ماشینی که انسان‌ها را بهتر از خودشان درک می‌کند

کارکردهای ملموس هوش‌ مصنوعی در زندگی روزمره ما

دانشمندان مغز مصنوعی با توانایی یادگیری ارتباط کلامی ساختند

تراشه دوست‌دار انرژی که هوش مصنوعی را روی اسمارت‌فون‌ها می‌آورد

هوش مصنوعی در تعامل با اشیای هوشمند، غیرهوشمند و جاندار

هوش مصنوعی در تعامل با اشیای هوشمند، غیرهوشمند و جاندار

Google Now چگونه کار می‌کند؟

کورتانا در مقابل سیری، سیری در مقابل Google Now

برچسب: