شبکیه شماره 192
ما خطرناکیم
در مقدمه دنیای دوربین این شماره 192 ماهنامه شبکه نوشتم: «دنیای دوربین این شماره مثال‌‌هایی از دنیای ماشینی آینده دارد؛ فریب بینایی ماشین‌‌ها، ارائه راهکاری برای بررسی سلامت امنیتی تراشه‌‌هایی که تصمیمات مهمی در زندگی ما می‌‌گیرند و نیز تشکیل تیم‌‌هایی از روبات‌‌ها برای پیشگیری از آسیب رساندن انسان‌‌ها به‌هم!» این سه خط به‌خوبی نشان می‌‌دهد آیا ما خطرناک‌‌تریم یا ماشین‌‌هایی که ساخته‌‌ایم؟!

همیشه ترس از ماشینی شدن زندگی انسان‌ها مطرح بوده است. چه در زمان انقلاب صنعتی و ظهور ماشین‌‌هایی که کارگران را بیکار می‌کردند و چه در این دوره‌‌ که بحث سامانه‌‌های هوشمند، روبات‌‌ها و ماشین‌‌هایی که به‌طور مستقل از انسان تصمیم می‌‌گیرند، به بحث داغ محافل علمی و صنعتی و حتی فلسفی تبدیل شده است. بخش پررنگی که در این بحث‌‌ها همیشه جلب نظر می‌کند، جنبه‌های منفی استفاده از این «سامانه‌‌های هوشمند همه چیزدان» است و بخش زیادی از آنچه درباره این سامانه‌‌ها می‌شنویم و می‌خوانیم به تأثیرات مخرب آن‌ها بر زندگی اجتماعی، سیاسی و حتی اخلاقی جوامع بشری مربوط می‌‌شود.

مطلب پیشنهادی

آخرین یادداشت ۹۵
شبکیه شماره ۱۹۰

اینکه روبات‌‌ها و سامانه‌‌های نرم‌‌افزاری و سخت‌‌افزاری هوشمند، در ردیف‌‌های شغلی مختلف جای بسیاری از کارگران و کارشناسان را خواهند گرفت یا اینکه فریب دادن سامانه‌‌های هوشمند و ایجاد اختلال در آن‌ها به یک ابزار تهاجمی تبدیل خواهد شد، یک شرکت ساخت تراشه در پردازنده‌‌های خود حفره‌‌های امنیتی را پنهان می‌‌کند و مشتریانش که غالباً شرکت‌‌ها و سازمان‌‌های مهم هستند، از وجود این حفره‌‌های امنیتی سخت‌افزاری غافل‌‌اند.

به‌کارگیری این تراشه‌‌ها که در واقع تروجان‌‌های سخت‌‌افزاری هستند، در سامانه‌‌های حیاتی یک سازمان، آن سازمان یا حتی کشور مصرف‌‌کننده را در معرض خطرات امنیتی بالقوه‌‌ای قرار خواهد داد. کافی است مهاجمان به‌منظور استفاده از آن قابلیت پنهان کدهایی را برای تراشه بفرستند تا این خطر بالقوه به یک فاجعه بالفعل تبدیل شود. حتی با پخش یک فایل صوتی یا ویدئویی و تنها از طریق پخش صدا و بدون اجرای هرگونه برنامه مخرب و ویروس روی سامانه هدف، می‌‌توان حسگرهای آن را به اشتباه انداخت و کنترل سامانه را به دست گرفت. سامانه‌‌ای که ممکن است یک دستگاه پزشکی باشد یا یک سامانه هدایت خودکار.

این سامانه‌‌های هوشمند، روبات‌‌ها و ماشین‌‌های‌‌ مبتنی بر یادگیری عمیق نیستند که خطرناک هستند، این ماییم که خطرناکیم. 

اگر به این مثال‌‌ها دقت کنیم‌‌، به واقعیت ناخوشایندی پی خواهیم برد. این سامانه‌‌های هوشمند، روبات‌‌ها و ماشین‌‌های‌‌ مبتنی بر یادگیری عمیق نیستند که خطرناک هستند، این ماییم که خطرناکیم. اگر مشکلی از نظر اخلاق وجود داشته باشد، به‌طور تمام و کمال متوجه ما است. ما این ابزارها را ساخته‌‌ایم، ماشین‌‌های هوشمند براساس بازخوردهایی که از ما و از رفتار ما دریافت می‌‌کنند لایه‌‌های عصبی و رفتار خود را تنظیم می‌‌کنند، ما در آن‌ها نفوذ می‌کنیم، به آن‌ها حمله می‌‌کنیم، آن‌ها را وادار می‌‌کنیم رفتارهایی غیر از آنچه برایش طراحی شده‌اند نشان دهند.

آن‌ها از ما یاد می‌‌گیرند و از ما آسیب می‌‌بینند. هرچند هنوز خیلی زود است آن‌ها را به‌عنوان ساکنان درجه دو جوامع خود حساب کنیم، اما اگر روزی پیش‌بینی‌‌ها به واقعیت بپیوندند و ماشین‌‌های هوشمند به ساکنان درجه یک سیاره ما یا حتی سیارات دیگر تبدیل شوند (همان طور که عملاً بیش از آنکه ما در فضا و سیاراتی نظیر مریخ حضور داشته باشیم، روبات‌‌ها و سامانه‌‌های هوشمند دست‌‌ساخته ‌‌ما هستند که حضور دارند)، باز هم رفتارهای «غیراخلاقی» احتمالی آن‌ها بدون کمترین تردیدی حاصل بی‌اخلاقی‌‌های ما خواهد بود. پیش از آنکه از سامانه‌‌های هوشمند و روبات‌‌ها بترسیم، باید از خودمان بترسیم و پیش از اینکه خیلی دیر شود، انسان‌‌های بهتری شویم. به جایی می‌‌رسیم که ماشین‌‌ها باید مراقب ما باشند تا به‌هم آسیب نرسانیم یا کمک کنند تا در آسیب رساندن به هم‌نوعانمان پیش‌دستی کنیم.

 

برچسب: