یک نامه هشدارآمیز دیگر از سوی نوابغ
116 دانشمند برجسته جهان خواستار ممنوعیت به‌کارگیری روبات‌های قاتل شدند
نامه سرگشاده‌ای به امضا ایلان ماسک مدیرعامل شرکت تسلا و مصطفی سلیمان بنیانگذار شرکت دیپ مایند برای سازمان ملل ارسال شد. در این نامه که جمعی از برجسته‌ترین دانشمندان جهان آن‌را امضا کردند از سازمان ملل درخواست شده است تا پیش از آن‌که روبات‌های قاتل زمینه‌ساز شکل‌گیری جنگ جهانی بعدی شوند مانع به‌کارگیری سلاح‌های هوشمند شود.

تعدادی از پیشگامان حوزه روباتیک و هوش مصنوعی جهان از سازمان ملل درخواست کرده‌اند مانع توسعه و به‌کارگیری روبات‌های قاتل شود. روبات‌هایی که مجهز به سلاح‌هایی هستند که به‌طور مستقل و بدون دخالت عامل انسانی ممکن است افراد بیگناه را به قتل برسانند. این دانشمندان بر این باور هستند که توسعه این سلاح‌ها به لحاظ اخلاقی درست نبوده و باید به فهرست سلاح‌های ممنوعه سازمان ملل وارد شوند.

مطلب پیشنهادی

هوش‌ مصنوعی؛ تهدید یا فرصت؟
کاربردهای هوش مصنوعی در زندگی روزمره ما

سازمان ملل به تازگی تصمیم گرفته است در قالب یک برنامه رسمی وضعیت به‌کارگیری هواپیماهای بدون سرنشین، تانک‌ها و مسلسل‌های خودکار را مورد بررسی قرار دهد. پیش از این جمعی از بنیان‌گذاران هوش مصنوعی و روباتیک نامه مشابه دیگری را برای سازمان ملل ارسال کرده بودند و خواستار آن شده بودند که مانع برگزاری یک مسابقه تسلیحاتی شود.

مطلب پیشنهادی

۸ روبات معروفی که به استخدام پلیس درآمدند!
روبات‌هایی با توانایی انجام وظایف سنگین و پیچیده و حساس

مسابقه‌ای که بر سر ساخت روبات‌های قاتل خواهد بود. در نامه جدید بنیان‌گذاران و دانشمندان این حوزه در جریان برگزاری کنفرانس بررسی وضعیت سلاح‌های متعارف هشدار داده‌اند که آغاز یک مسابقه تسلیحاتی در زمینه ساخت تجهیزات هوشمند، طلیعه شکل‌گیری عصری موسوم به انقلاب سوم در صنعت جنگ (third revolution in warfare) را رقم خواهد زد. بنیان‌گذاران در نامه خود نوشته‌اند: «پس از توسعه سلاح‌های مرگباری که در اتمسفر قرار می‌گیرد، شاهد آغاز یک مسابقه تسلیحاتی در ابعاد وسیع‌تر و بزرگ‌تر خواهیم بود که ممکن است به سرعت از درک انسان فراتر رود. این‌گونه سلاح‌ها ممکن است در اختیار مستبدان و تروریست‌ها قرار گرفته و مردم بی گناه زیادی را قربانی کند. به واسطه آن‌که همواره احتمال هک کردن چنین تجهیزات هوشمندی وجود خواهد داشت. روبات‌های قاتل همانند جعبه پاندورا هستند. زمانی که باز شوند نزدیک شدن به آن کار مشکلی خواهد بود.»

کارشناسان در گذشته نیز هشدار داده بودند که فناوری هوش مصنوعی به نقطه‌ای رسیده است که اجازه می‌دهد استقرار سلاح‌های خودمختار را امکان‌پذیر می‌سازد. به‌طوری که در چند سال آینده امکان ساخت چنین سلاح‌هایی وجود خواهد داشت.

مطلب پیشنهادی

آیا هوش مصنوعی بزرگترین تهدید برای تمدن بشری است؟
مدیر تسلا: هوش‌مصنوعی بزرگترین خطری است که تمدن بشری را تهدید می‌کند

با این وجود گروهی از کارشناسان هوش مصنوعی، مدافع ساخت این تسلیحات هستند و اعلام می‌دارند به‌کارگیری این سلاح‌ها میدان‌های جنگ را برای سربازان ایمن‌تر خواهد کرد. سلاح‌های تهاجمی که به تنهایی کار کرده و همچنین در بسیاری از مواقع مانع شکل‌گیری جنگ‌ها می‌شوند. در نتیجه باعث نجات جان انسان‌های زیادی می‌شوند.

توبی والش، استاد هوش مصنوعی دانشگاه نیوساوت ولز سیدنی می‌گوید: «تقریبا هر فناوری را به شکل خوب و بد می‌توان مورد استفاده قرار داد. هوش مصنوعی از این قاعده مستنثا نیست. هوش مصنوع می‌‌تواند در حل یکسری مشکلات روز جامعه همچون فقر، نابرابری و چالش‌های اقلیمی و بحران مالی جهان به ما کمک کند. با این وجود همین فناوری را در مورد سلاح‌های خودمختار که باعث صنعتی شدن جنگ می‌شوند نیز می‌توان مورد استفاده قرار داد. ما اکنون باید تصمیم بگیریم که این فناوری را برای آینده خود چگونه به‌کار گیریم؟» این نامه روز دوشنبه در جریان برگزاری کنفرانس بین‌المللی هوش مصنوعی در ملبورن ارسال شد.

برچسب: