هوش مصنوعی و پایانی بر حقیقت
هوش مصنوعی چه آینده‌ای را پیش ‌روی واژه حقیقت قرار خواهد داد؟
سال گذشته مملو از اتفاقات ریز و درشت بسیاری بود. بخش عمده‌ای از کارشناسان عرصه رسانه بر این باورند که انتشار اخبار جعلی یکی از مهم‌ترین و در عین حال بدترین رخداد‌های سال گذشته میلادی بود. در سالی که گذشت بسیاری از کارشناسان عرصه رسانه، شبکه اجتماعی فیس‌بوک را به انتشار اخبار جعلی و فراهم آوردن بستری برای انتشار این گونه اخبار متهم کردند...

گزارش منتشر شده از سوی سایت Buzfeed نشان داد چگونه اخبار جعلی همچون «دونالد ترامپ مورد تأیید پاپ فرانسیس است»، به‌سرعت مورد توجه مردم قرار گرفت، در حالی که در آن زمان رسانه‌های بزرگ خبری، اقدام به انتشار داستان‌های معتبری کردند، اما مردم عمدتاً به اخبار جعلی روی خوش نشان دادند. دامنه انتقادات از فیس‌بوک به‌اندازه‌ای شدت گرفت که سرانجام مارک زاکربرگ از خود واکنش نشان داد و اعلام کرد اخبار منتشر شده در فیس‌بوک هیچ‌گونه تأثیری بر روند انتخابات نداشته است.

آمارهای منتشر شده نشان می‌دهند تقریباً نیمی از شهروندان ایالات متحده اخبار مهم روز را از طریق این رسانه اجتماعی دریافت می‌کنند. اما انتشار خبرهای جعلی باعث شد تا بسیاری از کارشناسان و حتی شرکت‌های بزرگ عرصه فناوری نسبت به این موضوع حساس شوند و راهکارهایی را برای مقابله با این پدیده شوم ارائه کنند. در همین راستا، دو شرکت فیس‌بوک و گوگل تصمیم گرفتند به مقابله با این پدیده برخزیند و مانع از آن شوند تا تبلیغات ارائه شده از سوی این شرکت‌ها روی سایت‌هایی که اقدام به نشر اکاذیب می‌کنند به نمایش درآیند. فیس‌بوک تصمیم گرفته است با شدت عمل بیشتری به میدان وارد شود. این شرکت ابزارها و راهکارهای جدیدی در اختیار کاربران خود قرار داده است تا گسترش اخبار جعلی در پلتفرم خود را محدود سازد. ابزارهای جدید به کاربران اجازه می‌دهد هر زمان محتوای مشکوکی را مشاهده کردند آن‌ را گزارش کنند. در این حالت محتوای مشکوک با برچسب بحث‌برانگیز (Disputed) به نمایش درمی‌آید تا نشان دهد خبر ممکن است قابل استناد نباشد. (شکل 1)


شکل 1- فیس‌بوک محتوای مشکوک را با برچسب بحث‌برانگیز نشانه‌گذاری می‌کند.

مطلب پیشنهادی

سن مغز می‌تواند زمان مرگ انسان را بگوید
یادگیری ماشینی در خدمت راز طول عمر

در حالی که همه این اقدامات به‌منظور مقابله با نشر اکاذیب مفید هستند، اما به نظر می‌رسد ما به اهرم‌های قدرتمندتر و کارآمدتری نیاز داریم. در واقع، بسیاری از کارشناسان معتقدند مسئله انتشار اخبار جعلی موضوعی است که به پژوهش عمیق نیاز دارد، به‌دلیل اینکه اطلاعات غیرواقعی که امروزه نظاره‌گر آن هستیم، به‌سان کوه یخی عظیمی است که تنها نوک آن قابل رؤیت است. در نتیجه برای حل این مشکل به یک پژوهش عمیق و جامع نیاز است. اما موضوع رسیدگی به محتوای جعلی زمانی شکل پیچیده‌تر و حادتری به خود می‌گیرد که از ورود هوش مصنوعی به این عرصه صحبت کنیم. در واقع، بسیاری از کارشناسان به‌جای آنکه از ورود این فناوری به حوزه محتوا خوشحال شوند، بیشتر نگران هستند. به‌واسطه آنکه ورود فناوری‌های هوشمندانه به این عرصه ممکن است بر پیچیدگی اوضاع بیافزاید.

مطلب پیشنهادی

هوش مصنوعی این 11 صنعت را به‌شدت تهدید می‌کند
هوش مصنوعی، کمک به انسان‌ها یا بی‌کار کردن آن‌ها

هوش مصنوعی به میدان وارد می‌شود
دنیای فناوری پس از گذشت سال‌های متمادی در سال 2016 شاهد حضور تمام‌عیار هوش مصنوعی بود. به طوری که به یکی از جریان‌های اصلی سال گذشته تبدیل شد. هوش مصنوعی به‌‌لطف پیشرفت‌های چشم‌گیر در حوزه یادگیری عمیق نشان داد قادر است در بسیاری از حوزه‌ها نقش‌آفرین باشد. هوش مصنوعی در عمل نشان داد برای حل یک مسئله دیگر نیازی به کدنویسی نیست. بلکه باید به کامپیوترها یاد بدهید براساس یک چهارچوب منطقی مشکلات خود را حل کنند. چند سال پیش کمتر کارشناس برجسته‌ای قادر بود پیش‌بینی کند محصولات آینده به‌شکلی باورنکردنی قادر خواهند بود عملیاتی که به آن‌ها محول می‌شود را بدون نظارت یا با نظارت محدود عامل انسانی سازمان‌دهی کنند. اکوی آمازون و خودرو‌های خودران بار‌ز‌ترین مثالی هستند که در این زمینه می‌توان به آن اشاره کرد. در حالی که دستیابی به چنین موفقیت‌هایی فوق‌العاده است، اما هوش مصنوعی این پتانسیل را دارد تا ابزارهای نوین و البته ترسناکی را خلق کند که به‌راحتی در روند دستیابی کاربران به محتوای صحیح سنگ‌اندازی کنند. ابزارهای قدرتمندی که ممکن است شیوه درک و مصرف اطلاعات را دستخوش تغییرات اساسی سازند. VoCo ابزار طراحی شده از سوی شرکت ادوبی از جمله ابزارهای هوشمندی است که ممکن است کاربردی دوگانه داشته باشد. VoCo یک ابزار مبتنی‌بر هوش مصنوعی است که قادر به تقلید صدای انسان است. (شکل 2)

شکل 2- VoCo ابزاری که سال گذشته میلادی ادوبی از آن رونمایی کرد، چیزی فراتر از یک ویرایشگر ساده صوتی است.

 

برای آنکه بتوانید از این ابزار استفاده کنید، کافی است یک فایل صوتی 20 دقیقه‌ای ضبط شده از صدای شخص مورد نظر خود را در اختیار این ابزار قرار دهید تا آن ‌را تحلیل کند و نحوه صحبت کردن با مخاطب را فراگیرد. در ادامه هرگونه محتوایی که تایپ کنید، کامپیوتر قادر خواهد بود محتوا را برمبنای صدای شخص مخاطب برای شما بازگو کند. ادوبی گفته است که ابزار VoCo به‌منظور کمک به تدوین‌گران طراحی شده است. ابزاری که به این افراد کمک می‌کند با کمترین زحمت مشکلات صوتی موجود در پادکست‌ها یا فیلم‌ها را شناسایی و آن‌ها را برطرف کند. پس از معرفی این ابزار از سوی ادوبی بسیاری از کارشناسان درباره تبعات منفی احتمالی این ابزار هشدار دادند. کارشناسان بر این باورند که ابزار فوق نه‌تنها باعث می‌شود سطح اعتماد به روزنامه‌نگاران کم شود، بلکه باعث شکل‌گیری تهدیدات امنیتی تازه‌ای می‌شود. اما این تمام ماجرا نیست، به‌واسطه آنکه محتوای ویدئویی نیز همانند محتوای صوتی قابل دستکاری است.  Face2Face یکی دیگر از ابزارهای مبتنی‌بر هوش مصنوعی است که قادر است بر فرآیند پخش یک محتوای ویدئویی به‌صورت بی‌درنگ نظارت کند. عملکرد ابزار Face2Face نیز شبیه به ابزار VoCo است، با این تفاوت که قادر است محتوای یک فایل ویدئویی ضبط شده از صحبت یک فرد را دریافت کند و در ادامه جزئی‌ترین حرکات چهره شخص را در زمان صحبت کردن مورد تحلیل قرار دهد و الگوی جالبی را برای آن ارائه کند. در ادامه برمبنای فناوری ردیابی چهره (Face-Tracking) قادر به ترسیم چهره شما به‌جای چهره آن شخص است. موضوع زمانی جالب‌تر می‌شود که به شما اعلام داریم این ابزار حتی قادر به تقلید حرکات چهره شخص مذکور است (شکل 3).

شکل 3- Face2Face ابزار هوشمندی که قادر است چهره شما را جایگزین چهره کاراکتر یک فیلم کند.

مطلب پیشنهادی

در انتظار یادگیری ماشینی کوانتومی خواهیم بود
رایانش کوانتومی در خدمت هوش مصنوعی

حال تصور کنید قابلیت‌های دو ابزار VoCo و Face2Face را با یکدیگر ترکیب کنیم. آن‌گاه به ابزار بسیار قدرتمند و ترسناکی دست پیدا می‌کنیم که قادر است فایل‌هایی ویدئویی را دستکاری کند و به شما اجازه می‌دهد آنچه را تمایل دارید فرد درون ویدئو اعلام دارد از طریق این ابزار شبیه‌سازی کنید. این شبیه‌سازی به اندازه‌ای واقع‌گرایانه خواهد بود که شناسایی ساختگی بودن آن تقریباً غیرممکن خواهد بود. اما کار به همین جا خلاصه نمی‌شود. هوش مصنوعی این توانایی را دارد تا از طریق راهکارهای متنوع دیگری به جعل هویت شما بپردازد. به طور مثال، پژوهشگران یک ابزار مبتنی‌بر هوش مصنوعی را طراحی کرده‌اند که قادر است هرگونه دست‌خطی را شبیه‌سازی کند. در نتیجه، امکان دستکاری اسناد حقوقی و تاریخی همراه با ارائه شواهد دروغ به دادگاه برای هر کاربری امکان‌پذیر می‌شود. کار به همین جا ختم می‌شود؟ خیر. هنوز هم جای ترس بیشتری وجود دارد. اگر به شما بگوییم ممکن است یک فرد به‌لحاظ فیزیکی مرده باشد، اما به‌لحاظ دیجیتالی زنده بماند با خود چه می‌گویید؟ به‌تازگی شرکت نوبنیانی موفق شده است چت‌بات مبتنی‌بر هوش مصنوعی ویژه‌ای را طراحی کند که قادر است در زمان صحبت با شخص تمام جزئیات مربوط به‌شیوه برخورد او با دیگران در فضای مجازی را یاد بگیرد و در ادامه به دوستانش اجازه ‌دهد بعد از مرگ او با شخصیت دیجیتالی او صحبت کنند. به‌عبارت دقیق‌تر چت‌بات یک نسخه مجازی از شخصیت او را ایجاد می‌کند.

هوش مصنوعی در عمل نشان داد برای حل یک مسئله دیگر نیازی به کدنویسی نیست. بلکه باید به کامپیوترها یاد بدهید براساس یک چهارچوب منطقی مشکلات خود را حل کنند​.

مطلب پیشنهادی

چرا به‌زودی هوش مصنوعی کسب‌وکارهای آنلاین را دگرگون می‌کند؟
فتوشاپی برای تمام مردم
آخرین مرتبه‌ای که به تصویری نگاه کردید و گمان می‌کردید در حال تماشای یک تصویر واقعی بوده‌اید، اما در ادامه متوجه شدید یک تصویر ساختگی با فتوشاپ بوده است را به‌خاطر می‌آورید؟ بدون شک این تجربه باز هم به‌سراغ شما خواهد آمد. مردم از جمله بسیار آشنایی استفاده می‌کنند که ممکن است بارها و بارها آن ‌را شنیده باشید. دوربین دروغ نمی‌گوید. به‌لطف ابداع این نوآوری برای نخستین بار موفق شدیم یک تصویر واقعی را درست به همان شکلی که وجود دارد مشاهده کنیم. عکس‌هایی که دوربین‌های عکاسی برای ما ضبط می‌کردند خیلی زود به یکی از قابل استنادترین شواهد تبدیل شدند. در آن مقطع زمانی عبارت «خاطره تصویری» بر زبان مردم جاری شد. مردم در آن زمان عکس‌ها را ویرایش و دستکاری می‌کردند. اما تنها افراد متخصص می‌توانستند تصاویر را ویرایش کنند. امروزه این ‌گونه نیست و هر کاربری بسته به سطح مهارت‌های خود قادر به ویرایش تصاویر است. در عصر جدید دوربین‌ها نقشی متفاوت‌تر از قبل را عهده‌دار شده‌اند. به‌عبارت دقیق‌تر نسل جدید به‌خوبی می‌دانند دوربین‌ها ممکن است واقعیت را نشان ندهند. با توجه به اینکه امروزه ابزارهای متنوعی همچون فتوشاپ به‌منظور ویرایش و دستکاری تصاویر در اختیار همگان قرار دارد و این‌ کار برای عده‌ای از مردم تبدیل به سرگرمی شده است، دیگر نمی‌توان به هر تصویری اعتماد کرد.
با توجه به اینکه ویرایش تصاویر بیش از پیش ساده شده است، در نتیجه شناسایی تصویر واقعی از تصاویر ساختگی به‌سختی امکان‌پذیر است. جالب آنکه امروزه ممکن است عکسی را مشاهده کنیم که در نگاه اول ساختگی به نظر آید. به‌سرعت از عبارت «فتوشاپ است» استفاده می‌کنیم. اما پس از بررسی دقیق‌تر آگاه می‌شویم که در حال مشاهده یک عکس واقعی بوده‌ایم.

مطلب پیشنهادی

اگر می‌خواهید درباره «یادگیری ماشینی» بیشتر بدانید؛ این ده مطلب را بخوانید!

هوش مصنوعی به ما اجازه داده است به‌سمت آینده‌ای حرکت کنیم که دستیابی به آن دور از انتظار به نظر می‌رسد. درست به همان شکلی که روزگاری بازسازی صدا، ویدئو و متن یک ایده خیال‌پردازانه به نظر می‌رسیدند. اما به این نکته توجه داشته باشید که ابزارهایی شبیه به VoCo و Face2Face آغازگر یک تحول بنیادین نیستند. سال‌های متمادی است که استودیوهای فیلم‌سازی از تکنیک جایگزینی چهره و صدا استفاده می‌کنند. اما اکنون یک تغییر مهم شکل گرفته است. امروزه نه به افراد حرفه‌ای و نه به کامپیوترهای قدرتمند برای انجام این ‌کار نیاز است. به‌لطف ابزارهای جدیدی که عرضه شده‌اند، هر فردی قادر است همان کار را با کامپیوتر خانگی خود انجام دهد و به نتایج مشابهی دست پیدا کند.
هرچند دو ابزاری که به آن اشاره کردیم محدودیت‌هایی دارند و ممکن است در بعضی موارد با کاستی‌هایی همراه باشند، اما بدون شک فناوری که در ساخت آن‌ها مورد استفاده قرار گرفته به‌مرور زمان تکامل پیدا خواهد کرد تا روزی که این ابزارها را به یک محصول تجاری تمام عیار تبدیل کند. این ابزارها ممکن است ظرف یک سال تا ده سال تکامل پیدا کنند. اما به هر ترتیب زمانی فراخواهد رسید که یک نوجوان عصبانی تصمیم بگیرد با نرم‌افزار مبتنی‌بر هوش مصنوعی که در اختیار دارد، هر محتوایی را به‌گونه‌ای دستکاری کند که اصالت آن هیچ‌گاه قابل تشخیص نباشد.
با توجه به اینکه اخبار جعلی به‌راحتی در فضای آنلاین منتشر و از سوی بعضی از مردم به‌راحتی پذیرش می‌شوند، در آینده‌ای نه‌چندان دور ممکن است اعتماد مردم به صنعت رسانه کم شود. این موضوع نگران‌کننده است. شاید این سؤال را مطرح کنید که این بی‌اعتمادی چه پیامدهایی ممکن است به همراه داشته باشد؟ ما به دو مورد حساس در این زمینه اشاره می‌کنیم.

1- محاکم قضایی
امروزه محاکم قضایی با استناد به شواهد و مدارک موجود رأی صادر می‌کنند. اما همان گونه که اشاره کردیم، اگر امکان جعل این شواهد شبیه به تصاویر دیجیتالی به‌سادگی امکان‌پذیر شود، در نتیجه این احتمال وجود دارد که محاکم قضایی با توجه به نبود راهکاری به‌منظور شناسایی یک محتوای واقعی رأی بر غیرمعتبر بودن این مدارک (متن، صدا و ویدئو) صادر کنند.. زیرا هیچ راهی وجود نخواهد داشت که نشان دهد این مدارک از طریق ابزارهای مبتنی‌بر هوش مصنوعی ساخته نشده‌اند.
2- سیاست
این احتمال وجود دارد که در دنیای سیاست شاهد عرضه فیلم‌های ویدئویی تکان‌‌دهنده‌ای باشیم که به‌منظور بی‌اعتبار کردن شخص یا گروهی ساخته شده‌اند. حتی اگر یک فیلم واقعی نیز انتشار پیدا کند، فردی که تصویرش درون یک فیلم نشان داده شده ممکن است این ادعا را مطرح کند که فیلم ساختگی بوده و با نرم‌افزارهایی شبیه به VoCo ساخته شده است. (فتوشاپ است!)

مطلب پیشنهادی

این هفت شغل فناوری اطلاعات آینده حرفه‌ای شما را تضمین می‌کند
ورود به جهان پس از حقیقت
در سال گذشته میلادی، آکسفورد در لغت‌نامه خود عبارتPost-truth (پس از حقیقت) را به‌عنوان واژه بین‌المللی سال انتخاب کرد. با توجه به اتفاقاتی که در سال گذشته میلادی رخ داد، انتخاب این واژه دور از انتظار نبود. درست است که فناوری زندگی ما را ساده‌تر از قبل کرده و کیفیت زندگی ما را بهبود بخشیده است، اما به همان نسبت مرز میان دروغ و حقیقت را بیش از پیش کمتر کرده است. امروزه ما در دنیایی زندگی می‌کنیم که فتوشاپ، CGI، برنامه‌های کاربردی مبتنی‌بر هوش مصنوعی و سلفی‌ها ما را احاطه کرده‌اند. اینترنت با هدف دسترسی آزاد و رایگان مردم به اطلاعات پا به عرصه ظهور نهاد. اما در عمل مردم با افزونگی اطلاعات روبه‌رو شدند. اطلاعاتی که در بعضی موارد به شایعه یا دروغ محض آلوده شده‌اند. رسانه‌های اجتماعی به ما وعده داده‌اند ما را به افرادی که در اقصا نقاط جهان زندگی می‌کنند متصل می‌کنند. اما در عمل مشاهده می‌کنیم که نه‌تنها این اتفاق رخ نداد، بلکه در عمل کاربران درون اتاق‌های کوچکی که در اصل بازتاب دیجیتالی هستند محصور گشته‌اند. دنیایی که در بعضی موارد با توهین، دروغ‌های تکان‌دهنده و کلمات تحقیرآمیزی که به‌شکل سیستماتیک کار کرده و تنها پول را به‌سمت دست‌اندرکارانشان سرازیر می‌کنند، آمیخته شده است.
 
رسانه‌های اجتماعی به ما وعده داده‌اند ما را به افرادی که در اقصا نقاط جهان زندگی می‌کنند متصل می‌کنند. اما در عمل مشاهده می‌کنیم که نه‌ تنها این اتفاق رخ نداد، بلکه در عمل کاربران درون اتاق‌های کوچکی که در اصل بازتاب دیجیتالی هستند محصور گشته‌اند.
 
در چنین دنیایی تحریف و جعل ساده‌تر از قبل رنگ واقعیت به خود می‌گیرند. اما به این نکته توجه داشته باشید که این حرف به‌معنای آن نیست که فناوری بد است. فناوری راهکاری است که به ما در حل مشکلات کمک می‌کند. حل مشکلات همواره مورد پسند آحاد مردم است. اما همانند هر ابداع و نوآوری ویژه‌ای، فناوری نیز همراه با عوارض جانبی ناخواسته در اختیار ما قرار گرفته است که البته در درازمدت محاسن آن از معایبش بیشتر است. فناوری به ما کمک کرده است تا سطح کیفی زندگی خود را در ارتباط با حوزه‌هایی همچون آموزش و بهداشت بهبود ببخشیم، امید به زندگی را افزایش دهیم و در مجموع در ارتباط با بسیاری از پارامترهای زندگی نقش سازنده بزرگی داشته است. به همین دلیل است که تعدادی از کارشناسان بر این باورند که برای تجاری‌سازی ابزارهایی همچون VoCo و Face2Face باید تلاش‌های بیشتری انجام شود. فناوری همچنان مسیر رو به رشد خود را ادامه خواهد داد و ما نمی‌توانیم مانع دستیابی افراد خرابکار به آن شویم. درست به همان شکلی که نرم‌افزارهایی همچون فتوشاپ یا دوربین‌های عکاسی دیجیتال به درون زندگی ما وارد شدند و ما خود را با پیامدهای خوب و بد آن‌ها وفق دادیم. در آینده نیز با محتواهای صوتی، تصویری و نوشتاری که از سوی هر فردی به‌راحتی دستکاری خواهند شد روبه‌رو خواهیم شد و خواسته یا ناخواسته خود را با این مدل محتوا نیز وفق خواهیم داد. حتی ممکن است به‌کارگیری ابزارهای مبتنی‌بر هوش مصنوعی که به‌منظور خلق چنین محتوایی مورد استفاده قرار می‌گیرند، در آینده جنبه سرگرمی خود را از دست بدهند.

برچسب: 

افزودن دیدگاه جدید