همکاری ماشین و انسان برای حذف ویدیوی کشتار نیوزلند
پخش زنده‌ای که دردسرساز شد
انتشار ویدیویی از تیراندازی و کشتار نیوزلند، به یک دردسر اساسی برای فیس‌بوک و یوتیوب تبدیل شده است. سرعت انتشار ویدیو به حدی زیاد بود که فیس‌بوک، یوتیوب و سایر پلتفرم‌ها برای حذف ویدیو و جلوگیری از انتشار آن با مشکل مواجه شدند. شاید این برای نخستین بار است که یک مهاجم از پخش زنده برای نمایش جنایت خود در این وسعت استفاده می‌کند و همین پخش زنده، سبب شده سامانه‌های هوشمند مدیریت محتوا، ساعات دشواری را سپری کنند. اگرچه پخش زنده ویدیو بر روی فیس‌بوک متوقف شد، اما مهاجم موفق شد حدود هفده دقیقه از عملیات خود را بطور زنده برای کاربران پخش کند. نسخه‌های مختلفی از ویدیو علاوه بر فیس‌بوک بر روی پلتفرم‌هایی نظیر یوتیوب، توییتر، اینستاگرام و ردیت منتشر و حتی در بخش‌های خبری هم پخش شدند.

شرکت‌هایی نظیر فیس‌بوک و گوگل، سعی می‌کنند با استفاده از یادگیری ماشین، از انتشار ویدیوهای خشونت‌بار بر روی پلتفرم‌های خود جلوگیری کنند. این کار ساده‌ای نیست به‌ویژه زمانیکه این ویدیوها برای نخستین‌بار بر روی شبکه‌های مجازی بارگذاری می‌شوند. در مورد ویدیوی تیراندازی مرگبار روز جمعه نیوزلند، هوش مصنوعی موفق به شناسایی این تصاویر بعنوان یک محتوای ممنوعه نشد زیرا بنا به اعلام فیس‌بوک، زمانی ویدیوی اصلی این رویداد از روی پلتفرم حذف شد که پلیس نیوزلند، فیس‌بوک را از وجود چنین ویدیویی مطلع کرد. به گفته سخنگوی فیس‌بوک: « این شرکت بی‌درنگ حساب‌های فیس‌بوک و اینستاگرام این مهاجم و همینطور ویدیوی مربوطه را حذف کرده است .» به گفته کارشناسان، انتشار ویدیوی کشتار کرایست‌چرچ به خوبی ناکارآمدی روش مدیریت محتوایی که توسط این شرکت‌‌ها دنبال می‌شود را عیان کرده است.

مهاجم از دید اول شخص، صحنه‌های جنایت خود را بطور زنده بر روی فیس‌بوک منتشر کرد.( منبع: رویترز)

آنچه این ویدیوی خاص را متمایز می‌کند این است که بطور زنده پخش شده و برای سامانه‌های هوش مصنوعی فعلی، شناسایی و متوقف کردن انتشار یک صحنه خشونت‌بار که بطور زنده پخش می‌شود  تقریباً غیرممکن است. زیرا در روش‌های معمول شناسایی محتوا، باید نمونه‌ای از آن محتوا در اختیار سامانه قرار بگیرد و سامانه با مقایسه محتواهای جدید با آن نمونه مرجع، تصمیم بگیرد که آیا انتشار آن محتوای جدید مجاز است یا باید از انتشار آن جلوگیری شود. حال آنکه در مورد ویدیوهای زنده، بکارگیری چنین شیوه‌ای عملی نیست. در نتیجه به ویژه در چنین مواردی، معمولاً در کنار سامانه‌های هوشمند از ناظران انسانی نیز کمک گرفته می‌شود؛ هرچند باز هم امکان خطا وجود دارد.

بر اساس این آمار، سامانه هوشمند گوگل، ۷۳ درصد از ویدیوها را  پیش از اینکه کاربران ببینند حذف می‌کند. منبع: گوگل

پلیس نیوزلند با توجه به سرعت انتشار این ویدیو از مردم درخواست کرد که این ویدیو را به اشتراک نگذارند. فیس‌بوک نیز از کاربران خود خواست در صورتی که با چنین محتوایی مواجه شدند آنرا گزارش دهند تا سامانه از انتشار مجدد آن جلوگیری کند. تیم‌هایی در شرکت فیس‌بوک بطور لحظه به لحظه با رصد گزارش‌های دریافتی در مورد محتوای به اشتراک گذاشته شده از این کشتار، آن‌ها را از روی این پلتفرم حذف می‌کردند. ویدیوهای یافته شده به یک پایگاه داده افزوده می‌شدند و از این طریق، امکان شناسایی و حذف خودکار نسخه‌های جدید بارگذاری شده روی فیس‌بوک فراهم می‌شد. به بیان دیگر ویدیوی اصلی و نسخه‌های تغییریافته احتمالی از آن در اختیار سامانه هوشمند قرار می‌گرفت تا امکان بارگذاری مجدد محتوای مشابه بر روی فیس‌بوک وجود نداشته باشد. اگرچه می‌توان با این روش بخش زیادی از ویدیوها را حذف کرد اما اگر ویدیوها از سوی یک خبرگزاری منتشر شده باشد، فیس‌بوک و یوتیوب حق حذف چنین محتوایی را ندارند. برای تمایز این دو، باید از انسان در کنار ماشین استفاده کرد.

منبع عکس نخست: رویترز

برچسب: