ابزارهای هوش مصنوعی برای مقابله با جعل عمیق (دیپ فیک)

نوشته Salako Emmanuel
Sep 15, 2023 در مبارزه با شیوع اطلاعات غلط و جعلی
"AI' in blue and white letters all over a yellow background.

جعل عمیق که برگردان Deep fake «دیپ فیک» است، پدیده‌ای در حال افزایش است و به گسترش بیشتر اطلاعات نادرست و اطلاعات دروغ در شبکه‌های اجتماعی انجامیده است. چندرسانه‌ای های تولیدشده با هوش مصنوعی، تشخیص واقعیت را از دروغ به طور فزاینده‌ای دشوار می‌سازد. عاملان پشت پرده جعل عمیق به دنبال اثرگذاری منفی بر دانش عمومی در جریان انتخابات، گمراه ساختن مردم درباره بحران‌ها و مسائل دیگر هستند.

یک مثال آن، تصویرهای تولیدشده با هوش مصنوعی از انفجاری در پنتاگون (وزارت دفاع ایالات متحده آمریکا) است که در ماه مه در رسانه‌های اجتماعی به گستردگی پخش شد. قبل از آن و در ماه مارس، تصویرهای تولیدشده با هوش مصنوعی از دونالد ترامپ، رئیس‌جمهوری سابق ایالات متحده، در حال بازداشت شدن و تصویرهای پاپ فرانسیس، رهبر کاتولیک‌های جهان، در حالی که یک کاپشن پفی پوشیده بود در رسانه‌های اجتماعی دست به دست شدند. در جریان انتخابات ریاست‌جمهوری امسال در نیجریه، یک فایل صوتی دست‌کاری شده که در آن ادعا شده بود آتیکو ابوبکر (Atiku Abubakar)، نامزد انتخابات، معاونش دکتر ایفینی اوکووا (Dr. Ifeanyi Okowa) و امینو تمبووال (Aminu Tambuwal)، فرماندار ایالت سوکوتو (Sokoto) به دنبال تقلب در انتخابات هستند، در فضای مجازی انتشار یافت.

سایلس جاناتان (Silas Jonathan)، محقق طرح راستی‌آزمایی Dubawa و یکی از اعضای آکادمی آفریقا برای تحقیقات [با بهره از] منابع آزاد می‌گوید که جعل عمیق بدون شک سؤال‌ها و نگرانی‌های مهمی را برای رسانه‌ها به وجود آورده است.

جفری نیابور (Jeffrey Nyabor)، خبرنگار غنایی که با Dubawa Ghana در زمینه راستی‌آزمایی کار می‌کند، بر این باور است که هرچه عاملان انتشار اطلاعات نادرست در استفاده از جعل عمیق موفق‌تر شوند، به همان اندازه رسانه‌ها اعتبار بیشتری از دست می‌دهند، چون توان مخاطبان برای تشخیص واقعیت از غیر آن کمتر خواهد شد.

با این همه، هوش مصنوعی که خودش یک مشکل است، می‌تواند راه حل نیز باشد. در این مطلب چند ابزار را که خبرنگاران می‌توانند از آنها برای مقابله با جعل عمیق استفاده کنند، معرفی کرده‌ایم.

 

بیشتر بخوانید: ردیابی اطلاعات نادرست با ابزار هوش مصنوعی

شبکه‌های عصبی عمیق

دو نمونه از ابزارهای رایگانی که از شبکه‌های عمیق نورال (پایانه به پایانه) برای تشخیص جعل عمیق استفاده می‌کنند، TensorFlow و PyTorch هستند. از آنها می‌توان برای تجزیه و تحلیل تصویرها، ویدیوها و فایل‌های صوتی استفاده کرد تا نشانه‌های دست‌کاری در آنها تشخیص داده شود.

کاربران تنها با بارگذاری نمونه‌های اصلی و جعلی مواد رسانه‌ای (تصویر، ویدیو…) می‌توانند به مدل تشخیص‌دهنده یاد بدهند که آنها را از هم تفکیک کند. به گفته جاناتان «این شبکه‌ها می‌توانند از حجم وسیعی از اطلاعات آموزش بگیرند تا از هم گسیختگی‌ها در حالات چهره، حرکات و نمونه‌های کلامی را تشخیص دهند و در نتیجه به وجود جعل عمیق پی ببرند.»

وی می‌افزاید: «الگوریتم‌های آموزش ماشینی هم قابلیت آموزش تجزیه و تحلیل و تشخیص نمونه‌ها را در ویدیو و تصویر دارند تا تشخیص دهند که آیا این نمونه‌ها دست‌کاری شده و یا با فنون جعل عمیق تولید شده‌اند یا نه.»

Deepware

Deepware یک فن‌آوری منبع باز است که اساساً برای تشخیص ویدیوهای تولیدشده با هوش مصنوعی به کار می‌رود. این وب‌سایت یک اسکنر دارد که می‌توان ویدیوها را در آن آپلود یا بارگذاری کرد تا تشخیص دست‌کاری احتمالی میسر شود.

الگوهای این ابزار هم مانند ابزارهای دیگر تشخیص جعل عمیق، به دنبال نشانه‌های دست‌کاری در چهره انسان می‌گردند. محدودیت اصلی این ابزار، عدم توانایی آن برای تشخیص تکنیک‌های تغییر صداست که نسبت به تغییر چهره، خطر بزرگتری است.

مایووا تیجانی (Mayowa Tijani)، از سردبیران ارشد نشریه TheCable، می‌گوید: «نتیجه [کار با Deepware] همیشه درست نیست و گاهی هم نتیجه نادرستی به دست می‌آید. این به میزان خوب بودن جعل، زبان مورد استفاده در آن و چند عامل دیگر بستگی دارد.»

Sensity

Sensity، ابزاری تخصصی برای تشخیص جعل عمیق و شناختن تصویرهای تولیدشده با هوش مصنوعی است. مدل‌های یادگیری ماشینی آن می‌تواند برای تجزیه و تحلیل نشانه‌های بصری و متنی با هدف تشخیص تصویرهای تولیدشده با هوش مصنوعی استفاده شود.

اما این ابزار رایگان نیست. بهای آن بر اساس میزان استفاده ماهانه و علایق شخصی کاربران تعیین می‌شود.

 

بیشتر بخوانید: پیچیدگی مبارزه با اطلاعات نادرست در پی ایجاد تصاویر تولید شده با هوش مصنوعی

Hive

با این ابزار، راستی‌آزمایان مستقل و کاربران اینترنت می‌توانند با سرعت متن‌ها و تصویرهای دیجیتال را اِسکَن کنند تا اصالت آنها را دریابند. برای تشخیص دادن اصالت یک تصویر، کاربران می‌توانند فایل را در صفحه تشخیص محتوای تولیدشده با هوش مصنوعی این ابزار بارگذاری کنند تا با سرعت پردازش شود. Hive یک extension (اکستنشن یا افزونه) مختص گوگل کروم هم دارد که می‌توان آن را به کامپیوتر اضافه کرد.

Illuminarty

Illuminarty هم قابلیت تشخیص تصویر و متن تولیدشده با هوش مصنوعی را دارد. نسخه رایگان آن شامل خدمات ابتدایی است و نسخه غیررایگان آن قابلیت‌های بیشتری ارائه می‌دهد. کاربران می‌توانند با این ابزار، قسمت دست‌کاری شده در یک تصویر را،‌ و این را که آن قسمت با کدام مدل هوش مصنوعی تهیه شده است، دریابند. این ابزار همچنین می‌تواند بررسی کند که چه قدر امکان دارد یک تصویر با هوش مصنوعی ساخته شده باشد. تمام این ابزارها می‌توانند به کاربران کمک کنند تا جعل عمیق را تشخیص دهند و با آن مقابله کنند، اما حتی این همه، همیشه نتیجه درستی به دست نمی‌دهد. به گفته جاناتان، همیشه خطر نتیجه‌گیری‌های نادرستِ مثبت و یا منفی وجود دارد. یعنی ممکن است محتوای اصلی، به اشتباه به عنوان جعل عمیق شناخته شود، و برعکس.

خبرنگاران و راستی‌آزمایان مستقل همچنین می‌توانند با بررسی نقادانه محتوا، جعل عمیق را تشخیص دهند. تمام تصویرها و ویدیوهای تولیدشده با هوش مصنوعی عاری از عیب نیستند. با نگاه دقیق به بسیاری از آنها، می‌توان از ماهیتشان آگاه شد.

 

تصویر از آنسپلش، عکاس: Steve Johnson