از فیلترهای تغییر چهره در اپلیکیشن اسنپ چت گرفته تا ویدیوی جو بایدن، رئیسجمهور آمریکا در حال خواندن ترانه Baby Shark، عکسها و ویدیوهای دستکاری شده در سالهای اخیر بسیار گسترش یافتهاند. سرعت انتشار جعل عمیق و سایر انواع دستکاری ترکیبی و دستکاری با کمک هوش مصنوعی در محتوای رسانهای در حال افزایش است و خبرنگارانی که وظیفه دارند واقعیت را از دروغ جدا کنند، باید همگام با این سرعت کار کنند.
در یک جلسه اخیرِ نشست جهانی نیرومند ساختن واقعیت که از سوی مرکز بینالمللی خبرنگاران ICFJ برگزار شده بود، ICFJ با shirin anlen، یک متخصص فنآوری برای رسانهها در سازمان WITNESS گفتگو کرد. WITNESS که یک سازمان غیرانتفاعی است، به مردم کمک میکند که از ویدیو و فنآوری در حمایت از حقوق بشر استفاده کند. این سازمان طرحی به نام «تدارک ببینید، وحشت نکنید» (به انگلیسی: Prepare, Don’t Panic) دارد که بعلاوه ابتکارهای دیگر، بر مقابله با استفاده شرورانه از جعل عمیق و محتوای رسانهای جعلی تمرکز دارد.
در این گفتگو، anlen نکاتی را مطرح کرد تا خبرنگاران بتوانند تهدیدهای برخاسته از محتوای دستکاری شده و راههای مقابله با آن را بهتر درک کنند.
در ادامه، چند نکته کلیدی این جلسه را میخوانید.
فنآوریها و تهدیدهای آنها
فنآوریهایی که به سرعت در حال تکامل هستند به کاربران اجازه میدهند اشیاء و ویژگیهای صورت را ویرایش کنند، پرترهها را متحرک بسازند، حرکتها را تغییر دهند، صداها را شبیهسازی کنند و...
جعل عمیق یا deepfake به عنوان بخشی از این اکوسیستم، نوعی از دستکاری صدا و تصویر است که به کاربران اجازه میدهد صورت، صدا و حرکات انسانها را به طوری که واقعی به نظر برسند، شبیهسازی کنند. از محتوای ساخته شده با جعل عمیق، امروزه به اندازه نگرانکنندهای استفاده میشود. برای مثال از تصویرهای شبیهسازی شده یک فرد، برای فرستادن عکسها و ویدیوهای جنسی و ترویج خشونت جنسیتی استفاده شده است. همچنین ویدیوهای جعلی افراد مشهور و کلیپهای صوتی ساختگی، منتشر شدهاند.
محتوای تهیه شده با جعل عمیق از طرح «Liar’s Dividend» نیز سود میبرد که کار خبرنگاران و راستیآزمایان را در تأیید یا انکار اعتبار محتوای تصویری سختتر میسازد.
anlen میگوید که جعل عمیق، نوعی از محتوای رسانهای دستکاری شده است که از همه بیشتر در مورد آن صحبت میشود: «جعل عمیق خود بخشی از یک چشمانداز بزرگتر تولیدکننده است که ما هر روز آن را بیشتر و بیشتر در اخبار میبینیم.»
هرچند محتوای تولیدشده با جعل عمیق متداولتر میشود، به اندازهای که شاید تصور شود، رایج و عام نیست. زیرا تولید آن نیازمند مهارت و دانش بسیاری است تا به شکل درست ساخته شود، ساختن آن برای افراد معمولی دشوار است. به همین علت، بسیاری از آنچه به شیوه دستکاری شده تولید میشود، به اندازه آنچه با جعل عمیق ساخته میشود، مشهور نمیشود.
فیلترهایی که مو، رنگ چشم و صدای فرد را تغییر میدهند، دستکاریهای سطحیتری هستند که به نام «جعل کمعمق یا سطحی» شناخته میشوند و مردم شاید روزانه با آنها روبرو شوند، به خصوص در شبکههای اجتماعی. تهیه کلیپهای صوتیِ منتسب به افراد مشهور، نوع دیگری از جعل سطحی است.
anlen در مورد جعل عمیق میگوید که از آن «در سطح گستردهای استفاده نشده است. اغلب آنچه در چشمانداز رسانهای اطلاعات نادرست و دروغ میبینیم، محتوای تولید شده با جعل سطحی است که بیشتر، مواد بازیافتی زمینهای است.»
بیشتر بخوانید: راهکارهایی برای گزارشگری دیداری مبتنی بر مستندات و اخلاق حرفهای
تشخیص
هر فنآوری تازه یک پاشنه آشیل (نقطه ضعف یا آسیبپذیری) دارد و جعل عمیق هم از این قاعده مستثناء نیست. کاربران میتوانند اشتباهات را در ظاهر تشخیص دهند. برای مثال: تصویرهای تهیه شده با جعل عمیق شاید در پس زمینه، تصویر ثابت داشته باشند و یا در آنها دندانها نامنظم باشند. همچنین، ویدیوی شخصی که با هوشمصنوعی ساخته شده است شاید بدون مطابقت درست کلمات با حرکات لبها، ساخته شده باشد.
با این حال، این فنآوری به سرعت در حال تغییر است. anlen میگوید: «در یک تحقیق گفته شد که افراد در تصاویری که با استفاده از جعل عمیق ساخته میشوند، پلک نمیزنند، بنابراین تشخیص آنها ساده است. اما دو هفته بعد، افراد در ویدیوهای جعل عمیق شروع به پلک زدن کردند.»
تلاشها برای تشخیص محتوای دستکاری شده که امروزه دسترسی به آن آسانتر شده و کیفیت آنها افزایش یافته، مثل بازی موش و گربه است.
به گفته anlen: «نسل اول چهرههای جعلی، چشمهایشان در مرکز صورت بود. همیشه در مرکز بود، به همین خاطر برای تشخیص آن، به این موضوع توجه میشد. اما حالا، انواع مختلفی از تصاویر را داریم که با نورپردازی و حالتهای متفاوت ساخته میشوند و چشمهایشان دیگر در مرکز چهرهشان نیستند.»
anlen میافزاید که در دسترسی به ابزارهای با کیفیت تشخیص جعل عمیق هم کمبودهایی وجود دارد. وبسایتهایی وجود دارند که همه به آن دسترسی دارند، اما کارایی آنها کم است. تنها شمار اندکی از متخصصان جعل عمیق به ابزارهای تشخیص دقیق دسترسی دارند.
بیشتر بخوانید: مواجهه خبرنگاران زیست محیطی چین با تهدید و اطلاعات جعلی
راه حلها
در میان شیوههای تشخیص جعلهای عمیق، خبرنگاران میتوانند محتوای ویدیویی را بررسی کنند و ببینند که آیا اشکال یا کاستی در آن دیده میشود، تکنیکهای موجود برای تأیید را عملی کنند و در صورت امکان از رویکردهای مبتنی بر هوش مصنوعی استفاده کنند.
همچنین افزایش سواد ابزارهای رسانهای و آموزش بیشتر در مورد محتوای دستکاری شده برای خبرنگاران، بسیار مهم است.
anlen میگوید: «ما باید برای آماده باشیم و واقعیتها را ببینیم. باید چشمانداز شرایط موجود را درک کنیم تا فنآوری را شکل دهیم، چگونگی ساخت فنآوری و چگونگی تنظیم مقررات آن را شکل دهیم و خود، بخشی از آن باشیم، نه این که تنها از آن تأثیر بپذیریم.»
ویدیوی این نشست را اینجا میتوانید ببینید.
Disarming Disinformation از سوی مرکز بین المللی خبرنگاران با پشتیبانی مالی بنیاد Scripps Howard که یک سازمان وابسته به Scripps Howard Fund است و از فعالیتهای خیریه شرکت The E.W. Scripps حمایت میکند، اداره میشود. این طرح سه ساله، خبرنگاران و دانشجویان خبرنگاری را قادر خواهد ساخت که با اطلاعات نادرست در رسانههای خبری مقابله کنند.
تصویر از آنسپلش، عکاس: rishi