Как выявлять дипфейки и противодействовать их распространению

Автор Мия Зепп
Mar 21, 2023 в Борьба с миз- и дезинформацией
Robot in front of a red background

Фильтры для изменения лица в Snapchat, видео с президентом Байденом, поющим песню Baby Shark, — различные виды обработанных медиа распространяются все шире. Дипфейки и другие формы синтетических видео, созданных с помощью ИИ, заполняют интернет, поэтому журналистам, задача которых — отделять факты от вымысла, приходится успевать следить за этим процессом. 

На недавно прошедшей сессии организованного ICFJ Глобального саммита по усилению правды выступила Ширин Анлен, медиатехнолог WITNESS. Некоммерческая организация WITNESS оказывает помощь в использовании видео и технологий в поддержку прав человека и реализует проект "Готовься, не паникуй", направленный, среди прочего, на противодействие злонамеренному использованию дипфейков и синтетических, обработанных медиа.

 

 

Анлен предлагает журналистам советы, которые помогут распознавать угрозы, исходящие от обработанных медиа, и объясняет, что можно предпринять, чтобы противодействовать этому явлению.

Вот основные выводы сессии.

Технологии и угрозы, которые они c собой несут

Быстро развивающиеся технологии дают пользователям возможность среди прочего редактировать изображения объектов и черты лица, создавать анимацию портретов, передавать движение и клонировать голоса. В этой экосистеме дипфейки — это тип аудиовизуальных манипуляций, позволяющий создавать реалистичные изображения лиц, имитировать голоса и движения.

Сегодня использование дипфейков вызывает тревогу. Например, они пропагандируют насилие по признаку пола, когда без согласия человека в сети размещаются обработанные фото и видео сексуального характера, которые выглядят так, будто на них изображен этот человек. Также распространяются сфальсифицированные видео выступлений публичных фигур и сфабрикованные аудиоролики. Создателям дипфейков выгодно их разоблачение: согласно концепции "дивиденд лжеца", на журналистов и фактчекеров возлагается дополнительное бремя, им приходится доказывать подлинности медиаконтента или наоборот — сообщать, что доказательства его подлинности отсутствуют. 

Анлен отмечает, что дипфейки — наиболее широко обсуждаемая форма измененного медиаконтента: "Сами дипфейки — часть более широкой картины происходящего, отражение которой мы все чаще видим в новостях".

Хотя дипфейки распространяются все более широко, они не так популярны, как можно подумать. Чтобы создать реалистичное изображение, нужно обладать многими навыками и знаниями, которых у обычного пользователя нет. Поэтому многие обработанные медиа не достигают уровня реалистично выглядящих дипфейков.

Например, контент, обработанный с помощью фильтров для изменения цвета волос, глаз или голоса относится к "поверхностными фальшивками", с ними люди могут сталкиваться ежедневно, особенно в социальных сетях. Созданные ИИ аудиоклипы с выдуманными цитатами общественных деятелей — еще один пример поверхностных фальшивок.

"На самом деле они не очень широко используются, — говорит Анлен о дипфейках. — Большая часть того, что мы до сих пор видим в области мизинформации и дезинформации — это поверхностные фальшивки, в основном связанные с контекстом новостей".

Как обнаружить измененный или синтезированный контент

У каждой новой технологии есть своя ахиллесова пята, и дипфейки не исключение. Например, пользователи могут замечать ошибки в синтезированных изображениях: статичный фон, неправильно выглядящие зубы или движение рта синтезированного ИИ изображения человека, которое не совпадает со звучащими словами.

Однако технологии быстро меняются. "Было опубликовано исследование, утверждающее, что "синтезированные изображения людей не мигают, поэтому их очень легко обнаружить", а через две недели такие изображения начали мигать", — говорит Анлен.

Теперь создавать обработанный медиаконтент гораздо проще, и фейки становятся гораздо более качественными, поэтому обнаружить их все труднее.

"У лиц на синтезированных фото и видео первого поколения глаза всегда были расположены ровно на линии переносицы — на воображаемой линии, разделяющей фото пополам — и по этому признаку можно было обнаружить фейки, — говорит Анлен. — Но теперь появилось так много вариаций синтезированных изображений людей, которые можно создавать с разным освещением и выражением лица — и глаза на синтезированных портретах больше не располагаются в центре".

По словам Анлен, также существуют проблемы с доступом к качественным инструментам обнаружения. Есть доступные всем вебсайты, но инструменты, которые они предлагают, как правило, менее эффективны. Очень немногие имеют доступ к точным инструментам обнаружения, которыми пользуются эксперты, специализирующиеся на разоблачении дипфейков.

Решения

Чтобы обнаружить дипфейки, журналисты, в частности, могут пересмотреть видео и проверить, есть ли в нем накладки и искажения, можно также применить существующие методы верификации и судебной экспертизы и методы, основанные на использовании ИИ.

Журналистам также пригодятся инструменты, используемые для обучения медиаграмотности. Нужно проводить больше тренингов для журналистов по темам, связанным с манипуляциями медиаконтентом.

"Нам необходимо подготовиться к этому и научиться видеть, что происходит в этой области, — говорит Анлен. — Это нужно, чтобы сформировать технологии, определить, как следует выстроить эту сферу, как она должна регулироваться, а затем стать ее частью, а не только стороной, на которую она влияет".

"Обезоруживание дезинформации" — программа ICFJ, финансируемая дочерней организацией Фонда Скриппса Ховарда, который поддерживает благотворительные усилия компании EW Scripps. Цель рассчитанного на три года проекта — помочь журналистам и студентам факультетов журналистики бороться с дезинформацией в новостных СМИ.


Фото rishi с сайта Unsplash.