Число дипфейков в сети растет, а с ними растет и количество миз- и дезинформации в соцсетях. В случаях с созданным нейросетью мультимедийным контентом отличить факты от вымысла становится все сложнее.
Цель создателей дипфейков — наводнить информационное пространство фальшивками и повлиять на общественное мнение во время выборов, заставить людей верить ложной информации о кризисах и других темах.
К примеру, в мае широко распространились сгенерированные ИИ изображения взрыва в Пентагоне, США. Еще раньше, в марте этого года, в соцсетях циркулировали созданные нейросетью фейковые изображения ареста бывшего президента США Дональда Трампа и папы римского Франциска в пуховике. Во время прошедших в этом году в Нигерии всеобщих выборов в интернете распространилось поддельное аудио, в котором, как утверждалось, кандидат в президенты Атику Абубакар, его помощник Ифеани Окова и губернатор штата Сокото Амину Тамбувал планировали сфальсифицировать результаты голосования.
Сайлас Джонатан, расследователь верификационного проекта Dubawa и сотрудник Африканской академии расследований по открытым источникам, считает: невозможно отрицать, что распространение дипфейков вызывает опасения у СМИ и поднимает важные вопросы. Джеффри Ньябор, журналист из Ганы и специалист по проверке фактов проекта Dubawa Ghana, считает: чем более успешными оказываются действия распространителей дипфейков, тем больше медиа теряют доверие аудитории, потому что людям все труднее определить, что реально, а что нет.
Однако ИИ может быть как проблемой, так и решением.
Вот несколько инструментов, которые журналисты могут использовать для разоблачения дипфейков.
Глубокие нейронные сети
TensorFlow и PyTorch — два примера бесплатных инструментов, использующих глубокие нейронные сети для поиска дипфейков. С помощью этих инструментов можно анализировать фотографии, видео и аудио и выявлять признаки того, что контент был изменен. Пользователям нужно просто загрузить примеры реального и фейкового контента, чтобы научить модели отличать одно от другого.
"Эти сети могут обучаться на больших объемах данных и замечают непоследовательность в выражении лиц людей, в их движениях или речи, что может быть признаком того, что мы имеем дело с дипфейком, — сказал Джонатан. — Алгоритмы машинного обучения также можно натренировать на анализ и выявление элементов видео или фото. Такие элементы помогают определить, подвергался ли этот контент обработке и был ли он сгенерирован технологиями, создающими дипфейки".
Deepware
Deepware — технология на основе открытого исходного кода, основная задача которой — выявлять видео, созданные нейросетью. На веб-сайте есть сканер, в который можно загружать видео, чтобы понять, были ли они обработаны или сгенерированы ИИ.
Как и другие детекторы дипфейков, модели Deepware ищут признаки обработки в изображениях человеческих лиц. Главное ограничение этого инструмента — в его неспособности выявлять техники изменения голоса, а манипуляции с голосом представляют гораздо более серьезную угрозу, чем подмена лиц.
"Результаты не всегда стопроцентно точны. Иногда результат зависит от того, насколько хорошо сделан фейковый контент, на каком языке в нем говорят — и от нескольких других факторов", — говорит главный редактор TheCable Майова Тиджани.
Sensity
Специализация Sensity — выявление дипфейков и сгенерированного нейросетью контента. Усовершенствованные модели обучения этого инструмента анализируют визуальную и контекстуальную информацию для определения контента, созданного с помощью искусственного интеллекта.
Это платный инструмент, цена зависит от того, насколько часто его используют, и от области интереса.
Hive
Hive дает независимым фактчекерам и интернет-пользователям возможность быстро сканировать цифровые тексты и изображения и проверять, не были ли они изменены. Чтобы проверить изображение, нужно загрузить файл на страницу, выявляющую контент, созданный искусственным интеллектом, для быстрой проверки.
Существует также расширение этого инструмента для браузера Chrome, которое позволяет обнаружить сгенерированные тексты и изображения прямо в браузере.
Illuminarty
Illuminarty предлагает возможность обнаруживать сгенерированные изображения и текст. Бесплатная версия включает базовые возможности, а планы премиум предлагают больше функций.
Этот инструмент позволяет пользователям выявлять, какая именно часть изображения была изменена и какая модель ИИ для этого использовалась.
По словам Джонатана, все эти инструменты помогут пользователям выявлять и разоблачать дипфейки, но ни про один из них нельзя сказать, что он во всех случаях дает стопроцентную гарантию. Всегда остается риск ложных положительных и отрицательных ответов на вопрос, имеем ли мы дело со сгенерированным или измененным контентом. В таких случаях подлинный контент может быть объявлен дипфейком — и наоборот.
Журналисты и независимые фактчекеры также могут выявлять дипфейки, тщательно анализируя контент. Не все сгенерированные нейросетью изображения и видео сделаны идеально, многие из них можно выявить, тщательно их рассмотрев.
Фото Steve Johnson с сайта Unsplash.