Что журналистам нужно знать о сгенерированной ИИ дезинформации

Nov 19, 2023 в Борьба с миз- и дезинформацией
Futuristic sphere

Люди все больше опасаются дезинформации, созданной искусственным интеллектом. Журналисты и эксперты предупреждают, что созданный ИИ дезинформационный контент может использоваться, чтобы вводить в заблуждение и влиять на аудиторию, а также для подстрекательства к насилию.

Хотя такие опасения звучат повсеместно, до сих пор точно не известно, какое воздействие оказывает созданная ИИ дезинформация. Однако очевидно, что из-за развития технологий ИИ можно ожидать всплеска дезинформации.

ИИ и дезинформация в сегодняшнем мире

Такие использующие ИИ технологии, как программы для клонирования голоса, большие языковые модели и генераторы изображений на основе текста, упрощают создание дезинформационного контента. К примеру, в социальных медиа нередко можно встретить фейковые видео, изображения и аудио, созданные нейросетью.

Один из последних примеров такого контента — созданное на основе нескольких роликов насмешливое фейковое видео об одном дне президента США Джо Байдена. Закадровый голос звучит очень похоже на голос самого Байдена, хотя содержание речи не имеет ничего общего с его настоящими высказываниями. Пользователи также распространяли фейковые фото ареста Трампа и отредактированные фото, на которых изображены якобы вступающие в брак премьер-министр Индии Нарендра Моди и премьер-министр Италии Джорджия Мелони.

Но исследование, опубликованное в этом месяце в журнале Гарвардской школы Кеннеди Misinformation Review, допускает, что "нынешние опасения в отношении созданного нейросетью дезинформационного контента чрезмерно преувеличены".

В исследовании утверждается, что, даже если мы предположим, что качество дезинформационного контента, созданного ИИ, продолжит улучшаться, у него будет "очень мало возможностей для воздействия". Хотя в сети циркулирует большой объем мизинформации, потребляет такой контент небольшой процент пользователей:  в Европе и США это примерно 5% всех потребителей новостей.

"В то, что сгенерированный ИИ контент будет представлять проблему, легко поверить", — сказал Эндрю Дадфилд из базирующейся в Великобритании фактчекинговой организации Full Fact.

Одна из причин таких опасений в том, что существующие модели распространения дезинформации уже довольно эффективны — даже без использования контента, сгенерированного ИИ. Исследование подчеркивает: прогнозы о том, что созданный нейросетью контент, качество которого будет значительно выше обычных фальшивок, будет оказывать более серьезное влияние на мир, пока не опираются на доказательства и остаются умозрительным заключением.

"Я не думаю, что мы до этого уже дошли, — сказала старший менеджер Associated Press Эйми Райнхарт. — Логично предположить, что у нас возникнут некоторые проблемы. Но я пока не знаю, будут ли они серьезными".

Почему мы вообще верим дезинформации?

Давид Фернандес Санчо, технический директор базирующейся в Испании независимой фактчекинговой организации Maldita.es, считает, что, хотя у медиаорганизаций вызывает беспокойство реалистично выглядящий контент, созданный нейросетью, "люди склонны верить и просто отфотошопленным фотографиям депутатов или политиков, якобы произносящих вещи, которые те никогда не говорили".

Можно предположить, что эффективность кампаний по распространению дезинформации зависит скорее не от качества контента, а от того, во что люди уже верят.

Проведенное в Нью-Йоркском университете исследование, посвященное тому, как политические симпатии влияют на доверие к информации и распространение дезинформации, обнаружило, что "люди больше доверяли новостям, соответствовавшим их политическим взглядам, и были скорее готовы делиться такими новостями".  Другое исследование, "Почему мы верим фейковым новостям", обнаружило, что готовность принять ложную информацию за правду можно скорее считать результатом когнитивных предубеждений, чем следствием доверчивости. Исследователи также утверждают, что принадлежность к определенной партии или политическая ориентация влияют на то, чему люди верят или чему категорически не верят в новостях.

Профессор отделения прикладной математики и системной биологии Колумбийского университета Крис Виггинс объясняет, что люди заходят на информационные платформы по разным причинам. В частности, они хотят найти подтверждения тому, во что уже верят, и встретить единомышленников.

"Существует потребность чувствовать себя частью социальной группы и выстраивать связь с другими людьми, — сказал он. — Вы видите кого-то, с кем вам легко себя идентифицировать, потому что вы уже читали контент, который публикуют эти люди. Это дает чувство включенности, чувство, что вы принадлежите к группе людей, которые верят в то же, во что верите вы".

Использование ИИ для борьбы с дезинформацией

Журналисты, ученые и политики могут также использовать ИИ для анализа и борьбы с огромными объемами дезинформации, с которой им приходится иметь дело, — неважно, создан этот дезинформационный контент с использованием ИИ или нет.

Однако Дадфилд не советует пока использовать для фактчекинга автоматические программы: ничто не справляется с поиском "контекста, оговорок и нюансов" в онлайн-контенте лучше, чем человеческий мозг. "ИИ хорош в другом:  он помогает наводить порядок в хаосе", — сказал он. Искусственный интеллект прекрасно справляется с организацией неструктурированной информации, нахождением закономерностей и группировкой сходных данных — и это упрощает фактчекинг. Создавая список контента, с которым проще и удобнее работать и который могут проверить люди-фактчекеры, ИИ помогает сберечь значительное время по сравнению с тем, сколько его ушло бы, если бы мы занимались организацией этих данных вручную.

Проект Full Fact разработал программу Full Fact AI, которая помогает фактчекерам искать контент, нуждающийся в проверке — например, утверждения, а не мнения и предположения, — и определять, чьи это слова, где они были сказаны и в утверждении на какую тему они прозвучали. Это помогает сгруппировать похожие утверждения, что позволяет фактчекерам определить, какую именно часть информации важнее всего проверить.

Испанский проект Maldita.es использует ИИ для выявления и категоризации нарративов в различных новостных источниках, что помогает отследить источники недостоверного контента. "Если мы, например, видим, что за короткий промежуток времени распространилось много контента с близким содержанием, велики шансы того, что это организованная кампания", — сказал Фернандес.

Maldita.es также в рамках курируемого ЕС проекта AI4TRUST входит в консорциум, занимающийся разработкой гибридной системы, "которая позволит машинам сотрудничать с людьми" и сделает возможным мониторинг социальных платформ в реальном времени для выявления потенциально недостоверного контента в различных форматах и на разных языках, который потом будет проверяться экспертами.

Новые возможности

Возможно, пока еще слишком рано предсказывать, какое влияние окажет ИИ на распространение дезинформации. Однако очевидно, что ИИ может также быть полезен для журналистов и фактчекеров, борющихся со все более интенсивным распространением дезинформации.

Первый закон Кранцберга не зря гласит, что "технология ни хороша, ни плоха. Но при этом и не нейтральна". "Каждая технология открывает для людей окно возможностей, — говорит Виггинс. — Одни будут использовать ее для продвижения прав и справедливости, другие — для подавления и причинения вреда".


Фото Michael Dziedzic с сайта Unsplash.