Как использовать ИИ для введения позитивных изменений в редакции

Jan 12, 2024 в Инновации в медиа
Futuristic image

Искусственный интеллект (ИИ) обещает очень сильно изменить журналистику в ближайшем будущем. Новые технологии могут привести к серьезным переменам в медиаландшафте, но они также позволят вводить инновации в редакциях.

Очень важно, чтобы журналисты активно занимались вопросом использования этих технологий для улучшения своей работы и медиаиндустрии в целом.

"За последние 25 лет в журналистике появилось много технологических инноваций, и мы упустили шанс их использовать и получить дополнительные доходы для наших редакций, — сказал один из основателей NewsWyze Али Техрани во время вебинара, прошедшего в рамках программы ICFJ Форум по освещению глобального кризиса. — Но для создания качественной журналистики не получится использовать уже готовые инструменты. Нужно проанализировать свои потребности и возможности и создать собственную модель, которая будет соответствовать тому, что вам нужно".

 

Этот вебинар Техрани вел вместе с Патриком Болером, главой отдела инноваций и привлечения аудитории Радио Свободная Европа/Радио Свобода (RFE/RL), спонсируемого США медиа, которое предоставляет на 27 языках новости аудитории в 23 странах Европы и Азии. "Существует огромная потребность в информации, поскольку свободная пресса все больше подвергается давлению во многих странах, где мы работаем, и ИИ помогает нам решить эту задачу", — добавил Болер.

Вот что Техрани и Болер сказали о возможностях и рисках, связанных с применением ИИ.

Возможности

В 2018-м NewsWyze и RFE/RL организовали совместный расследовательский проект, в котором использовались миллионы страниц документов на разных языках, кроме английского, которые было сложно анализировать. Чтобы помочь расследованию, эти две организации разработали на основе ИИ инструмент GIST, который может генерировать удобные для чтения сводки информации, полученной из статей и аудио.

GIST был создан в ту пору, когда ChatGPT еще не существовал и ИИ еще не стал такой часто обсуждаемой темой, как сегодня. "В те времена было непросто заставить журналистов думать об использовании искусственного интеллекта", — вспомнил Техрани.

Такие инструменты для обработки естественного языка, как GIST, относятся к области искусственного интеллекта, их задача — дать компьютеру возможность обрабатывать и воспроизводить человеческий язык. Техрани подчеркнул, что такие технологии нельзя рассматривать как замену людям-журналистам. "Хотя использовать ИИ для помощи в журналистской работе можно, заменять журналистов искусственным интеллектом нельзя, — сказал он. — Нельзя исключать человеческий контроль из журналистского процесса".

Техрани подчеркнул, что модели ИИ хороши лишь настолько, насколько хорошо они обучены. Инструменты становятся более эффективными благодаря тому, что люди-журналисты используют качественные примеры для их обучения.

"Важно спрашивать, как создаются такие модели ИИ, какие данные для этого используются и чего вы от них хотите. Какие бы инструменты вы ни создавали, решения будут принимать дизайнеры, технические специалисты и, конечно, журналисты", — сказал Техрани.

На разработку инструмента на основе ИИ требуется время. В случае с GIST пришлось создать 13 версий, а для обучения этого инструмента использовали около 400 статей на английском языке. Русскоязычная и испаноязычная версии инструмента до сих пор находятся в процессе разработки, для их обучения используется еще больше статей. Команда GIST также разрабатывает функцию, которая позволяет составлять краткий текстовый пересказ статьи на основе ее полной аудиоверсии (английский и персидский языки).

Риски

Болер предостерег, что использование ИИ, кроме позитивного инновационного потенциала, несет также и риски. Больше всего опасений связано с неправильным использованием ИИ, особенно если речь идет о применении этих технологий в редакциях.

"Самый важный вопрос, который мы себе задаем: этот инструмент — проводник ИИ или сервис, использующий ИИ? И может ли быть, что из-за него мы рискуем доверием аудитории?" — сказал Болер.

RFE/RL разработало политику, направленную на решение этих проблем. Например, редакция запрещает использовать созданные ИИ изображения в журналистских материалах. Команда также разработала инструменты, которые помогают с большой точностью определять подлинность видеоконтента.

"Процветает очень изощренно и точно сделанный дезинформационный контент, а стоимость его создания значительно снизилась, — сказал Болер. — Поэтому, особенно если вы работаете в очень загрязненной экосистеме медиа, вам нужно приложить все силы, чтобы оставаться источником заслуживающей доверия информации".

Использование возможностей

Болер считает, что журналистам нужно уже сейчас думать о том, как применить технологии ИИ в своих редакциях. При этом необходимо учитывать этические аспекты использования этих технологий. "Очень важно помнить, что эти технологии изменят то, как работают в редакциях журналисты, а также то, как аудитория потребляет контент, — сказал он. — Важно говорить об этом — и в том числе обсуждать этические проблемы".

Техрани напоминает, что журналистам нужно найти возможность использовать ИИ для перемен к лучшему. "Журналисты должны индивидуально и коллективно участвовать в создании инструментов на основе ИИ. Если мы будем игнорировать изменения в технологиях, это сделают другие. Редакции должны обучать модели на собственных материалах и выигрывать от этого".


Фото Steve Johnson с сайта Unsplash.