Переписывая правила: как искусственный интеллект меняет этику и практику СМИ

Jul 5, 2024 em Инновации в медиа
Зал конференции Tvapatum — "Искусство правил"

Дискуссии об использовании различных инструментов искусственного интеллекта (ИИ) в мире не утихают. Человечество продолжает активно обсуждать, насколько полезны эти инструменты и какие риски влечет за собой их использование. Тема особенно актуальна в сфере журналистики и СМИ, где такие инструменты широко используются и где с этим часто связаны различные опасения. Но факт проникновения ИИ в медиаиндустрию трудно оспаривать.

Недавно в Армении прошла 10-я конференция Tvapatum — "Искусство правил", в которой участвовали международные эксперты. В рамках конференции обсуждались стандарты и этика современной журналистики, влияние цифровых инструментов, особенно ИИ, на журналистику, связанная с этим политика редакций, концепции саморегулирования и преодоления кризисов.

В рамках конференции прошла отдельная дискуссия об использовании искусственного интеллекта, в которой участвовали генеральный секретарь Совета прессы Квебека Кэролайн Лошер, которая говорила об использовании ИИ и о том, как СМИ и медиакомпаниям согласовать этические нормы в условиях меняющейся реальности; старший советник по вопросам редакционной политики Би-би-си Мэттью Элтрингем, рассказавший, как его редакция использует ИИ в ежедневной работе, а также редактор NEWS.am Tech Сасун Хачатрян, который объяснил, как его команда использует инструменты ИИ на своем сайте.

Знаете ли вы, что очень скоро откроется целый ТВ-канал, где все будет создавать ИИ? Именно с этого вопроса начала свое выступление Кэролайн Лошер. 

 

Кэролайн Лошер
Кэролайн Лошер говорит о Channel 1 и показывает созданного ИИ ведущего.

Она призналась, что разделяет связанные с использованием ИИ тревоги и опасения: "Но это реальность, с которой мы сталкиваемся, и она не в далеком будущем, она фактически уже здесь. Oчень скоро общественность не сможет отличить, настоящие это люди или нет". 

Лошер и ее команда более года изучали различные варианты использования искусственного интеллекта в редакциях не только в Квебеке и Канаде в целом, но и по всему миру. Их волновал вопрос: как журналистам адаптироваться к новой реальности, которая развивается очень быстро? 

Лошер считает, что искусственный интеллект можно использовать, чтобы сделать работу журналистов более успешной, что эти технологии обогатят журналистику. По ее словам, инструменты ИИ уже около десяти лет используются в редакциях новостей. Например, в 2016 году издание The Washington Post стало одним из первых медиа, использовавшим ИИ для создания материала об Олимпийских играх в Рио-де-Жанейро․ 

В ноябре 2022 года появился и стал доступным для общественности ChatGPT. "Это был настоящий поворотный момент для информации и журналистики, потому что теперь с помощью генеративного ИИ можно создавать контент", — сказала она. 

Вот некоторые результаты исследования, проведенного Лошер и ее коллегами.  

Ничего без человеческого надзора. Исследование, проведенное Лошер и ее командой, показывает, что в основном все согласны: ИИ не может использоваться без человеческого надзора. Например, The Guardian утверждает: "Если мы хотим включить в журналистский материал контент, созданный с помощью ИИ, мы должны быть точно уверены, что это важно для публикации. При этом такой контент всегда проверяется людьми, а для его использования обязательно получить разрешение старшего редактора". Как рассказала Лошер, парижская Le Parisien и финское информационное агентство STT утверждают, что работа ИИ в их изданиях всегда контролируется человеком.

Важность прозрачности. По мнению Лошер, прозрачность — один из самых важных аспектов использования ИИ. Многие СМИ с ней в этом согласны. The Guardian обещает открыто сообщать аудитории о случаях использования генеративного ИИ.

Участники конференции пробуют гарнитуру виртуальной реальности.
Участники конференции пробуют гарнитуру виртуальной реальности.

Wired в США заявляет: "Мы не публикуем истории с текстом, сгенерированным искусственным интеллектом, за исключением случаев, когда смысл истории напрямую связан с тем фактом, что этот текст сгенерирован ИИ (в таких случаях мы будем информировать читателя о происхождении текста и отмечать все возможные ошибки)". 

Поговорим об ответственности. Популярный шведский сайт Aftonbladet заявляет, что редакция "несет ответственность за все, что публикуется на сайте, включая материалы, созданные с использованием искусственного интеллекта или других технологий". 

"По-моему, это самое важное заявление из всех, что вы услышите сегодня. Все очень просто: независимо от того, создан ли контент с помощью программы и был ли при его создании использован ИИ, в конце концов ответственность лежит на вас. Вы не можете сказать: ах, это сделал ИИ, мы тут ни при чем", — сказала Лօшер. 

Сасун Хачатрян поддержал эту мысль. "Ни при каких обстоятельствах нельзя поручать всю работу ИИ, она должна быть проверена, потому что всю ответственность за материал несем мы", — сказал он.

Следующее правило — нужно позаботиться о конфиденциальности. Лօшер сказала, что важно помнить: если журналист передает программе ИИ какую-то часть своего контента, этот контент не защищен, его может увидеть кто угодно, даже если это интервью с конфиденциальными источниками. ИИ также может распознавать голоса. Поэтому журналистам может казаться, что они защищают конфиденциальность источников, но технология ИИ теперь может расшифровать зашифрованную и восстановить первоначальную запись. 

Лօшер процитировала заявление канадского CBC: "Мы ни в коем случае не будем передавать конфиденциальный или неопубликованный контент инструментам генеративного искусственного интеллекта".

Поговорим о стратегии. Лошер говорит, что многие журналисты опасаются, что потеряют работу и их заменят роботы. Но ответы редакций звучат обнадеживающе.

The Guardian пишет: "Мы будем стремиться использовать генеративные инструменты ИИ в редакционных целях только там, где это способствует созданию и распространению оригинальной журналистики". 

Как сказано в публикации на сайте Nieman Lab, нидерландская газета De Volkskrant заявляет, что рассматривает ИИ как инструмент "и никогда — как систему, которая может заменить работу журналистов". 

"Использование искусственного интеллекта должно стать неотъемлемой частью подготовки журналистов, — говорит Лошер. — Нам нужно действовать, обучаться и экспериментировать очень быстро, у нас не так много времени".

Разумно и ответственно подходить к использованию ИИ

Элтрингем рассказал, что его издание не использует инструменты ИИ для создания контента: "У нас есть общая стратегическая миссия — мы хотим использовать ИИ разумно и ответственно. Мы не хотим предать доверие нашей аудитории". По его словам, редакция внимательно относится к вопросам информационной безопасности и юридическим вопросам, особенно потому, что у этого медиа есть раздел, занимающийся журналистскими расследованиями. Такие расследования касаются разных частей мира, включая Китай, Индию и Россию. Если контент такого расследования попадет, например, в онлайн-переводчик, может произойти утечка информации.

Мэттью Элтрингем, старший советник по редакционной политике Би-би-си, Великобритания.
Мэттью Элтрингем, старший советник по редакционной политике Би-би-си, Великобритания.

Конференция Tvapatum подчеркнула необходимость баланса между инновациями и этическими принципами в журналистике, а также важность адаптации к быстро меняющемуся цифровому ландшафту.

На данном этапе развития технологий искусственного интеллекта в журналистике еще не сформированы четкие правила и определения. Ситуация быстро меняется, и индустрия адаптируется к новым возможностям. В целях прозрачности считаем необходимым информировать наших читателей, что при подготовке данного материала были использованы некоторые инструменты ИИ.


Фотографии сделаны во время 10-й конференции Tvapatum — "Искусство правил" — и предоставлены Мариам Ташчян.


Leia mais artigos de