О чем следует помнить журналистам, использующим ChatGPT для освещения тем изменения климата

Apr 13, 2023 в Борьба с миз- и дезинформацией
Chat GPT website in purple text on a computer screen

Освещающие темы изменения климата журналисты должны разбираться в научных фактах и концепциях и уметь ясно их изложить. Для облегчения этой работы они могут захотеть использовать инструменты искусственного интеллекта (ИИ), которые генерируют тексты на основе доступной в интернете информации, как это делает, например, популярный сегодня ChatGPT.

Однако проблема в том, что хотя ChatGPT и может быть полезен, он также может способствовать распространению дезинформации. Даже создавшая его компания Open-AI предупреждает: "ChatGPT иногда дает правдоподобно звучащие, но неправильные или бессмысленные ответы".

Если такая ложная информация имеет отношение к проблеме изменения климата, это может ослабить усилия по решению этой проблемы. 

Ниже мы рассказываем, о чем нужно помнить журналистам, чтобы предотвратить распространение ложной или вводящей в заблуждение информации, сгенерированной ИИ, по этой актуальной теме.

Не довольствуйтесь общими ответами

Хотя инструменты ИИ генерируют информацию, которая может ускорить работу журналистов в условиях жестких дедлайнов, такие инструменты часто упускают важные детали, способствующие более глубокому пониманию темы.

Джилл Хопке, профессор журналистики в университете Де Поля, исследующая, как медиа освещают темы климатических изменений, заметила это, когда задавала вопросы ChatGPT о способах решения проблем изменения климата. Бот предоставил расплывчатые ответы, перечисляя следующие действия: "сокращение выбросов парниковых газов", "содействие устойчивости" и "поддержка адаптации к изменению климата", которых, по мнению ученых-климатологов, недостаточно для решения проблем климатического кризиса.

"Как часто говорят ученые-климатологи и мои коллеги исследователи, индивидуальные действия, безусловно, важны, но это далеко не самое важное", — пояснила Хопке.

Кроме того, платформы для коллаборативной журналистики Covering Climate Now и Solutions Journalism Network подчеркивают, что эффективное освещение решений климатических проблем не сводится к "поддержке того или иного подхода": "Важно анализировать эти решения и информировать общественность и политиков о том, что работает, а что нет". Для выполнения этой задачи журналисты подходят идеально, но ChatGPT с ней не справляется.

Бот также плохо справляется с задачей, если нужно объяснить смысл и последствия применения глобальных концепций на местном уровне. Например, когда Натали Унтерстелл, президент Instituto Talanoa, бразильского аналитического центра, специализирующегося на климатической политике, спросила ChatGPT на португальском языке, что означает "уловка при подсчете объемов выбросов" (climate accounting trick), бот предложил общее определение и осудил эту практику, но не смог описать ее в контексте ситуации в Бразилии, что было бы полезно для более глубокого понимания проблемы.

Термином " уловка при подсчете объемов выбросов" обычно описывают практику, которую применяют правительства, чтобы создать впечатление, что они стремятся к сокращению выбросов. В частности, в Бразилии это понятие относится к изменениям, внесенным федеральным правительством в отчет за 2020 год о выполнении Парижского соглашения по климату: теоретически такие изменения могли бы позволить стране увеличить выбросы, а не сократить их. За прошедшее с тех пор время организации гражданского общества Бразилии подали в суд на власти с целью заставить правительство принять более амбициозные обязательства по сокращению объемов выбросов. Унтерстелл смогла подробно объяснить это, а ChatGPT не справился с этой задачей.

Остерегайтесь тонкой пропаганды и гринвошинга

Журналисты также должны отслеживать случаи тонкой пропаганды, связанной с использованием ископаемого топлива, и корпоративного гринвошинга, которые могут появиться в ответах ChatGPT. Например, собирая информацию по теме, я спросила бот: "Становятся ли богаче крупные игроки, ответственные за загрязнение окружающей среды?"

Информация в первом абзаце ответа ChatGPT была актуальной и точной: "Это зависит от конкретной отрасли и компании, но в целом некоторые крупные организации, ответственные за загрязнение, продолжают получать прибыль, несмотря на ущерб, который они наносят окружающей среде. Например, индустрия добычи ископаемого топлива давно ассоциируется с высокими прибылями, несмотря на то что сжигание ископаемого топлива вносит самый большой вклад в изменение климата".

Однако во втором абзаце появились явные признаки гринвошинга: "Однако важно отметить, что в этих отраслях также имеются компании, которые инвестируют в возобновляемые источники энергии и прикладывают силы к тому, чтобы сократить свой углеродный след". Хотя эту информацию нельзя назвать ложной, в ней замаскирован тот факт, что компании, работающие на ископаемом топливе, несут основную ответственность за изменение климата: на протяжении десятилетий они тратят миллиарды долларов, вводя общественность в заблуждение, чтобы защитить свои корпоративные интересы — это еще одна деталь, которую ChatGPT не упомянул в своем ответе.

Хопке отмечает, что большая честь миз- и дезинформации, которую сегодня продвигают в сети компании, связанные с ископаемым топливом, — на такой дезинформации, видимо, чат-бот и построил свои ответы — сделана "очень тонко": "Крупная нефтяная компания в социальных сетях может говорить, например, о сокращении выбросов категорий 1 и 2 как о способе достижения нулевого уровня выбросов при ежедневной переработке нефти. Это хорошо звучит до того момента, когда кто-то не вспомнит или не узнает, что такое выбросы категории 3".

Исследования демонстрируют, что выбросы категории 3 зачастую составляют более 70% углеродного следа компаний, и для их сокращения необходимо изменение практик во всей цепочке поставок. "Поэтому, когда внимание привлекают только к сокращению выбросов категорий 1 и 2, за кадром остаются действительно важные вещи", — пояснила Хопке.

Проверяйте факты и оставайтесь в своей работе человеком

Хотя ChatGPT сегодня один из самых передовых генеративных инструментов ИИ, неясно, насколько предоставляемая им информация точна и надежна, поэтому возникает необходимость проверять факты.

Например, Баварская телерадиокомпания и Научный медиацентр Германии протестировали чат-бот, сгенерировав с его помощью подборку научной информации об изменении климата, которую можно было бы использовать в новостных статьях. Однако собранная ботом информация содержала ошибки, включая "вымышленные цифры", "факты, неправильно связанные между собой" и "галлюцинации" или ложную информацию. В результате команде пришлось перепроверять каждое утверждение, что отняло больше времени, чем если бы журналисты просто сделали эту подборку вручную.

"ChatGPT может стать вспомогательным инструментом, но не заменить оригинальные журналистские материалы", — считает Хопке. По ее словам, даже если журналисты найдут новые идеи или ракурсы, им все равно придется проверять полученную информацию, как и во всех остальных случаях.

Мы находимся в ситуации чрезвычайного ухудшения климатической ситуации: то, как мы освещаем эту тему и что говорим об окружающей среде, важно для всего человечества.


Фото Jonathan Kemper с сайта Unsplash.