Технология искусственного интеллекта (ИИ) в последние годы стала все больше использоваться в журналистике — начиная с автоматизации производства контента до помощи в проверке фактов. Со временем стало понятнее, какие возможности алгоритмы предлагают медиаорганизациям.
Среди прочего технологии ИИ могут использоваться для улучшения представленности женщин в новостях. Один из первых примеров этого — бот газеты The Financial Times "Она сказала, он сказал". Запущенный в 2018 году бот помог лондонскому отделу новостей этой газеты определить, насколько разнообразными источниками они пользуются.
Информационные агентства по всему миру используют технологии ИИ, чтобы анализировать и выявлять предвзятость в сообщениях, определять женоненавистнические высказывания — и многое другое.
Вот несколько примеров.
Анализ предвзятости в материалах СМИ
Инженер Саити Сарва, использующая анализ данных для лучшего понимания политики, в 2021 году подготовила в соавторстве с Леонардо Николетти использующее визуализацию эссе “Когда женщины становятся героями”, посвященное тому, как женщины представлены в новостях. Команда Сарвы и Николетти проанализировала заголовки за более чем 10 лет, взятые из 50 наиболее популярных СМИ Индии, США, Великобритании и Южной Африки.
В начале этого года Сарва рассказала о своем подходе на виртуальном семинаре, организованном инициативой JournalismAI Лондонской школы экономики: "Мы извлекли все заголовки, содержащие 20 ключевых слов-синонимов словам женщина, девушка, женский род и т. д. и насчитали 382 139 заголовков новостей на английском языке".
Это, конечно, огромное количество данных. "Вы думаете, что искусственный интеллект упростит задачу", — сказала Сарва в интервью автору статьи. Но, прежде чем начать применять какой-либо алгоритм, нужно проделать большую работу: очистить данные, удаляя бесполезные слова, и найти правильный код, который вы сможете использовать". По словам Сарвы, зачастую "нужно подходить творчески к тому, какие данные вы собираетесь использовать".
"Мы пошли дальше и создали собственные словари, которые помогают находить в заголовках то, что называется гендерной предвзятостью, — объяснила Сарва на семинаре JournalismAI. — [Это включает] сочетание таких гендерных слов, как актриса, дочь, жена, с поведенческими и социальными стереотипами в отношении пола, такими как эмоциональная поддержка и забота".
Когда у членов команды появились эти словари, они использовали метод машинного обучения, который называется "анализ настроений", чтобы понять, как выглядят женские темы, попадающие в заголовки. "Мы обнаружили, что истории о женщинах, попадающие на первые полосы газет, часто имеют очень сенсационный характер. Гораздо более сенсационный, чем обычные заголовки, и со временем число таких историй о женщинах только растет. Это может быть связано с тем, что, когда женские истории попадают в заголовки, вероятность того, что история будет скорее жестокой, чем вдохновляющей, в два раза выше", — говорит Сарва.
Мониторинг женоненавистнических высказываний
Женщины – общественные деятели часто становятся объектом нападок в социальных сетях. Кто же на них нападает? Журналисты из бразильского издания AzMina, аргентинской La Nación, изданий CLIP и DataCrítica из стран Латинской Америки решили использовать ИИ, чтобы выяснить это.
Вместе они разработали приложение для выявления случаев разжигания ненависти к женщинам в твиттере. "Мы наблюдаем эскалацию разжигания ненависти, поэтому наш проект стремится быстро и четко отслеживать случаи, когда такие женоненавистнические нападения инициируется политиками", — сказала Барбара Либорио из AzMina на том же семинаре JournalismAI.
Приложение обнаружило, что среди других общественных деятелей атаки часто исходили от политиков. "Это вызвало настоящую волну разжигания ненависти, — объяснила Либорио, — потому что сторонники таких политиков еще более активно атаковали этих женщин".
Если мы хотим, чтобы приложение обнаруживало женоненавистнические сообщения, продолжает Либорио, технологии ИИ должны понять, что такое разжигание ненависти в отношении женщин. Для этого команда Либорио создала базу данных примеров, помечая те твиты, которые содержали женоненавистнические высказывания.
Когда ИИ усвоил эту информацию, команда оценила, насколько алгоритм эффективен для выявления примеров разжигания ненависти в отношении женщин. Команда создала систему с подсчетом очков, протестировав ее на португальском и испанском языках.
На базе готовой модели было создано приложение, помогающее пользователям анализировать текст. Либорио надеется, что их проект сможет поделиться прототипом приложения с теми, кто выступил с другими инициативами, нацеленными на отслеживание гендерного насилия в социальных сетях.
Отправная точка
"Технологии искусственного интеллекта могут очень помочь журналистам в работе", — говорит Сабрина Аргуб, руководитель программы JournalismAI. По ее словам, в случае отслеживания того, насколько женщины представлены в новостях, ИИ можно использовать для улучшения прозрачности и подотчетности, и одновременно для повышения осведомленности. Один из примеров этого — проект AIJO, сравнивающий, насколько часто слова мужчин и женщин цитируются в статьях или как часто их показывают в теленовостях.
Однако Аргуб отмечает, что ИИ не панацея в этом вопросе. Для достижения реального прогресса необходимо вовлекать в процесс редакции и отдельных журналистов.
"Не стоит забывать, что технологии могут предоставить данные и помочь оценить, насколько хорошо мы справляемся, — сказала она. — Однако, чтобы принять меры, отделы новостей и сами журналисты должны найти какую-то отправную точку и стремиться решить проблему недостаточной представленности женщин в новостях".
Фото: Alexis Brown с сайта Unsplash.