Icfj 的一个项目

八大解决方案,缓减 GenAI 辅助报道中的性别偏见

作者 Luba Kassova
Mar 18, 2024 发表在 多元与共融
Woman with data on face

本文是关于应对生成式人工智能的偏见的系列文章的下篇。请点按阅读上篇。


生成式人工智能(GenAI)中存在的偏见,能削弱、扭曲甚至消减某些代表性本已不足的社群之声音,包括女性及有色人种女性。因此,新闻编辑室应对 GenAI 存在的的性别和种族偏见的重要第一步,是去诊断偏见是什麽,以及它们对报道的影响有多深。

一般来说,GenAI 辅助的新闻业和新闻报道中缺少谁的观点?我们又如何能将这些观点纳入其中?

为了回答这些问题,我跟人工智能领域的专家展问了访谈,了解他们针对 GenAI 辅助新闻中的性别偏见所提出的解决方案。在领导层和新闻编辑室团队的多元化将有助思想多元化的前提下,其中一些解决方案是人类行为为中心的——亦即聚焦负责使用科技的记者们本身;而其他则针对人工智能技术本身的使用。

以下是他们的建议:

组织层面的解决方案

(1) 确保围绕 GenAI 的跨学科和多元化的团队和工作流程

英国广播公司(BBC)科技预测主管 Laura Ellis 在去年的一次採访中强调了在工作团队中实现多元化的必要性。“这是我们建立 GenAI 笃导小组时从一开始就考虑的事情,” 她分享道。“我们特别问自己:这是否够多元?我们有足够广泛的声音吗?”

同样,瑞典 IN/LAB 负责人 Agnes Stenbom 建议让不同社群的代表组成团队,讨论如何将人工智能融入新闻业。“不要让组织中现有的多元化措施的不足限制你採用人工智能的方式;发挥创意并探索新的跨学科团队设计,以实现人工智能的潜力,并管理其风险,” 她说。

(2) 提昇科技编辑和记者中女性(包括有色人种女性)的代表性

编辑的生活经验,以至他们针对寻求谁的观点和发表什麽内容等编採决定,也会影响他们如何定义故事框架。如果新闻业要扩大新闻视角并加深受众对 GenAI 辅助报道的信任,那麽增加女性在这类内容的编辑和报道岗位上的比例就是关键。

(3) 增加女性人工智专家在新闻中的发言权

温哥华西门菲沙大学的 Maite Taboada 教授提到她在新闻中所见的受访人工智能专家范围太窄,由此损害了公信力;她认为这些专家都有一定的政治议程。

“人工智能政治无疑佔据主导地位,甚至可能迫使我们看待人工智能的方式。它是否很神奇呢?是否危险?我们真的不知道。个人而言,我不能相信专家的言论,” 她说。报道技术不同面向和应用,需要更多的多元性。

在特定新闻专业内增加不同的消息来源多元性的一种经验证的方法,是採用 BBC 50:50 的简单但有效的系统来追踪消息来源的性别和其他身分特徵。透过统计 GenAI 相关报道中使用的消息来源,记者和编辑会意识到自己的偏见,这是改变的第一步。

產業層面的解決方案

(4) 创建人工智能产业女性专家资料库

在《卫报》关于人工智能产业缺乏女性领导者以及人工智能新闻报道中女性声音的文章发布后,读者和网红相继发布了帖文和文章,分享了可以接受新闻採访的女性人工智能专家名单。

创建一个可以在新闻行业内共享的女性 AI/GenAI 专家资料库,将能提高资源效率,并为增加人工智能相关新闻中不同专家声音的代表性提供真正的机会,从而扩大对各种 GenAI 挑战的分析视野。

(5) 强调需要在有关 GenAI 使用的编辑标准和守则中减少性别和种族偏见

在审视过各新闻机构或新闻机构制订的五项章程、标准和人工智能守则后,显而易见的是新闻机构在确定长远缓减演算法偏见的必要性方面并没有一致取态。有些文件有(例如,BBC 的机器学习引擎原则和美联社的人工智能指导术语),而有些文件则不然(如无国界记者组织的《人工智能和新闻巴黎宪章》以及美联社关于生成式人工智能的标准)。

其中,BBC 的机器学习引擎原则是最优秀的,它对偏见、公平和多样性提供了全面的参考资源。它也提出了特别重要的问题,包括:团队是否是跨学科的;资料来源、设计流程等是否追求思想的多元化;採取了哪些措施来确保相关社群的观点得到考虑;以及正在採取哪些措施来应对不公平资料偏见的消息来源。

(6) 促进新闻业全面协作,以理解和消弭偏见

BBC 代表 Ellis 广泛谈到新闻机构之间需要加强合作,才能成功解决演算法偏见。

“我们需要在监管方面分享和合作,彼此开放,因为我们有很多共同点,我们不应该试图在我们的小孤岛中做同样的事情,” 她说。

她去年创办的人工智能记者沙龙提供了一个对话的论坛,不同的机构可以在其中分享他们的挑战和潜在的解决方案。

以技术为中心的解决方案

(7) 使用人工智能来衡量女性在新闻中的发言权,最好是跨领域的

人工智能可以有效地揭示新闻报道中的性别差距。

当被问及支持新闻中性别平等进展的现有人工智能工具时,芝加哥西北大学传播学教授 Nicholas Diakopoulos 特别提到西门菲沙大学的性别差距追踪器:“这样的工具可以引起人们对这个问题的关注,并且在理想情况下,对媒体施加良性的压力,促使他们做得更好。”

该计划负责人 Taboada 指出,令人鼓舞的是,签约使用该工具的新闻机构有所增加。“过去一年左右出现了一个有趣的发展,现在每个人都想成为其中一员。我认为这种责任感对企业有利。” 她说。

在衡量女性在新闻中的发言权时,应尽可能使用可以将种族与性别叠加的人工智能系统。虽然其方法仍在改进,但这正是丹麦的 MediaCatch 为广播公司和新闻提供者所做的事情。

(8) 使用人工智能打击网暴,这是新闻报道和网络报道中性别平衡的重大障碍

网络上针对记者和消息来源的性别暴力是现有性别安全差距的一部分,它会削弱女性继续担任记者或在新闻中表达观点的意愿。

在最近一次有关人工智能在新闻编辑室中的潜在应用的採访中,肯尼亚国家媒体集团的社交、搜寻和分析编辑 Lynette Mukami 分享了女性(尤其是政客)在自己的社交媒体平台上受到的网暴远比男性多。“如果你能有一个工具可以过滤/删除厌女的内容,那将使我们的工作变得更加容易,” 她说。

Google Jigsaw、路透基金会的 TRFilterPerspective API 只是旨在帮助记者打击网暴的几个人工智能工具。

如果我们继续维护新闻报道观点的多元化,并利用人工智能来帮助我们诊断和纠正盲点,我们的新闻将引起更广泛的受众的共鸣。这不正是我们大家最终想要的目标吗?


图片来源:cottonbro studio on Pexels.