人工智能(AI)既然是人类设计的,它反映人类的既有偏见就不足为奇了。
2020 年,微软解雇了数十名新闻编辑部员工,并以 AI 取而代之。不幸的是,他们当时没有考虑演算法中的偏见以及无法分辨有色人种的问题。在微软的机器人记者首次面世后不久,新闻浏览演算法向 MSN 发布了一篇关于 Little Mix 乐队成员 Jade Thirwell 的故事,以及她对种族主义的个人反思……辅以一张错误的人像照片。该演算法没有选配 Thirwell 的照片,而是她的乐队成员 Leigh-Ann Pinnock。
人工智能无法有效识别有色人种面孔是一个备受关注的话题:2021 年,麻省理工学院电脑科学家 Joy Buolamwini 拍摄了纪录片《编码偏见》(Coded Bias);她在发现 AI 人面识别软件无法准确检测深色皮肤的面孔或识别女性后加入了 MIT 的媒体实验室。
演算法如何巩固了种族主义成见?
数据新闻学教授 Meridith Broussard 在她的《Automated (Un)Intelligence》一书中解释,机器学习这个词本身有点误导。当电脑科学家说 AI 应用程序在 “学习”时,他们并不完全在指人类意义上的学习;AI 从训练数据中学习——那是教它各种世界统计模式的大型数据集。基本上,AI 学习如何更好更快地解决问题,因为它可以从它学习的数据中预测将会发生的结果。然而机器也因此错过了人类的智慧和人际交流的众多複杂细微之处——例如它可能无法检测到讽刺或修辞手法。
而且,AI 是由存在偏见的人类所创造的。因此,如果数据集本来就反映了人类的偏见,AI 就往往会产生有偏见的输出结果;比如当亚马逊用 AI 筛选求职履历和求职者时,人们很快就发现演算法在筛走女申请人的履历。
这是因为该演算法的训练是按成功员工的履历而进行的,而硅谷本就不以其性别平权多元而见称。因此,该应用程序开始排拒包含女性修辞的履历,如包含 “女性” 一词以及包含某些女子专上学院名称的履历。最后亚马逊不得不在该应用程式推出不久后就全面停用。儘管该工具已被编辑以加强中立性,但目前仍然没有方法验证它不会出现歧视成分——因此它仍没有被重新使用。
如何在考虑偏见的情况下使用人工智能?
虽然有必要考虑演算法内在偏见的缺陷,但这不意味我们要放弃使用所有人工智能技术。负责任地使用 AI 意味着承认人类为机器带来了偏见,且在许多情况下仍需要人为干预以纠正之。比如即使在 AI 编辑发布了错误的黑人女性照片的情况出现后,如有真人编辑简单地对内容进行事实核查,即可避免错误流出。
因此,新闻编辑室更好地了解演算法偏见,将有助他们能自行按新闻需要适切地活用机器学习应用程序。观望未来,AI 都不太可能可以取代真人记者,这跟美联社针对本地新闻编辑室使用 AI 的研究中收集到的本地新闻决策者的意见是一致的。
以下是新闻编辑室在使用 AI 时该如何考量演算法偏见的相关建议:
- 确认逐字稿中的姓名拼写方法;
- 编配真人的事实核查员处理相关工作;
- 在发布故事之前,确保照片属正确的人物;
- 定期审核 AI 应用程序,以筛查有没有潜在偏见。
人工智能作为助手,比未经检查的代理人更能发挥作用。儘管演算法在新闻编辑室的应用潜力仍是一个发展中的领域,但我们可以着手了解它们的工作原理,以及如何在技术支援下,展开更好的新闻工作。
图片来源:Resource Database™ on Unsplash.