Icfj 的一个项目

人工智能生成虚假信息隐忧,记者能如何应对?

Nov 8, 2023 发表在 对抗错误与失实信息
Futuristic sphere

人工智能(AI)生成的虚假信息日益令人担忧。记者和专家一再警告这些内容可能被用来欺瞒受众显着地操弄受众立场,并且煽动暴力

儘管这些担忧有被广泛表达,但我们对这类虚假信息的确切影响仍所知不多。但显而易见的是,我们可以预见这些虚假信息将会激增

人工智能虚假信息现况

语音複製软体、大型语言模型和文字转图像生成器等 AI 技术的兴起,令创建误导性内容变得更容易。尤其是在社交媒体上,AI 生成的虚假影片、相片和音频片段并不罕见。

在最近的一个例子中,有人利用美国总统拜登的片段剪辑,将之拼贴起来製作了一段讽刺视频,描绘了他生活中虚构的一天。儘管演讲内容是假的,但视频的画外音听起来很像拜登总统本人。此外,也有网路用户篡改前总统特朗普被捕的图片,并编辑了印度总理莫迪和意大利总理梅洛尼(Giorgia Meloni)结婚的照片。

儘管数量增加,哈佛大学甘迺迪学院本月发布的《错误信息评论》(Misinformation Review)上一篇经同行评审的论文认为,就虚假和误导性内容而言,“目前对生成式人工智能影响的担忧被夸大了。”

该论文认为,即使我们假设误导性的 AI 生成内容的数量会增加,它的 “运作空间也很小”。儘管大量错误信息在网路上传播,但只有一小部分(约 5%)美国和欧洲新闻消费者在消费这些信息。

英国事实查核组织 Full Fact 的产品主管 Andrew Dudfield 表示:“这是一种人们容易取信的东西,我们很容易便告诉自己这些自动生成的内容将成为一个问题。”

这些论点部分源于这样一个事实:现有的虚假信息传播模式在没有使用 AI 的情况下已经很有效。他们也强调,关于 AI 生成内容因其品质的提高将产生更严重的后果的预测,其实缺乏具体证据支持,目前仍然只属揣测。

美联社人工智能策略高级产品经理 Aimee Rinehart 表示:“我认为我们还未有去到这局面。照理说,我们会遇到一些问题,但我尚未知道互联网是否被有问题的信息驾驭。”

为什麽我们会被虚假信息所迷惑?

儘管媒体均担心 AI 生成的彷真内容,但 “人们往往只相信某位成员或政客的製图以及他们从未说过的虚假引述,” 总部位于西班牙的独立事实查核组织 Maldita.es 的技术总裁 David Fernández Sancho 表示。

可以说,虚假信息活动的效果并不取决于内容的质量,而是取决于人们对某些事情可能是真实的预设信念。

纽约大学研究人员撰写的一项研究试图了解党派之争如何影响错误信息的信念和传播,结果发现 “人们更愿意相信和分享跟其政治身份契合的新闻。” 另一篇题为《为什麽我们会爱上假新闻》(Why We Fall for Fake News)的论文发现,接受虚假信息是认知误差的结果,而不是纯粹源于盲目轻信。它补充,党派偏见或政治倾向会影响人们对新闻的看法或抗拒。

哥伦比亚大学应用数学和系统生物学副教授 Chris Wiggins 解释,人们造访信息平台原因繁多,其中一个重要的因素是人们希望重申他们既有的信念,并与信念相近的人建立联繫,找寻社交机会。

“[人们] 需要融入群体并能感受到与其他人有社交联繫,” 他说。“你看到你能认同的某人,是因为你曾读过他们发布的内容––这就真的像一种被包容的感觉,就像我是抱持这想法的人中的一员。”

以子之矛,攻子之盾:以 AI 打击虚假信息

同时,记者、学者和政策制订者同样可以活用 AI 来分析和帮助打击虚假信息攻势,无论这些信息是否由 AI 生成。

然而,Dudfield 警告,全自动的事实核查在现阶段并不可取,并指出人类思维更有能力于在线内容中找到“脉络、不常见之处和细微差别”。“人工智能非常擅长做其他事情,即为混乱带来秩序,” 他说。AI 擅长组织非结构化的信息、从中辨识模式并对相似信息进行分组,从而简化事实核查过程。透过建立更易于管理的内容列表,再由事实检查员进行真人核实,可以比以人手去监察节省大量时间。

例如,Full Fact 开发了一款名为 Full Fact AI 的软体,可协助事实查核人员识别可进行事实查核的内容(例如,与观点或假设相反的陈述),并确定是谁说的、在哪里说,以及内容的主题。这有助于将类似的陈述分组配对,令事实查核人员能更好地判断最需要核查的内容。

Maldita.es 使用 AI 来识别和分类不同新闻来源的常见叙述,更容易追踪误导性内容的来源。Fernandez 说:“例如,如果我们在短时间内看到大量内容都包含相近的叙述,那麽很可能它是有组织的,而不仅仅是人为创建的有机内容。” 他补充,这可以帮助识别经协调的虚假信息活动。

Maldita.es 也是欧盟 AI4TRUST 项目联盟的一员,该项目将开发一种 “机器与人类合作” 的混合系统,以容许即时监察社交媒体平台,以识别各种形式和语言的潜在误导性内容,以便专人审查。

开闢能力空间

现在预测 AI 对虚假信息生态系统的确切影响可能言之尚早。然而明显的是,AI 的作用虽然值得慎思,但它同样可以帮助记者和事实查核人员打击激增的虚假内容。

Kranzberg 的第一条技术定律是,“技术既不好,也不好;技术没有好坏之分。它也不是中立的。” 这话不无道理——正如 Wiggins 说,“每项技术都为人们开闢了能力空间;有些人会用它来争取权利、正义,而有些人会用它来压迫和伤害他人。”


图片来源:Michael Dziedzic on Unsplash.