Icfj 的一个项目

以子之矛:帮助记者侦测及应对深伪内容的 AI 工具

Dec 4, 2024 发表在 对抗错误与失实信息
A tic-tac-toe board with human faces as digital blocks, symbolizing how AI works on pre-existing, biased online data for information processing and decision-making

社交媒体的个性化设定,间接扩大了错误信息的传播范围和力量。

这是由于 TikTok 以及其 “For You” 页面的使用激增而流行起来——这是一种按用户兴趣(从浏览历史记录、参与度和位置所採集的信息)而生成的内容流——Instagram、YouTube 和 X 等平台都採用了这种模式并创建了自己的版本。Instagram 于 2018 年开始在其动态更新页面上显示推荐帖子,并于 2020 年推出了 Reels,即类似 TikTok 的短影音功能;YouTube 同年推出了类似概念的 Shorts,X 在 2024 年初添加了自己的 “For You” 页面。

TrueMedia.org 产品经理 Sejin Paik 表示,这些发展改变了用户在社交媒体上消费内容的方式。“无论你关注谁也不重要,你照样会透过他们的系统所认为的能动性获得内容,” 她说。

在这个虚假信息与真实内容并存的数码世界中,深伪内容(人为操弄的超像真影像)更能鱼目混珠。在 2024 年美国大选前夕,假可乱真的演讲视频、特朗普在 7 月枪击后特勤局保镖微笑的照片,以及传播选举错误信息的新闻文章的萤幕截图与真实的新闻内容一起出现,令人们难以分辨事实真相。

随着生成式人工智能技术更易被广泛使用,衡量社交媒体帖文的真实性只会变得更加困难。TrueMedia 所创建的人工智能侦测工具,就透过识别社交媒体上发布的被操纵图像与影片的迹象来提供帮助。

深伪与虚假信息

出于对人工智能在选举年带来的影响的担忧,人工智能专家 Oren Etzioni 在 2024 年 1 月创立了 TrueMedia。 这是一个由研究人员、工程师和社会科学家组成的非营利组织,旨在创造解决社会问题的技术——Paik 称之为 “社会技术” 。

随着这些技术日益普遍,大量人工智能生成的内容已成为政治操弄的工具,令新闻界担忧这影响只会随着技术持续改进而扩大。

Paik 表示,“For You” 页面模型使这种更複杂的错误信息传播范围更广——帖文获关注是受惠于决定甚麽是流行内容的演算法而是发布的用户;用户在动态页面中看到的信息通常符合他们的兴趣和信仰,且这些内容(无论真实与否)都是个性化的,以吸引用户的点赞和转发,从而在他们接触的网络中扩大。

深伪在这种环境下格外有重大潜力:它可以描绘任何东西,从身穿名牌时装的教宗虚假的新闻广播节目,它们的使用呈指数级增长:单在 2023 年,就有超过 50 万则深伪内容获转发。而不管这类内容已有多普遍,新闻界相信这场人工智能革命才不过刚开始

侦测深伪内容

记者可以使用 TrueMedia 的旗舰深伪侦测器来识别影片或图像是否是由人工智能创建的。

这工具使用简单:用户向侦测器提交可疑的社交媒体连结,侦测器将透过合作伙伴技术公司创建的一系列人工智能侦测软体运行相关内容,以确定人工生成内容的可能性之百分比。

Paik 提醒,这工具无法侦测所有虚假内容,例如 “廉价伪造” ——即利用非人工智能编辑软体人手创建的误导性照片或影片。错误信息传播者也在开始学会规避这些侦测方法,例如在真实媒体上加入深伪内容。

然而,随着人工智能的力量不断增强,侦测它们的工具也会不断增强。Paik 说:“我们距离 100% 的命中率还很遥远,但这是接近这目标的非常聪明的方法之一。如果人们正在制作人工智能深伪内容,我们也将使用人工智能来对抗它。”

侦测与新闻须双管齐下

随着虚假内容将无可避免地在社交媒体上持续氾滥,Paik 强调记者不能仅依赖侦测来打击深伪,也须探索错误信息的来源、传播的理由和影响力。

例如,有关最近美国飓风的人工智能生成虚假帖文在用户的社交媒体动态页面上激增;这些帖文描述了被洪水淹没和摧毁的社区。儘管一些转发此类影像的人(包括政界人士)知道它们是假的,但这些内容引起了情绪反应,被用来散播有关政府应对灾难的不实说法。

Paik 表示,最重要的是,记者必须思考为什麽这些不实的帖文会流行,并努力应对这些叙述,而不仅仅是侦测影像的准确性。

“仅仅说 ‘哦,我们发现了一些东西!’ 是不够的,” 她说。“记者有权力知会和教育公众。我们需要这样做。”


图片来源:Amritha R Warrier & AI4Media / Better Images of AI / tic tac toe / Licenced by CC-BY 4.0.