Icfj 的一个项目

了解并学会识别深伪影音内容

作者 Mya Zepp
Mar 31, 2023 发表在 对抗错误与失实信息
Robot in front of a red background

从 Snapchat 换脸滤镜到美国总统拜登 (Joe Biden) 唱儿歌 “小鲨鱼”,近年来流传网络的伪造媒体层出不穷。深伪技术(Deepfakes)和其他形式的合成和 AI 辅助的媒体伪造正在激增,负责辨识真伪的记者也不得不追上步伐。

在最近的 ICFJ Empowering the Truth 全球峰会环节上,ICFJ 跟 WITNESS 的媒体技术专家 shirin anlen 展开了讨论。WITNESS 是一家帮助人们使用视频和技术支持人权的非营利组织,它开展了一个名为 “Prepare, Don’t Panic”(“准备,不要恐慌”)的项目,重点是打击恶意使用深伪技术和合成媒体等倡议计划。

 

 

anlen 针对记者如何能更好地理解伪造媒体带来的威胁,以及相应的应对行动提供了一些建议。 以下是该环节的一些重点:

深伪技术及其威胁

目前,急速发展的技术允许用户轻易编辑物件与人脸特徵、动画肖像、转移动作、複製声音等等。作为这个生态系统的一部分,深伪特别指一种影音伪造的技术,允许用户创建人脸、声音和动作的逼真模拟效果。

今天,深伪媒体正以一种令人担忧的方式被使用。例如它们在未经同意的情况下利用个别人士的外貌特徵伪造并发布色情图片和视频,助长了针对性别的暴力。伪造的公众人物视频和音频片段也被传播。深伪技术还受益于 “说谎者的红利” 现象,这为记者和事实核查人员带来了额外的负担,他们需多作一步去证明媒体的真实性或虚假本质。

anlen 指出这些技术是目前最受广泛讨论的伪造媒体形式:“深伪本身就是我们在新闻中不断看到的更宏观的生成现象的一部分。”

儘管深伪正变得越来越普遍,但它们也并不像人们认为的那样流行。它们需要大量的技能和知识才能正确操作,这使得普通人难以轻易自行创製。因此,许多伪造媒体并没有完全达致真正的深伪水平。

例如,改变一个人的头发、眼睛颜色或声音的滤镜是一种被称为 “浅假” 的较小规模操作,人们可能每天都会遇到这类媒体,尤其是在社交媒体平台上;人工智能生成的公众人物伪造语音引述就是浅假的另一个例子。

“它并没有真正被大规模使用,” anlen 这样形容深伪技术。“我们在媒体的错误和虚假信息领域仍然看到的大部分内容 [都是] 浮浅的伪造,大多是重用的语境化素材。”

检测

每项新技术都有致命弱点,深伪也不例外。使用白可以检测到外观上的错误,例如:生成的图像可能在背景中有静态、牙齿不齐整,或者视频中 AI 生成的人的说话可能没有正确配对嘴型。

然而,这技术适应得也很快。“研究曾说,‘深伪换脸不会眨眼,所以它真的很容易被发现,因为它不会眨眼,’ 然后两週后,深伪换脸就开始眨眼了,” anlen 说。

在这虚拟的猫捉老鼠游戏中,伪造媒体的质量越来越高,也越来越容易造访,检测工作难以跟上。

“第一代的生成假脸都以眼睛作为中心。他们总是在中心,所以这就是检测会寻找的东西,” anlen 说。“但现在我们有这麽多不同的人脸是利用不同的灯光、不同的表情生成的——他们的眼睛不再位于中央了。”

anlen 解释,在目前,高质量的检测工具的使用上也存在差距。虽然有些网站是任何人都能造访的,但这些工具往往效用较低;只有少数人能使用深伪专家可用的准确检测工具。

解决方案

现时侦察深伪的方法包括检查视频内容是否存在故障和失真、利用现有的验证和取证技术,并使用以 AI 为本的潜在技术来识别深伪。

增加媒体素养的工具,和针对记者开展更多关于伪造媒体的培训也很重要。

“我们需要为此做好准备,需要看得到这问题,” anlen 说。“我们需要了解整体环境,才能真正模塑技术 [的发展],模塑它的构建方式和监管方式,并参与其中——而不仅仅被它所影响。”


Disarming Disinformation 是 ICFJ 管理的倡议项目,由 Scripps Howard Foundation 提供起动资金;Scripps Howard Foundation 是 Scripps Howard Fund 的附属组织,以支持 E.W. Scripps Company 的慈善工作。此为期三年的项目,旨在推动记者和新闻系学生遏止新闻媒体泛滥的虚假信息。

图片来源:rishi on Unsplash.