在亚洲有相当多的事实核查项目梳理新闻报道和公共社交媒体的发帖,但是即时通讯平台却成为了抗击虚假信息的一个难题。
在聊天群里的“假新闻”很难对付,因为大部分人看不到。
这也是台湾 — 一个LINE非常受欢迎的地方 — 正在面临的难题。这个应用上的信息很容易被传播,但却很难被辟谣。
在家庭聊天群里这就更加困难,因为年轻的台湾人会觉得和传播假消息或者歪曲信息的长辈发生冲突很尴尬。
进入Cofacts,一个台湾的公民科技社群建立的公开、协作平台。
这个基本系统非常简单。在LINE收到可疑讯息的用户可以将其转发给Cofacts的聊天机器人。讯息就会随即被添加进一个数据库,在那里志愿者编辑会进行事实核查,然后将结果反馈给用户。
如果编辑们对于事实核查结果无法达成一致,他们也可以发送多条信息给用户,由用户自己对于收到的信息进行独立判断。
基于Cofacts的数据,他们辟谣的虚假信息从虚假广告、医疗谣言到关于政府政策的假消息都有。
省时聊天机器人
Johnson Liang,Cofacts的Line机器人创始人说,他相信在看了LINE上的另一个事实核查账号MyGoPen的一场管理论坛之后,相信聊天机器人是一个正确的方式。
MyGoPen当时被信息淹没,但大多数都是复制粘贴的 — 来自不同用户的一模一样或者基本一样的信息。管理员对于需要个别回答每个人的工作量不堪重负。
MyGoPen的这种挣扎启发了Liang关于基于数据库的聊天机器人的想法。一旦有一条信息发送给Cofacts,它就会被存储到数据库中。下一次有人转发这条相同的信息时,数据库就会调出事实核查并且发送回来。
在过去三个月里,Cofacts收到了超过46,000条信息 — 而机器人能够全自动回答其中的35,180条。
就像g0v的其他部分一样,公开和去中心化是Cofacts工作的核心。他们的数据库、分析和会议记录都是公开的,任何人 (只要你读得懂正体中文字) 就可以阅读他们的讨论和设计决定。
他们甚至将这种策略延伸到了处理媒体请求:不是传统的一对一采访或者邮件往来,Cofacts团队要求采访以全队共享的方式进行,允许拥有不同分工和见解的成员们贡献自己的部分 (或者至少了解其他人说了什么)。
这种模式最初是由于实际的忧虑而产生的。“区分用户、或者添加筛选编辑之类的机制很花时间,”Liang表示。“设计一套背景调查的规则很花时间。将之实践于系统也很花时间。如果有人投诉去调整(或者改进)还是很花时间。由于我们不想在这些规则上浪费时间,我们就把它们向所有人公开—如果任何人对于平台上的任何回答不满意,你自己直接改进。”
谣言的守门人
但是Cofacts承认这个系统并非万无一失:尽管它是基于公开和信任,一些糟糕编辑将平台绑架的可能性永远存在。
并且Liang大方承认可能团队只有积累了足够多的用户的时候才能想得到最好的解决办法,但那时被黑客攻击和绑架的可能性也更大。
仍然,他保持着开放心态,更倾向于考虑社群可以使用的工具,而非那些未必发生的威胁。
“对于预防糟糕编辑涌入的更有建设性的方案是将它调整为应对诸如‘我们如何提升编辑的回答的质量’之类的问题”他说。“这会打开讨论和可能的解决方案的更多空间。”
他还提及了其他一些平台,诸如维基百科和Quora,作为可以学习借鉴的模板。
尽管拥有不断增长的数据库的支持,抗击虚假信息对于Cofacts依然是很难打的硬仗。
团队每周会收到大约250条新信息,但只有不到12个积极编辑处理,也就意味着用户很难立即收到他们希望事实核查的信息的快速回答。他们同样也无法了解并不使用Cofacts的LINE用户在传播哪些谣言,又是如何传播的。
但是Liang指出了“光明的一面”:每一位因为自己的询问获得回答的用户现在都有能力自己也变成一位谣言终结者。
“尽管谣言在我们回答之后依然会传播,但至少我们已经阻止了这么多用户 (或者聊天室) 进一步每天传播这些东西。这使得这些用户自己成为了谣言守门人。”