信息干预

:基于行为科学研究且经过数字实验验证的一系列方法,旨在培养抵御网上侵害的能力。

准确性提示

将用户的注意力重新集中到准确性上
准确性提示要求个人考虑一小段内容的真实性,促使他们记住自己在重要时刻分享准确信息的承诺。

假设

在个人可能即将接触到虚假信息时提醒他们考虑准确性,可以提升用户原有的准确性目标。

运作方式

  • 1

    1. 该用户在滚动浏览他们的社交 Feed 时,遇到了含潜在虚假信息的内容。

  • 2

    2. 一条准确性提示被触发,并在内容上方弹出。

  • 3

    3. 系统向该用户提供一小段说明,解释了他们为什么会看到这个提醒,他们的注意力会转移到带有信息素养提示的内容的准确性上。

  • 4

    4. 现在,该用户需要更加注意,并且在 Feed 中遇到类似内容时可能会三思而后行。

发现结果

  • 50%
    与未收到准确性提示的用户相比,收到准确性提示的用户在分享习惯方面的辨别力要高出 50%。(资料来源:Jigsaw
  • 11%
    YouTube 上的前贴片视频广告在投放三周后,用户对自身驾驭信息质量能力的信心提高了 11%。(资料来源:Jigsaw

示例

我们与麻省理工学院和里贾纳大学合作进行了一系列实验,目的是测试准确性提示能否在不同文化背景下发挥作用,减少虚假信息的传播,增加网上真实信息的分享,并提高用户对自身驾驭信息质量能力的信心。

在线调查实验在 16 个国家/地区进行,共有 3 万多人参与;他们需要对自己分享真实和虚假头条新闻的意向进行评分。
一条早期原型准确性提示,请求用户在继续浏览之前反思新闻标题的准确性。

携手

里贾纳大学及希尔和莱文商学院

Redirect Method

阻断网上的激进化行为
Redirect Method 这项计划旨在触达那些容易被暴力极端主义团体招募的人。这个试点计划利用广告,将寻找极端主义信息的用户重定向到反驳 ISIS 招募讯息的精选内容上。

假设

在激进化过程中,正在研究极端主义意识形态的人有机会被反驳极端主义的言论说服。

运作方式

  • 1

    1. 该用户使用表明对极端主义宣传感兴趣的关键字完成了一次在线搜索。

  • 2

    2. Redirect Method 已启用,会捕捉关键字来促使系统进行干预。

  • 3

    3. 该用户看到了一则广告,其中包含其兴趣主题的更多相关信息。

  • 4

    4. 点击广告后,该用户被重定向到反对虚假极端主义言论的内容。

发现结果

  • 320,000
    一个为期 8 周的试点计划覆盖的人数。(资料来源:JigsawMoonshot
  • 500,000
    反制言论视频投放的分钟数。(资料来源:JigsawMoonshot

示例

Jigsaw 和 Moonshot 通过采访 ISIS 叛逃者来了解互联网在其激进化过程中的作用,开发了 Redirect Method 的开源方法。我们根据这些数据洞见设计了一个试点计划,使用 AdWords 来触达有激进化风险的用户,并使用内容为他们提供相关的反叙述。
这些内容由来自世界各地的用户上传,在经过专家从业者挑选之后,用来对抗网上的激进化行为。

我们的方法着重研究了 ISIS 目标受众中最容易受到其讯息影响的那部分人,得出的结论是:即使不是以反叙事为目的而创作的内容,只要经过有效的挑选、整理和定位,仍然可以破坏有害言论。自 2016 年以来,Moonshot 与包括 Facebook 在内的一系列科技公司合作,向那些对白人至上主义、暴力厌女症和阴谋论等其他网上危害行为感兴趣的人投放广告。
一个宣传活动流程,展示了 Moonshot 如何使用 Redirect Method 将个人重定向到更安全的内容;在这个示例中,这类内容是帮助人们摆脱白人至上主义运动影响的服务。

携手

moonshot

作者反馈

促进更好的交流方式
作者反馈功能利用 Perspective API 这种运用人工智能的恶意语言检测工具,向正在发帖的评论者提供实时反馈,具体方式是在他们的评论可能被视为带有攻击性时高亮显示相应文本。

假设

让用户有时间暂停、反思和考虑不同的评论措辞方式,可以促进更好的在线对话。

运作方式

  • 1

    1. 该用户撰写的评论被认为是“恶意”评论,也就是可能会造成他人退出交流讨论的粗俗、不雅或无理的评论。

  • 2

    2. Perspective API 使用可识别滥用语言的机器学习模型来捕获“恶意”评论。

  • 3

    3. 系统会显示一条作者反馈讯息,提醒该用户其评论已被认定为有风险/令人反感或不符合发布商的社区准则。

  • 4

    4. 系统鼓励该用户在发表评论前调整措辞。

发现结果

  • 34%
    的用户在收到由 Perspective API 提供支持的反馈后会选择修改他们的评论。(资料来源:Jigsaw)。

示例

我们与多个网站合作,开发了一项可直接集成到评论发布系统的功能。当用户输入评论时,Perspective API 会检查他们的文本,相应评论只有在通过检查后才会发布。

如果相应评论超出了 Perspective API 测出的恶意语言的预定阈值,用户会收到提醒,并有机会重新表述评论和重试。 该功能会对评论进行事后分析,以确定修改率和整体效果。
在 OpenWeb 支持的一个网站上,恶意评论下方的作者反馈讯息显示为红色。

携手

OpenWeb
Coral

预先揭穿

提高对操纵的抵抗力
预先揭穿是一种预先阻止网上操纵企图的技术。通过预先警告个人并使他们能够发现和反驳误导性论点,他们就能在未来抵御误导性内容。

假设

先发制人的讯息可以帮助个人识别操纵性的言论和策略(例如,声称“疫苗是非自然的”或“难民会窃取工作机会”)。

运作方式

  • 1

    1. 系统以广告的形式向一组用户的社交媒体 Feed 投放了一个预先揭穿视频。

  • 2

    2. 该用户通过短视频讯息获知,可能有人试图在网上操纵他们。

  • 3

    3. 向该用户展示操纵技术或言论的相关示例,然后给出反驳该主张的反面论据。

  • 4

    4. 我们会请视频观看者填写简短的调查问卷,分析相较于对照组,他们回想操纵技术的情况,借此评估他们未来抵制操纵性内容的可能性。

发现结果

  • 73%
    的人在观看预先揭穿相关视频后,更有可能持续发现网上的虚假信息(资料来源:Science Advances
  • 5%
    以 YouTube 广告形式投放的预先揭穿视频将操纵技术的识别率提高了 5%。(资料来源:Science Advances

方法和示例

我们与剑桥大学、哈佛大学和美利坚大学的学术合作伙伴一起进行实验室测试和现场实验,通过短视频讯息来测试预先揭穿技术,加强对用于延续虚假信息的常见话术和言论的抵制。
BBC Media Action、剑桥大学和 Jigsaw 制定了一份预先揭穿方法指南,为从业者提供制作自己的预先揭穿讯息的准则和基本要求。下载 PDF

携手

剑桥大学
BBC Media Action
Demagog、NASK 和 Jigsaw 制作了一系列视频,用于反驳关于生活在中欧和东欧的乌克兰人的反难民言论。在 YouTube 上观看所有相关视频

携手

我们与剑桥大学和布里斯托大学合作制作了 5 个视频,用于预先揭穿网上常见的特定操纵技术。在 YouTube 上观看所有相关视频

携手

剑桥大学
我们与哈佛大学陈曾熙公共卫生学院和美利坚大学的学者以及训练有素的医学专家合作,提前纠正了关于疫苗安全性的常见误导性言论。在 YouTube 上观看所有相关视频

携手

极化和极端主义
研究与创新实验室
YouTube 的全球媒体素养计划 Hit Pause 旨在帮助全球各个市场的观众学习发现虚假信息的技能。最初的一系列广告素材以 Jigsaw 的工作成果为基础,预先揭穿了常见的操纵技俩,例如情绪性语言。在 YouTube 上观看所有相关视频

创建方

YouTube

携手

Namle

Jigsaw 是 Google 内部负责研究开放社会所面临威胁的部门,致力于通过开发技术来促成可推广的解决方案。