信息干预
:基于行为科学研究且经过数字实验验证的一系列方法,旨在培养抵御网上侵害的能力。
准确性提示
将用户的注意力重新集中到准确性上
准确性提示要求个人考虑一小段内容的真实性,促使他们记住自己在重要时刻分享准确信息的承诺。
假设
在个人可能即将接触到虚假信息时提醒他们考虑准确性,可以提升用户原有的准确性目标。
运作方式
-
1
1. 该用户在滚动浏览他们的社交 Feed 时,遇到了含潜在虚假信息的内容。
-
2
2. 一条准确性提示被触发,并在内容上方弹出。
-
3
3. 系统向该用户提供一小段说明,解释了他们为什么会看到这个提醒,他们的注意力会转移到带有信息素养提示的内容的准确性上。
-
4
4. 现在,该用户需要更加注意,并且在 Feed 中遇到类似内容时可能会三思而后行。
发现结果
示例
我们与麻省理工学院和里贾纳大学合作进行了一系列实验,目的是测试准确性提示能否在不同文化背景下发挥作用,减少虚假信息的传播,增加网上真实信息的分享,并提高用户对自身驾驭信息质量能力的信心。
在线调查实验在 16 个国家/地区进行,共有 3 万多人参与;他们需要对自己分享真实和虚假头条新闻的意向进行评分。
在线调查实验在 16 个国家/地区进行,共有 3 万多人参与;他们需要对自己分享真实和虚假头条新闻的意向进行评分。
Redirect Method
阻断网上的激进化行为
Redirect Method 这项计划旨在触达那些容易被暴力极端主义团体招募的人。这个试点计划利用广告,将寻找极端主义信息的用户重定向到反驳 ISIS 招募讯息的精选内容上。
假设
在激进化过程中,正在研究极端主义意识形态的人有机会被反驳极端主义的言论说服。
运作方式
-
1
1. 该用户使用表明对极端主义宣传感兴趣的关键字完成了一次在线搜索。
-
2
2. Redirect Method 已启用,会捕捉关键字来促使系统进行干预。
-
3
3. 该用户看到了一则广告,其中包含其兴趣主题的更多相关信息。
-
4
4. 点击广告后,该用户被重定向到反对虚假极端主义言论的内容。
发现结果
示例
Jigsaw 和 Moonshot 通过采访 ISIS 叛逃者来了解互联网在其激进化过程中的作用,开发了 Redirect Method 的开源方法。我们根据这些数据洞见设计了一个试点计划,使用 AdWords 来触达有激进化风险的用户,并使用内容为他们提供相关的反叙述。
这些内容由来自世界各地的用户上传,在经过专家从业者挑选之后,用来对抗网上的激进化行为。
我们的方法着重研究了 ISIS 目标受众中最容易受到其讯息影响的那部分人,得出的结论是:即使不是以反叙事为目的而创作的内容,只要经过有效的挑选、整理和定位,仍然可以破坏有害言论。自 2016 年以来,Moonshot 与包括 Facebook 在内的一系列科技公司合作,向那些对白人至上主义、暴力厌女症和阴谋论等其他网上危害行为感兴趣的人投放广告。
这些内容由来自世界各地的用户上传,在经过专家从业者挑选之后,用来对抗网上的激进化行为。
我们的方法着重研究了 ISIS 目标受众中最容易受到其讯息影响的那部分人,得出的结论是:即使不是以反叙事为目的而创作的内容,只要经过有效的挑选、整理和定位,仍然可以破坏有害言论。自 2016 年以来,Moonshot 与包括 Facebook 在内的一系列科技公司合作,向那些对白人至上主义、暴力厌女症和阴谋论等其他网上危害行为感兴趣的人投放广告。
预先揭穿
提高对操纵的抵抗力
预先揭穿是一种预先阻止网上操纵企图的技术。通过预先警告个人并使他们能够发现和反驳误导性论点,他们就能在未来抵御误导性内容。
假设
先发制人的讯息可以帮助个人识别操纵性的言论和策略(例如,声称“疫苗是非自然的”或“难民会窃取工作机会”)。
运作方式
-
1
1. 系统以广告的形式向一组用户的社交媒体 Feed 投放了一个预先揭穿视频。
-
2
2. 该用户通过短视频讯息获知,可能有人试图在网上操纵他们。
-
3
3. 向该用户展示操纵技术或言论的相关示例,然后给出反驳该主张的反面论据。
-
4
4. 我们会请视频观看者填写简短的调查问卷,分析相较于对照组,他们回想操纵技术的情况,借此评估他们未来抵制操纵性内容的可能性。
发现结果
-
73%
的人在观看预先揭穿相关视频后,更有可能持续发现网上的虚假信息(资料来源:Science Advances)
-
5%
以 YouTube 广告形式投放的预先揭穿视频将操纵技术的识别率提高了 5%。(资料来源:Science Advances)
方法和示例
我们与剑桥大学、哈佛大学和美利坚大学的学术合作伙伴一起进行实验室测试和现场实验,通过短视频讯息来测试预先揭穿技术,加强对用于延续虚假信息的常见话术和言论的抵制。