Info Interventions

:以行為研究為基礎並經過數位驗證的一套方法,旨在建立應對網路危害的抵禦力。

準確性提示功能

將使用者注意力重新聚焦於準確性
「準確性提示」功能要求參與者思考一小段內容的真實性,並要求他們在必要時分享正確資訊的承諾。

假設

在使用者即將接受不實資訊時適時提醒他們思考內容準確性,可提高使用者既有的準確性目標。

運作方式

  • 1

    1. 如果使用者在瀏覽社群動態時看到內含潛在不實資訊的內容,

  • 2

    2. 系統會觸發準確性提示功能,並在內容上彈出顯示提示文字,

  • 3

    3. 向使用者簡短說明他們為何會看到提醒資訊,將其注意力轉移到內容的準確性,並提供培養資訊素養的秘訣。

  • 4

    4. 使用者在收到提示後會提高警惕,日後在社群動態中看到相似內容時便能多加思考。

發現項目

  • 50%
    收到準確性提示的使用者在辨別分享內容真實性時,其辨別力比沒有準確性提示的使用者高出 50% (資料來源:Jigsaw)。
  • 11%
    YouTube 片頭廣告影片在曝光三週後,讓信心程度提高了 11% (資料來源:Jigsaw)。

範例

我們與麻省理工學院和雷吉那大學合力進行了一系列實驗,目的是測試準確性提示能否在不同文化背景下發揮作用、減少不實資訊的散播、讓真實資訊在網路上得到更多分享,以及讓使用者對自身辨別資訊品質的能力更有信心。

我們的實驗是在 16 個國家/地區進行線上問卷調查,邀請超過 30,000 人評估自身分享真假新聞標題的意願。
早期原型設計的準確性提示功能要求使用者,在繼續瀏覽之前審視新聞標題的準確性。

合作夥伴

雷吉那大學和 Hill Levene 學院

Redirect Method

阻擋網路激進化
The Redirect Method 計畫旨在幫助易受暴力極端組織招募的群眾。試驗計畫運用了廣告,將搜尋極端主義資訊的使用者重新導向至反制 ISIS 招募訊息的精選內容。

假設

在激進化過程中,即使是正在研究極端主義意識形態的人士,我們仍有機會以相關反制言論加以勸服。

運作方式

  • 1

    1. 使用者以含有極端主義宣傳意圖的關鍵字完成線上搜尋。

  • 2

    2. The Redirect Method 會啟動並擷取關鍵字內容,以提供相關輔助訊息。

  • 3

    3. 系統會向使用者顯示廣告,其中含有更多關於他們有意瞭解的主題資訊,

  • 4

    4. 並在使用者點選廣告之後,將使用者重新導向至駁斥錯誤極端主義言論的內容。

發現項目

  • 320,000
    8 週試驗期間的觸及人數 (資料來源:JigsawMoonshot)。
  • 500,000
    反制言論影片播放分鐘數 (資料來源:JigsawMoonshot)。

範例

Jigsaw 和 Moonshot 採訪了 ISIS 叛逃者,探究網際網路在組織激進化過程中的角色,根據訪談內容發展出 The Redirect Method 可公開存取的方法。我們根據分析結果設計了採用 AdWords 服務的試驗計畫,藉此接觸有激進化風險的使用者,並提供含有相關反制論點內容。
這類內容是由世界各地對抗網路激進化的使用者上傳,並交由專家從業者評選。

我們的方法著重在最易受訊息影響的 ISIS 受眾,也體認到即使不是以駁斥不實訊息為目的而建立的內容,在有效編撰、管理及投放的情況下仍可打擊惡意言論。 自 2016 年起,Moonshot 與包含 Facebook 在內的多間科技公司合作,向對於其他網路危害 (包括白人至上主義、暴力女性仇恨和陰謀論) 感興趣的使用者投放廣告。
這個推廣活動流程說明 Moonshot 如何透過 Redirect Method 將使用者重新導向至安全內容;在這個情境中指的是終結白人至上主義運動的服務。

合作夥伴

moonshot

作者意見回饋

促進優質對話
「作者意見回饋」功能運用了 Perspective API,這款以人工智慧偵測惡意用語的工具會即時提供意見回饋,在留言者撰寫留言時醒目標示可能冒犯他人的留言內容。

假設

給予使用者停下來思考的時間,並考慮用不同的方式表達留言內容,這麼做有助於提升線上互動交流品質。

運作方式

  • 1

    1. 如果使用者撰寫的留言被認定為「惡意」留言 (粗俗、無禮或不合理的言論),可能會讓他人離開討論。

  • 2

    2. Perspective API 會運用可辨識謾罵性言語的機器學習模型來篩選「惡意」留言。

  • 3

    3. 系統會顯示作者意見回饋訊息,告知使用者該留言已被認定為具有風險/令人反感,或不符合發布商的社群規範。

  • 4

    4. 並鼓勵使用者修改用語後再發布留言。

發現項目

  • 34%
    的使用者在收到 Perspective API 提供的意見回饋後,選擇編輯留言內容 (資料來源:Jigsaw)。

範例

我們與多個網站合作並開發了可直接與留言發布系統整合的功能。使用者輸入留言時,內容須經過 Perspective API 審核才能發布。

Perspective API 會對留言進行評估,如果內容超過了預先定義的惡意用語門檻值,就會提醒使用者,並提供改寫及重新發布留言的機會。接著,我們對留言內容進行後續分析,以掌握編輯率和整體成效。
在 OpenWeb 支援的其中一個網站的中惡意評論下方,以紅色顯示的作者意見回饋訊息。

合作夥伴

OpenWeb
Coral

預先揭露

提高對議題操縱的反制能力
預先揭露方法是網路上預先反制操縱性內容的一種技巧,用來預先警告使用者並教導自我發現及駁斥誤導性論點的能力,幫助他們日後不易受到誤導。

假設

預先反制的訊息可協助民眾辨識操縱性言論和策略 (例如「疫苗並非天然」或難民偷走工作機會的主張)。

運作方式

  • 1

    1. 我們將預先揭露影片以廣告的形式投放到一群使用者的社群媒體動態中。

  • 2

    2. 透過短片訊息讓使用者瞭解有人可能會試圖在網路上操控他們的想法。

  • 3

    3. 我們對使用者展示與操弄手法或言論相關的示例,然後給出駁斥相關主張的反面論述。

  • 4

    4. 我們會請觀看影片的使用者接受簡短的問卷調查,分析相較於控制組,他們對於操弄手法的印象深刻程度,藉此評估他們未來抵制操縱性內容的可能性。

發現項目

  • 73%
    的使用者在看過預先揭露影片後,更有可能持續辨別網路上的不實資訊 (資料來源:Science Advances)。
  • 5%
    以 YouTube 廣告形式播放的預先揭露影片,讓使用者對操弄手法的辨識率提高了 5% (資料來源:Science Advances)。

方法與範例

我們攜手劍橋大學、哈佛大學和美利堅大學的學術夥伴進行實驗室測試和真實環境實驗,測試利用短片訊息預先闢謠的做法,是否能有效反制用於散播不實資訊的常見話術和說詞。
BBC Media Action、劍橋大學和 Jigsaw 共同編撰了「預先揭露」指南,為從業者提供相關準則和基本需求,以便自行製作假訊息預先揭露資訊。下載 PDF

合作夥伴

劍橋大學
BBC Media Action
Demagog、NASK 和 Jigsaw 製作了一系列影片,針對反對烏克蘭難民居住在中歐和東歐的言論進行反駁。在 YouTube 上觀看所有影片

合作夥伴

我們與劍橋大學和布里斯托大學合力製作了 5 部影片,為大家揭露網路上常見的特定操弄手法。在 YouTube 上觀看所有影片

合作夥伴

劍橋大學
我們聯手哈佛大學陳曾熙公共衛生學院和美利堅大學的學者,以及眾多訓練有素的醫療專家,預先糾正了有關疫苗安全性的常見誤導性言論。在 YouTube 上觀看所有影片

合作夥伴

兩極化與極端主義。
研究與創新研究室
Hit Pause 是 YouTube 的全球媒體素養計畫,可協助世界各地市場的觀眾培養辨別不實資訊的能力。最早的一系列推廣素材是以 Jigsaw 的工作成果為基礎,為大家預先揭露情緒性用語等常見操弄手法。在 YouTube 上觀看所有影片

建立者

YouTube

合作夥伴

Namle

Jigsaw 是 Google 內部成立的部門,負責研究開放社會所面臨的威脅及開發相關技術,力求推出能大規模推廣的解決方案。