情報介入

: 行動科学調査で報告され、デジタルテストによって検証された、オンラインの有害情報に対するレジリエンスを構築する一連のアプローチ。

精度プロンプト

ユーザーの注意を正確さに引き戻す
精度プロンプトは、重要なタイミングで正確な情報を共有する責任をユーザーに思い出させ、小さなコンテンツの正確さについて考えるよう求めます。

仮説

ユーザーが誤った情報に関わりそうになったときに正確さについて考えるよう促すことで、ユーザーの既存の精度目標を上げることができます。

仕組み

  • 1

    1. ユーザーがソーシャル フィードをスクロールして、誤っている可能性がある情報を含むコンテンツを見つけます。

  • 2

    2. 精度プロンプトがトリガーされ、コンテンツ上にポップアップ表示されます。

  • 3

    3. リマインダーの表示理由に関する簡単な説明が示され、情報リテラシーのヒントによってユーザーの注意がコンテンツの正確さに移ります。

  • 4

    4. ユーザーは意識を高めるよう促され、フィードで同様のコンテンツに遭遇したときに慎重に考えられるようになります。

調査結果

  • 50%
    正確さに関するヒントを受け取ったユーザーは、受け取らなかったユーザーと比べ、共有時における判断力が 50% 高くなりました。(参照元: Jigsaw
  • 11%
    YouTube のプレロール動画を公開してから 3 週間で、自信が 11% 向上しました。(参照元: Jigsaw

Google は MIT とリジャイナ大学と連携して一連の実験を行い、正確さに関するヒントが異文化間で機能するかどうか、このヒントによってオンラインでの偽情報の共有が減って正しい情報の共有が増えるかどうか、さらにこのヒントによって情報の質を判断する能力に対するユーザーの自信が高まるかどうかをテストしました。

オンラインでの調査実験が 16 か国で実施され、30,000 人以上の参加者が正しいニュース見出しと誤ったニュース見出しを共有する意思を評価しました。
閲覧を続ける前にニュースの正確さについてよく考えるよう促す初期プロトタイプの精度プロンプト。

下記チームとの共同調査による

リジャイナ大学と Hill levene

リダイレクト方法

オンラインでの過激化を阻止
Redirect Method は、過激派グループによるリクルートの対象になりそうな人に働きかけるためのプログラムです。パイロットでは広告を使用して、過激派の情報を検索しているユーザーを、ISIS のリクルート メッセージに反論するキュレート済みコンテンツにリダイレクトしました。

仮説

過激化の過程でも、過激主義のイデオロギーを検索しているユーザーを反論メッセージによって説得する機会があります。

仕組み

  • 1

    1. ユーザーが過激主義者のプロパガンダへの関心を示すキーワードを使用してオンライン検索を行います。

  • 2

    2. Redirect Method が起動し、キーワードを検出して介入を促します。

  • 3

    3. 関心のあるトピックに関連した情報が掲載された広告がユーザーに表示されます。

  • 4

    4. 広告をクリックすると、過激派による誤ったメッセージに反論するコンテンツにリダイレクトされます。

調査結果

  • 320,000
    8 週間にわたるパイロット期間に働きかけた人数。(参照元: JigsawMoonshot
  • 500,000
    反論動画が配信された時間(分)。(参照元: JigsawMoonshot

Jigsaw と Moonshot は、ISIS 離脱者が過激化の過程におけるインターネットの役割について語るインタビューを参考にして、Redirect Method のオープンソース手法を開発しました。このインサイトを用いて、過激化の恐れがある人々に働きかけるための AdWords を用いたパイロット プログラムを設計して、過激化に反論する関連メッセージを発信するコンテンツを用いました。
コンテンツは、オンラインでの過激化に取り組む世界中のユーザーによってアップロードされ、専門家によって厳選されました。

ISIS のメッセージの影響を最も受けやすい一部の支持者に焦点を当てる手法により、反論メッセージを目的として作られたコンテンツでなくても、効果的にキュレート、編成して対象を絞れば、有害なメッセージを弱体化できることがわかっています。 Moonshot は 2016 年から、Facebook などのさまざまなテクノロジー企業と提携して、白人至上主義、暴力的な女性蔑視、陰謀論といった他のオンライン危害に関心を示す人々に広告を展開してきました。
Redirect Method を使用してユーザーを安全なコンテンツ(この場合は、白人至上主義的な運動から抜けるサービス)にリダイレクトする Moonshot を表示するキャンペーン フロー。

下記チームとの共同調査による

moonshot

投稿者へのフィードバック

健全な対話の促進
投稿者へのフィードバックで Perspective API(人工知能を使って有害な表現を検出するツール)を活用し、コメント投稿者にコメントが不適切と判断される可能性を示すリアルタイムのフィードバックを提供します。

仮説

一息おいて振り返り、コメントの表現を変える方法を考える時間をユーザーに与えることは、オンラインでの健全な対話に役立ちます。

仕組み

  • 1

    1. ユーザーが、「有害」と見なされるコメント、つまり人々がディスカッションから離れる可能性の高い粗暴、無礼、または理不尽なコメントを書き込みます。

  • 2

    2. Perspective API は、悪質な表現を特定する機械学習モデルを使用して「有害」なコメントを検出します。

  • 3

    3. 投稿者へのフィードバック メッセージが表示され、コメントが危険または不適切と判断されたか、パブリッシャーのコミュニティ ガイドラインに沿っていないことが警告されます。

  • 4

    4. ユーザーはコメントを公開する前に表現を変更するよう指示されます。

調査結果

  • 34%
    Perspective API を利用したフィードバックを受け取ってコメントを編集したユーザーの割合。(参照元: Jigsaw)。

複数のウェブサイトと連携して、コメント公開システムに直接統合される機能を開発しました。ユーザーがコメントを入力すると、公開される前に Perspective API によってテキストがチェックされます。

コメントが、Perspective API によって測定される有害な表現について事前に定義された基準を超えている場合、ユーザーにリマインダーが表示され、コメントの表現を変えて入力し直す機会が与えられます。 コメントの事後分析が行われて、編集率と全体的な効果が確認されます。
OpenWeb がサポートするウェブサイトでは、有害なコメントの下に投稿者へのフィードバック メッセージが赤色で表示されます。

下記チームとの共同調査による

OpenWeb
Coral

プレバンキング

操作に対する抵抗性の向上
プレバンキングとは、オンラインでの改ざんの試みを阻止するための手法です。あらかじめ警告し、紛らわしい主張を見分けて反論できるようにすることで、ユーザーは適応力を身に付けて惑わされないようになります。

仮説

予防的なメッセージによって、ユーザーは操作的なメッセージや戦略(「ワクチンは自然に反する」 や難民が仕事を奪うという主張など)を特定できます。

仕組み

  • 1

    1. プレバンキング動画は、ユーザーのソーシャル メディア フィードに広告として配信されます。

  • 2

    2. ショート動画メッセージによって、ユーザーはオンラインで操られる可能性を認識します。

  • 3

    3. 関連する操作手口やメッセージの例が表示され、主張を否定する反論が提供されます。

  • 4

    4. 動画の視聴者が動画を視聴しなかったグループと比較してどの程度こうした手口を想起できるかを簡単な調査を使って分析することで、今後こうしたユーザーが操作的なコンテンツを識別できる可能性を調べることができます。

調査結果

  • 73%
    プレバンキング動画を見てオンラインで誤った情報を見分けられた可能性が高いユーザーの割合(参照元: Science Advances
  • 5%
    YouTube 広告としてのプレバンキング動画によって改ざん手法の認知度が 5% 上昇。(参照元: Science Advances

アプローチと例

ケンブリッジ大学、ハーバード大学、およびアメリカン大学の学術パートナーとともにラボテストと公開実験を行い、誤った情報を助長する一般的な修辞的戦略やメッセージに対する識別能力を高めるショート動画メッセージを使ったプレバンキングをテストしました。
BBC メディア アクション、ケンブリッジ大学、Jigsaw は「プレバンク方法」のガイドを作成し、実践者が独自のプレバンキング メッセージを作る際のガイドラインと基本的な要件を提供しました。PDF をダウンロード

下記チームとの共同調査による

ケンブリッジ大学
BBC メディア アクション
Demagog、NASK、Jigsaw は、中央ヨーロッパと東ヨーロッパに住むウクライナ人に関する難民反対情報に対抗する動画シリーズを作成しました。YouTube ですべての動画を見る

下記チームとの共同調査による

Google はケンブリッジ大学、ブリストル大学と共同で、オンラインでよく見られる特定の改ざん手法に対して視聴者をプレバンキングする 5 本の動画を作成しました。YouTube ですべての動画を見る

下記チームとの共同調査による

ケンブリッジ大学
ハーバード T.H. チャン公衆衛生大学院の学者、アメリカン大学、および訓練を受けた医療専門家と協力して、ワクチンの安全性について誤解を与えやすい話をあらかじめ集めました。YouTube ですべての動画を見る

下記チームとの共同調査による

二極化と過激主義。
調査とイノベーション ラボ
YouTube の世界的なメディア リテラシー プログラム「Hit Pause」によって、世界中の市場の視聴者が誤った情報を見抜くスキルを学べます。初期の動画は、一般的な改ざん手法(感情的な表現など)をプレバンキングする Jigsaw の取り組みに基づいています。YouTube ですべての動画を見る

作成者

YouTube

下記チームとの共同調査による

Namle

Jigsaw は、開かれた社会への脅威を調査し、スケーラブルなソリューションを生み出すテクノロジーの構築に取り組む Google の部署です。