Info Interventions

: Eine Auswahl an Lösungsansätzen, mit denen sich Menschen besser gegen die Radikalisierung im Internet wappnen können. Die Methoden basieren auf Studien der Verhaltensforschung. Ihre Wirksamkeit wurde in Testumgebungen geprüft.

Inhaltswarnungen

Aufmerksamkeit wieder auf den Wahrheitsgehalt lenken
Inhaltswarnungen sollen die Teilnehmer animieren, den Wahrheitsgehalt von Informationen zu prüfen. Nutzer sollen außerdem in entscheidenden Momenten an ihre eigene Verantwortung erinnert werden, nur korrekte Informationen zu teilen.

Hypothese

Wenn Personen genau in dem Moment, in dem sie auf Falschinformationen stoßen, daran erinnert werden, über den Wahrheitsgehalt einer Aussage nachzudenken, werden sie potenziell in ihrer schon vorhandenen Absicht bestärkt, die Richtigkeit von Informationen zu hinterfragen.

Funktionsweise

  • 1

    1. Eine Person scrollt durch ihre Social-Media-Feeds und stößt dabei auf Inhalte mit möglichen Falschinformationen.

  • 2

    2. Eine Inhaltswarnung wird ausgelöst und über dem entsprechenden Inhalt angezeigt.

  • 3

    3. Die Person sieht eine kurze Erklärung, warum ihr der Warnhinweis angezeigt wird. Die Aufmerksamkeit des Nutzers richtet sich jetzt darauf, den Wahrheitsgehalt des Inhalts kritisch zu hinterfragen. Außerdem enthält die Meldung Tipps, wie sich die Informationskompetenz stärken lässt.

  • 4

    4. Die Person wird nun aufgefordert, Informationen aufmerksamer zu prüfen. Wenn sie das nächste Mal auf ähnliche Inhalte in ihrem Feed stößt, geht sie deshalb unter Umständen kritischer damit um.

Ergebnisse

  • 50%
    Diejenigen, die Inhaltswarnungen erhalten haben, zeigten sich beim Teilen 50 % kritischer, als diejenigen, die keine Warnhinweise angezeigt bekommen haben. Quelle: Jigsaw.
  • 11%
    Über Pre-Roll-Videos auf YouTube wuchs das Vertrauen in richtige Inhalte innerhalb von drei Wochen nach der Veröffentlichung um 11 %. Quelle: Jigsaw.

Beispiele

Wir arbeiten mit dem MIT und der University of Regina zusammen an Testreihen. Dabei gehen wir verschiedenen Forschungsfragen nach. Unter anderem möchten wir ermitteln, ob Inhaltswarnungen in allen Kulturen gleich gut funktionieren sowie ob sich damit die Verbreitung von Falschinformationen reduzieren und die Verbreitung faktenbasierter Informationen erhöhen lässt. Außerdem möchten wir herausfinden, ob Nutzer im Laufe der Zeit richtige von falschen Informationen besser unterscheiden können.

Für diese Tests wurden Onlineumfragen in 16 Ländern mit mehr als 30.000 Teilnehmern durchgeführt. Die Teilnehmer sollten angeben, wie oft sie Nachrichtenüberschriften, die entweder Fehlinformationen enthalten oder faktenbasiert sind, mit anderen Nutzern teilen möchten.
Mit einem frühen Prototyp von Inhaltshinweisen wurden die Nutzer gebeten, die Richtigkeit von Schlagzeilen zu prüfen, ehe sie weiter recherchieren.

In Zusammenarbeit mit

Hill and Levene Schools of Business der University of Regina

Redirect Method

Radikalisierung im Internet verhindern
Das Programm „The Redirect Method“ zielt auf Personen ab, die anfällig für eine Rekrutierung durch extremistische Gruppen sind. Bei dem Pilotprojekt wurden Nutzer, die nach extremistischen Informationen suchten, mithilfe von Anzeigen zu ausgewählten Inhalten weitergeleitet, die den ISIS-Rekrutierungsbotschaften etwas entgegensetzen.

Hypothese

Während des Radikalisierungsprozesses gibt es ein gewisses Zeitfenster, in dem Personen, die sich über extremistische Ideologien informieren möchten, noch für Gegennarrative empfänglich sind, die diese Ideologien infrage stellen.

Funktionsweise

  • 1

    1. Eine Person führt eine Onlinesuche durch und verwendet dabei Suchbegriffe, die Interesse an extremistischer Propaganda offenbaren.

  • 2

    2. „The Redirect Method“ erkennt den Suchbegriff und zeigt automatisch Anzeigen mit aufklärendem Inhalt zum Thema an.

  • 3

    3. Die Person sieht eine Anzeige, die mehr Informationen zum jeweiligen Thema bietet.

  • 4

    4. Wenn die Person auf die Anzeige klickt, wird sie zu Inhalten weitergeleitet, die den Falschinformationen in extremistischen Narrativen etwas entgegensetzen.

Ergebnisse

  • 320,000
    Personen wurden bei dem achtwöchigen Pilotprojekts erreicht. Quelle: Jigsaw und Moonshot.
  • 500,000
    Minuten bereitgestellte Videos mit Gegennarrativen. Quelle: Jigsaw und Moonshot.

Beispiele

Die Open-Source-Methode The Redirect Method wurde von Jigsaw und Moonshot entwickelt. Als Grundlage dienten Befragungen von ISIS-Überläufern zur Rolle des Internets bei ihrem Radikalisierungsprozess. Dank der dabei gewonnenen Erkenntnisse wurde mithilfe von AdWords ein Pilotprogramm aufgesetzt. Bei dieser Kampagne sollten Personen, bei denen die Gefahr bestand, dass sie sich radikalisierten, über geschaltete Anzeigen mit passenden Gegennarrativen konfrontiert werden.
Entsprechende Inhalte wurden von Nutzern weltweit hochgeladen, die der Radikalisierung im Internet etwas entgegensetzen wollten. Sachverständige Fachleute wählten aus diesem Korpus das passende Material aus.

Die Kampagne legte den Fokus auf den Teil von ISIS-Sympathisanten, der am empfänglichsten für die Rekrutierungsbotschaften ist. Dabei zeigte sich, dass auch Inhalte, die nicht direkt als Gegennarrativ entwickelt wurden, radikalisierende Erzählungen unterlaufen können. Voraussetzung dafür ist, dass die Inhalte sorgfältig ausgewählt, strukturiert präsentiert und passend für die Zielgruppe sind. Seit 2016 arbeitet Moonshot mit verschiedenen Technologieunternehmen als Partner zusammen, darunter Facebook. Auf den Plattformen sollen über Anzeigen auch Menschen erreicht werden, die durch ihr Onlineverhalten Interesse an anderen Formen von Radikalisierung zeigen, zum Beispiel in Bezug auf rassistische Haltungen, ausgeprägte Frauenfeindlichkeit oder Verschwörungstheorien.
Ein Kampagnenverlauf zeigt, wie Moonshot „The Redirect Method“ verwendet, um Personen zu sicheren Inhalten umzuleiten. In diesem Fall waren das Angebote zum Ausstieg aus Bewegungen für die „Vorherrschaft der Weissen“.

In Zusammenarbeit mit

Moonshot

Authorship Feedback

Gesprächsklima von Onlinediskussionen verbessern
Über Authorship Feedback erhalten Verfasser von Kommentaren, deren Beiträge als anstößig aufgefasst werden können, Feedback in Echtzeit. Dabei kommt die Perspective API zum Einsatz – ein Tool, das mithilfe von künstlicher Intelligenz unangemessene Äußerungen erkennt.

Hypothese

Wenn Nutzer einen Moment innehalten, ihre Aussage abwägen und deshalb ihren Kommentar umformulieren, kann das zu einem besseren Gesprächsklima von Onlinediskussionen beitragen.

Funktionsweise

  • 1

    1. Die Person schreibt einen Kommentar, der als unangemessen eingestuft wird – also als ein Beitrag, der als unhöflich, respektlos oder unzumutbar wahrgenommen werden könnte und andere Diskussionsteilnehmer potenziell dazu veranlasst, aus einer Unterhaltung auszusteigen.

  • 2

    2. Die Perspective API erkennt die „unangemessenen Formulierungen“ in einem Kommentar mithilfe von Modellen für maschinelles Lernen, die beleidigende Sprache identifizieren.

  • 3

    3. Eine Meldung von Authorship Feedback wird angezeigt. Darin wird die Person darüber informiert, dass ihr Kommentar als provozierend/anstößig eingestuft wurde oder nicht mit den Community-Richtlinien des Publishers übereinstimmt.

  • 4

    4. Die Person wird aufgefordert, Formulierungen zu ändern, bevor sie den Kommentar veröffentlicht.

Ergebnisse

  • 34%
    der Nutzer, die Feedback von der Perspective API erhalten haben, haben ihre Kommentare überarbeitet. Quelle: Jigsaw.

Beispiele

Wir haben ein Feature entwickelt, das sich direkt in ein Publikationssystem mit Kommentarfunktion einbinden lässt. Dafür sind wir Partnerschaften mit verschiedenen Websites eingegangen. Wenn ein Nutzer einen Kommentar eingibt, werden die einzelnen Formulierungen mithilfe der Perspective API vor der Veröffentlichung geprüft.

Die API gibt für den Kommentar ein Wahrscheinlichkeitswert zurück, der angibt, ob andere Nutzer die Äußerungen als unangemessen empfinden könnten. Liegt diese Bewertung über einem vorab definierten Schwellenwert, wird dem Verfasser eine Meldung angezeigt und er erhält die Gelegenheit, den Kommentar neu zu formulieren. Im Anschluss wurden die Kommentare analysiert, um die Bearbeitungsraten und den Gesamteffekt zu ermitteln.
Nachrichten von Authorship Feedback werden rot unter einem unangemessenen Kommentar auf Websites angezeigt, die von OpenWeb unterstützt werden.

In Zusammenarbeit mit

OpenWeb
Coral

Prebunking

Widerstandsfähigkeit gegenüber Manipulation erhöhen
Der Ansatz „Prebunking“ ermöglicht, Manipulationsversuchen über eine Onlineplattform präventiv entgegenzuwirken. Personen werden mithilfe von Videos vorgewarnt und auf bestimmte Strategien vorbereitet. Sie erkennen danach irreführende Argumente leichter und können sie widerlegen. Das erhöht auch die Resilienz gegen die Beeinflussung durch künftige Irreführungen.

Hypothese

Mithilfe von präventiver Aufklärung können Menschen Manipulationsstrategien und -narrative leichter erkennen, z. B. die Behauptung, dass „Impfstoffe unnatürlich sind“, oder die Aussage, dass Geflüchtete Arbeitsplätze wegnehmen.

Funktionsweise

  • 1

    1. Eine Gruppe von Nutzern sieht ein Prebunking-Video in den Feeds der sozialen Medien.

  • 2

    2. In dem kurzen Video wird die Person über Manipulationsversuche aufgeklärt, die ihr online unter Umständen begegnen.

  • 3

    3. Außerdem werden den Personen relevante Beispiele für eine Manipulationsstrategie oder ein typisches Narrativ gezeigt. Anschließend erhalten sie Gegenargumente, anhand derer sich bestimmte Behauptungen widerlegen lassen.

  • 4

    4. Im Anschluss erfolgt eine kleine Umfrage. Je nachdem wie gut die Personen, die das Video gesehen haben, sich dabei im Vergleich zur Kontrollgruppe an die Techniken erinnern können, lässt sich die Wahrscheinlichkeit einschätzen, wie resilient diese Nutzer in Zukunft gegen manipulative Inhalte sind.

Ergebnisse

  • 73%
    aller Personen, die ein Prebunking-Video angesehen haben, waren langfristig eher in der Lage, Fehlinformationen im Internet zu erkennen. Quelle: Science Advances .
  • 5%
    Durch Prebunking-Videos, z. B. YouTube-Anzeigen, wurden Manipulationstechniken um 5 % häufiger erkannt. Quelle: Science Advances.

Ansätze und Beispiele

Gemeinsam mit Partnern von akademischen Institutionen wie der University of Cambridge, der Harvard University und der American University haben wir im Labor und in Liveumgebungen das sogenannte „Prebunking“ getestet. Im Gegensatz zu den Faktenchecks beim „Debunking“ geht es bei diesem Ansatz darum, über kurze Videonachrichten die Resilienz gegen Beeinflussung durch gängige rhetorische Strategien und Narrative, die bei der Verbreitung von Fehlinformationen eingesetzt werden, zu stärken.
BBC Media Action, die University of Cambridge und Jigsaw entwickelten einen Leitfaden zur Vorwarnung durch „Prebunking“, um Anwendern Richtlinien und grundlegende Anforderungen zum Erstellen eigener „Prebunking“-Nachrichten zu geben. PDF herunterladen

In Zusammenarbeit mit

University of Cambridge
BBC Media Action
Demagog, NASK und Jigsaw haben verschiedene Videos erstellt, um flüchtlingsfeindlichen Narrativen über Ukrainer entgegenzuwirken, die in Mittel- und Osteuropa leben. Alle Videos auf YouTube ansehen.

In Zusammenarbeit mit

In Zusammenarbeit mit der Cambridge University und der University of Bristol haben wir 5 Aufklärungsvideos erstellt, die über die typischen im Internet zu findenden Manipulationstechniken informieren. Alle Videos auf YouTube ansehen

In Zusammenarbeit mit

University of Cambridge
In Partnerschaft mit der Harvard T.H. Chan School of Public Health der American University und ausgebildeten Medizinern haben wir eine Videoreihe entwickelt, mit der wir proaktiv über typische irreführende Narrative beim Thema Impfstoffsicherheit aufklären. Alle Videos auf YouTube ansehen

In Zusammenarbeit mit

POLARIZATION & EXTREMISM.
RESEARCH & INNOVATION LAB
Das globale Medienkompetenzprogramm „Hit Pause“ von YouTube informiert Zuschauer weltweit über die Möglichkeiten, Falschinformationen zu erkennen. Das erste Set beruht auf der Arbeit von Jigsaw darüber, wie sich allgemeine Manipulationstechniken wie emotionale Sprache erkennen lassen. Alle Videos auf YouTube ansehen

Erstellt von

YouTube

In Zusammenarbeit mit

National Association for Media Literacy Education (NAMLE)

Jigsaw ist ein Tochterunternehmen von Google, bei dem es um die Entwicklung skalierbarer Technologielösungen zum Schutz vor Bedrohungen für offene Gesellschaften geht.