Info Interventions

: Een reeks benaderingen, ontwikkeld aan de hand van gedragswetenschappelijk onderzoek en gevalideerd door digitale experimenten, om weerbaarder te worden tegen schadelijke invloeden online.

Waarheidschecks

De aandacht van gebruikers richten op correcte informatie
Waarheidschecks vragen mensen te beoordelen of een hapklaar brokje content waarheidsgetrouw is, waarbij ze worden herinnerd aan hun eigen voornemen om juiste informatie te delen waar dit belangrijk is.

Hypothese

Door mensen te laten nadenken over de juistheid van informatie op het moment dat ze misschien onwaarheden gaan delen, kan hun oorspronkelijke wens om correcte informatie te delen, worden versterkt.

Hoe het werkt

  • 1

    1. Mensen scrollen door hun socialmedia-feed en zien content met mogelijk misleidende informatie.

  • 2

    2. Er wordt een waarheidscheck getriggerd, die over de content wordt getoond.

  • 3

    3. De gebruikers zien een korte uitleg over waarom ze de herinnering zien en hun aandacht wordt gericht op de juistheid van de content met tips voor digitale geletterdheid.

  • 4

    4. Ze worden zo bewuster gemaakt en denken misschien kritischer na als ze soortgelijke content in hun feed zien.

Bevindingen

  • 50%
    De mensen die waarheidstips kregen, letten 50% beter op hun deelgedrag dan gebruikers die deze niet kregen. (Bron: Jigsaw)
  • 11%
    Preroll-video's op YouTube leidden tot 11% meer vertrouwen, 3 weken nadat gebruikers ze hadden gezien. (Bron: Jigsaw)

Voorbeelden

Samen met MIT en de University of Regina hebben we een serie experimenten uitgevoerd om te testen of waarheidschecks werken in verschillende culturen, zodat er minder onware informatie wordt gedeeld, er meer ware informatie online wordt gedeeld en gebruikers meer vertrouwen krijgen in hun mogelijkheden om de kwaliteit van informatie in te schatten.

We hebben in 16 landen online enquêtes gehouden met meer dan 30.000 deelnemers, die moesten aangeven hoe waarschijnlijk het was dat ze bepaalde ware en onware nieuwskoppen zouden delen.
Een vroeg prototype van een waarheidscheck waarin gebruikers wordt gevraagd na te denken of een nieuwskop waar is voordat ze verder browsen.

In samenwerking met

University of Regina en Hill levene

Redirect Method

Online radicalisering afbreken
De Redirect Method is een programma om mensen te bereiken die het risico lopen om te worden geronseld door gewelddadige extremistische groeperingen. In de pilot werden advertenties gebruikt om gebruikers die zochten naar extremistische informatie, naar speciaal verzamelde content te leiden waarin de rekruteringsboodschappen van IS werden weerlegd.

Hypothese

Tijdens het radicaliseringsproces is er een moment waarop mensen die extremistische ideologieën onderzoeken van gedachten kunnen veranderen dankzij verhalen die deze ideologieën weerleggen.

Hoe het werkt

  • 1

    1. Gebruikers voeren een online zoekopdracht uit met zoekwoorden waaruit interesse in extremistische propaganda blijkt.

  • 2

    2. De Redirect Method wordt getriggerd door de zoekwoorden en start een interventie.

  • 3

    3. De gebruikers krijgen een advertentie te zien met meer informatie over het onderwerp.

  • 4

    4. Als de gebruikers op de advertentie klikken, worden ze naar content geleid die onware extremistische verhalen weerlegt.

Bevindingen

  • 320,000
    individuele gebruikers bereikt tijdens een pilot van 8 weken. (Bron: Jigsaw en Moonshot)
  • 500,000
    minuten aan video's met een tegengeluid getoond. (Source: Jigsaw en Moonshot)

Voorbeelden

Jigsaw en Moonshot hebben de opensource-methodiek van The Redirect Method ontwikkeld naar aanleiding van interviews met ex-IS'ers over de rol die het internet heeft gespeeld bij hun radicalisering. Aan de hand van de inzichten is er een pilotprogramma gemaakt met AdWords om mensen te bereiken die risico lopen om te radicaliseren en ze content met relevante tegengeluiden te laten zien.
De content is geselecteerd door deskundigen en geüpload door gebruikers uit de hele wereld om online radicalisering tegen te gaan.

De methode richt zich op het deel van de doelgroep dat het meest vatbaar is voor de boodschap van IS en toont aan dat zelfs content die niet gemaakt is om een tegengeluid te bieden, schadelijke invloeden kan ondermijnen als die content effectief wordt beheerd, geordend en getarget. Sinds 2016 werkt Moonshot samen met verschillende technologiebedrijven, waaronder Facebook, om advertenties te laten zien aan mensen die interesse hebben getoond in andere schadelijke online invloeden, zoals blanke overheersing, gewelddadige vrouwenhaat en complottheorieën.
Een campagneflow waarin te zien is dat Moonshot de Redirect Method toepast om gebruikers naar veiligere content te sturen. In dit geval diensten om bewegingen met een ideologie van blanke heerschappij te kunnen verlaten.

In samenwerking met

moonshot

Authorship Feedback

Betere gesprekken promoten
Authorship Feedback gebruikt de Perspective API (een tool die artificial intelligence gebruikt om aanstootgevend taalgebruik te herkennen) om in realtime feedback te geven aan reageerders die posts schrijven, door aan te geven waar hun reacties mogelijk kunnen worden beschouwd als aanstootgevend.

Hypothese

Door gebruikers een moment te geven om te pauzeren, na te denken en andere manieren te bedenken om hun reactie onder woorden te brengen, worden gesprekken online beter.

Hoe het werkt

  • 1

    1. Gebruikers schrijven een reactie die wordt beschouwd als aanstootgevend: een reactie die zo grof, respectloos of onredelijk is dat het aannemelijk is dat iemand daardoor een gesprek verlaat.

  • 2

    2. De Perspective API herkent de aanstootgevende reactie dankzij machinelearning-modellen die aanstootgevend taalgebruik in kaart brengen.

  • 3

    3. Er wordt een bericht met feedback voor auteurs getoond, waarin de gebruikers lezen dat het bericht is gemarkeerd als risicovol/aanstootgevend of niet voldoet aan de communityrichtlijnen van de uitgever.

  • 4

    4. De gebruikers worden gestimuleerd het taalgebruik aan te passen voordat ze de reactie publiceren.

Bevindingen

  • 34%
    van de gebruikers die feedback kregen via de Perspective API koos ervoor hun reactie aan te passen. (Bron: Jigsaw).

Voorbeelden

Samen met verschillende websites hebben we een functie ontwikkeld die rechtstreeks is geïntegreerd in systemen waarmee reacties worden gepubliceerd. Terwijl gebruikers een reactie typten, werd de tekst gecontroleerd door de Perspective API voordat de reactie werd gepubliceerd.

Als de reactie een vooraf ingestelde drempelwaarde voor aanstootgevende taal overschreed, zoals gemeten door de Perspective API, kregen gebruikers een herinnering te zien. Ze konden dan hun reactie aanpassen en deze opnieuw proberen te posten. Achteraf werden de reacties geanalyseerd om te bepalen hoe vaak ze waren bewerkt en wat het algemene effect was.
Authorship Feedback-bericht wordt getoond in rood onder een aanstootgevende reactie op een van de websites die worden ondersteund door OpenWeb.

In samenwerking met

OpenWeb
Coral

Prebunking

Meer weerstand tegen manipulatie
Prebunking is een techniek om online manipulatiepogingen af te breken. Door mensen vooraf te waarschuwen en ze te leren hoe ze misleidende argumenten kunnen herkennen en weerleggen, worden ze weerbaarder voor misleiding.

Hypothese

Onderbrekende berichten kunnen mensen helpen manipulatieve verhalen en strategiën te herkennen (zoals de bewering dat vaccinaties niet natuurlijk zijn of dat vluchtelingen banen stelen).

Hoe het werkt

  • 1

    1. Een prebunking-video wordt getoond aan een groep gebruikers als advertentie in hun socialmedia-feed.

  • 2

    2. Via korte videoberichten krijgen mensen informatie over mogelijke pogingen om ze online te manipuleren.

  • 3

    3. Gebruikers zien een relevant voorbeeld van een manipulatietechniek of -verhaal en krijgen dan tegenargumenten om de bewering te weerleggen.

  • 4

    4. Door via een korte enquête en een controlegroep te analyseren hoe goed de kijkers zich de technieken konden herinneren, kunnen we bepalen hoe waarschijnlijk het is dat ze weerbaar zijn tegen manipulatieve content als ze die later weer tegenkomen.

Bevindingen

  • 73%
    van de gebruikers die een prebunking-video had bekeken, kon eerder misleidende informatie online herkennen. (Bron: Science Advances)
  • 5%
    Prebunking-video's als YouTube-advertenties hebben ervoor gezorgd dat gebruikers manipulatietechnieken 5% beter konden herkennen. (Bron: Science Advances)

Strategie en voorbeelden

Aan de hand van labtests en live experimenten met academische partners van de University of Cambridge, Harvard University en de American University hebben we prebunking getest via korte videoberichten om de weerbaarheid te vergroten tegen veelgebruikte retorische strategieën en beweringen die worden gebruikt om misleidende informatie te verspreiden.
BBC Media Action, de University of Cambridge en Jigsaw hebben een prebunk-handleiding ontwikkeld waarin gebruikers richtlijnen en algemene vereisten krijgen om hun eigen prebunking-berichten te maken. Download de pdf

In samenwerking met

University of Cambridge
BBC Media Action
Demagog, NASK en Jigsaw hebben een serie video's gemaakt om anti-vluchtelingbeweringen te weerleggen over Oekraïners in Midden- en Oost-Europa. Bekijk alle video's op YouTube.

In samenwerking met

Samen met de University of Cambridge en de University of Bristol hebben we 5 video's gemaakt waarmee bepaalde veelvoorkomende online manipulatietechnieken kunnen worden geprebunkt. Bekijk alle video's op YouTube.

In samenwerking met

University of Cambridge
Samen met wetenschappers van de Harvard T.H. Chan School of Public Health, de American University en getrainde medisch professionals hebben we veelgebruikte misleidende beweringen over de veiligheid van vaccins weerlegd voordat mensen deze te zien kregen. Bekijk alle video's op YouTube.

In samenwerking met

POLARIZATION & EXTREMISM.
RESEARCH & INNOVATION LAB
Het wereldwijde YouTube-programma voor mediageletterdheid, Hit Pause, geeft mensen over de hele wereld de vaardigheden die ze nodig hebben om misleidende informatie te herkennen. De eerste reeks video's is gebaseerd op het werk van Jigsaw om veelgebruikte manipulatietechnieken, zoals emotioneel taalgebruik, te ondermijnen. Bekijk alle video's op YouTube.

Gemaakt door

YouTube

In samenwerking met

Namle

Jigsaw is een afdeling binnen Google die bedreigingen voor open samenlevingen onderzoekt en technologie ontwikkelt die tot schaalbare oplossingen leidt.