Info Interventions

: una serie di approcci, aggiornati in base a ricerche di scienze comportamentali e convalidati da esperimenti digitali, per sviluppare la resilienza ai danni online.

Richieste di accuratezza

Rifocalizzare l'attenzione dell'utente verso l'accuratezza
Le richieste di accuratezza suggeriscono alle persone di considerare la veridicità di un contenuto di dimensioni ridotte, spingendole a ricordare il proprio impegno a condividere informazioni accurate quando è importante.

Ipotesi

Ricordare alle persone di pensare all'accuratezza quando hanno a che fare con informazioni false può aumentare gli obiettivi di accuratezza preesistenti degli utenti.

Come funziona

  • 1

    1. La persona scorre il proprio feed social e si imbatte in contenuti potenzialmente disinformativi.

  • 2

    2. Viene attivata una richiesta di accuratezza che compare sopra il contenuto.

  • 3

    3. Alla persona viene fornita una breve spiegazione del motivo per cui vede il promemoria e la sua attenzione viene spostata sull'accuratezza del contenuto con suggerimenti sull'alfabetizzazione informativa.

  • 4

    4. La persona è ora invogliata a essere più consapevole e potrebbe pensarci due volte quando si imbatte in contenuti simili nel proprio feed.

Risultati

  • 50%
    Nel 50% dei casi, coloro che hanno ricevuto suggerimenti sull'accuratezza sono stati più accorti nel modo di condividere le informazioni rispetto a chi non li ha ricevuti (fonte: Jigsaw)
  • 11%
    I video pre-roll su YouTube hanno registrato un aumento della fiducia fino all'11%, tre settimane dopo l'esposizione (fonte: Jigsaw)

Esempi

Abbiamo collaborato con il MIT e la University of Regina a una serie di esperimenti per verificare se le richieste di accuratezza funzionano in modo interculturale, riducono la condivisione di informazioni false, incrementano la condivisione di informazioni vere online e aumentano la fiducia degli utenti nelle proprie capacità di governare la qualità delle informazioni.

Sono stati condotti sondaggi online in 16 paesi con oltre 30.000 partecipanti a cui è stato chiesto di valutare la propria inclinazione a condividere titoli di notizie vere e false.
Una richiesta di accuratezza per un prototipo iniziale che suggerisce agli utenti di riflettere sull'accuratezza del titolo di una notizia prima di continuare a navigare.

In collaborazione con

University of Regina e Hill levene

The Redirect Method

Interrompere la radicalizzazione online
The Redirect Method è un programma volto a raggiungere le persone vulnerabili al reclutamento da parte di gruppi estremisti violenti. Il programma pilota ha utilizzato gli annunci per reindirizzare gli utenti alla ricerca di informazioni estremiste verso contenuti scelti che confutano i messaggi di reclutamento dell'ISIS.

Ipotesi

Durante il processo di radicalizzazione, c'è una finestra di opportunità in cui le persone che stanno ricercando ideologie estremiste possono essere persuase da testimonianze che le confutano.

Come funziona

  • 1

    1. La persona completa una ricerca online utilizzando parole chiave che implicano un interesse per la propaganda estremista.

  • 2

    2. Viene avviato The Redirect Method, che richiede un intervento sulla base della parola chiave rilevata.

  • 3

    3. Alla persona viene presentato un annuncio con maggiori informazioni sul suo argomento di interesse.

  • 4

    4. Facendo clic sull'annuncio, la persona viene reindirizzata a contenuti che replicano a false testimonianze estremiste.

Risultati

  • 320,000
    persone raggiunte durante il progetto pilota di 8 settimane (fonte: Jigsaw e Moonshot)
  • 500,000
    minuti di video di controtestimonianze (fonte: Jigsaw e Moonshot)

Esempi

Jigsaw e Moonshot hanno sviluppato la metodologia open source The Redirect Method intervistando i disertori dell'ISIS sul ruolo di Internet nel loro processo di radicalizzazione. Gli approfondimenti hanno ispirato la progettazione di un programma pilota che utilizza AdWords per raggiungere le persone a rischio di radicalizzazione sfruttando i contenuti per offrire a queste ultime opportune controtestimonianze.
I contenuti sono stati caricati da utenti di tutto il mondo, per affrontare la radicalizzazione online, e selezionati da professionisti esperti.

Concentrandosi sulla fetta di pubblico più suscettibile ai messaggi dell'ISIS, la nostra metodologia riconosce che anche i contenuti non creati con lo scopo di offrire un messaggio contrapposto possono ancora minare le testimonianze dannose se scelti, organizzati e indirizzati in modo efficace. Dal 2016, Moonshot ha collaborato con una serie di aziende tecnologiche, tra cui Facebook, per distribuire pubblicità a coloro che esprimono interesse per altri contenuti online dannosi, tra cui supremazia bianca, misoginia violenta e teorie complottiste.
Il flusso di una campagna che mostra Moonshot che utilizza The Redirect Method per reindirizzare le persone a contenuti più sicuri, in questo caso servizi per lasciare i movimenti di supremazia bianca.

In collaborazione con

moonshot

Feedback durante la digitazione

Promuovere conversazioni migliori
Authorship Feedback utilizza l'API Perspective, uno strumento che sfrutta l'intelligenza artificiale per rilevare il linguaggio tossico, per fornire feedback in tempo reale ai commentatori che scrivono post, evidenziando quando i loro commenti potrebbero essere percepiti come offensivi.

Ipotesi

Concedere agli utenti un momento per fermarsi, riflettere e prendere in considerazione diversi modi di formulare i propri commenti può contribuire a migliorare le conversazioni online.

Come funziona

  • 1

    1. La persona scrive un commento identificato come "tossico": un commento maleducato, irrispettoso o irragionevole che potrebbe indurre qualcuno ad abbandonare una discussione.

  • 2

    2. L'API Perspective raccoglie il commento "tossico" utilizzando modelli di machine learning che identificano il linguaggio offensivo.

  • 3

    3. Viene visualizzato un messaggio di feedback agli autori, che notifica all'utente che il suo commento è stato identificato come rischioso/offensivo o che non è allineato con le Norme della community dell'editore.

  • 4

    4. La persona viene incoraggiata a modificare il proprio linguaggio prima di pubblicare il commento.

Risultati

  • 34%
    degli utenti che hanno ricevuto feedback basati sull'API Perspective ha scelto di modificare il proprio commento (fonte: Jigsaw).

Esempi

Abbiamo collaborato con diversi siti web e sviluppato una funzionalità direttamente integrata nei sistemi di pubblicazione dei commenti. Mentre gli utenti digitavano, il loro testo veniva controllato tramite l'API Perspective prima che il commento venisse pubblicato.

Se il commento superava una soglia predeterminata di linguaggio tossico misurata dall'API Perspective, all'utente veniva offerto un promemoria e l'opportunità di riformulare il proprio commento per riprovare. È stata condotta un'analisi a posteriori sui commenti per determinare la percentuale delle modifiche e l'effetto complessivo.
Messaggio del feedback durante la digitazione visualizzato in rosso sotto un commento tossico su uno dei siti web supportati da OpenWeb.

In collaborazione con

OpenWeb
Coral

Pre-bunking

Incrementare la resistenza alla manipolazione
Il pre-bunking è una tecnica per prevenire i tentativi di manipolazione online. Preallertando le persone e offrendo loro gli strumenti per individuare e confutare le argomentazioni fuorvianti, aumenta la loro resilienza alla disinformazione futura.

Ipotesi

I messaggi preventivi possono aiutare le persone a identificare testimonianze e strategie manipolative (ad esempio l'affermazione che "i vaccini sono innaturali" o che i profughi rubano posti di lavoro).

Come funziona

  • 1

    1. Viene presentato un video di prebunking a un gruppo di utenti come annuncio attraverso il feed di social media.

  • 2

    2. Attraverso brevi videomessaggi la persona viene informata di possibili tentativi di manipolazione online.

  • 3

    3. Alla persona viene mostrato un esempio pertinente di testimonianza o tecnica manipolativa e quindi vengono fornite controargomentazioni per confutare la tesi.

  • 4

    4. Analizzando come gli spettatori dei video ricordano le tecniche in un breve sondaggio relativo a un gruppo di controllo, possiamo valutare la probabilità con cui resisteranno ai contenuti manipolativi in futuro.

Risultati

  • 73%
    delle persone che hanno guardato un video di prebunking sono risultate più propense a individuare costantemente la disinformazione online (fonte: Science Advances)
  • 5%
    I video di prebunking sotto forma di annunci di YouTube hanno generato un aumento del 5% del riconoscimento delle tecniche di manipolazione (fonte: Science Advances)

Approccio ed esempi

Attraverso test di laboratorio ed esperimenti dal vivo insieme a partner accademici della University of Cambridge, della Harvard University e dell'American University, abbiamo testato il prebunking tramite brevi videomessaggi per promuovere la resistenza alle comuni strategie retoriche e testimonianze utilizzate per perpetuare la disinformazione.
BBC Media Action, University of Cambridge e Jigsaw hanno sviluppato una guida sul pre-bunking, per fornire ai professionisti linee guida e requisiti di base per produrre i propri messaggi di pre-bunking. Scarica il PDF

In collaborazione con

University of Cambridge
BBC Media Action
Demagog, NASK e Jigsaw hanno creato una serie di video per replicare alle testimonianze anti-profughi sugli ucraini che vivono nell'Europa centrale e orientale. Guarda tutti i video su YouTube.

In collaborazione con

In collaborazione con la University of Cambridge e la University of Bristol abbiamo creato cinque video di prebunking relativi a determinate tecniche di manipolazione comunemente riscontrate online. Guarda tutti i video su YouTube.

In collaborazione con

University of Cambridge
In collaborazione con i ricercatori della Harvard T.H. Chan School of Public Health, dell'American University e professionisti medici qualificati, abbiamo preventivamente corretto le comuni testimonianze fuorvianti sulla sicurezza dei vaccini Guarda tutti i video su YouTube.

In collaborazione con

POLARIZZAZIONE ED ESTREMISMO.
LAB DI RICERCA E INNOVAZIONE
Il programma globale di alfabetizzazione mediatica di YouTube, Hit Pause, aiuta a insegnare agli spettatori nei mercati di tutto il mondo le competenze per rilevare la disinformazione. Il set iniziale di creatività si basa sul lavoro di Jigsaw nel prebunking delle comuni tecniche di manipolazione, ad esempio il linguaggio emotivo. Guarda tutti i video su YouTube.

Creato da

YouTube

In collaborazione con

Namle

Jigsaw è un'unità interna di Google che esplora le minacce alle società aperte e crea tecnologie che ispirano soluzioni scalabili.