Intervenções com informações

: um conjunto de abordagens criado para aumentar a resiliência contra danos on-line, baseado em pesquisa científica comportamental e validado por experimentos digitais.

Prompts de precisão

Mudar o foco do usuário para a precisão
Os prompts de precisão pedem aos indivíduos que analisem a veracidade de um pequeno trecho de conteúdo e os lembram do compromisso de compartilhar informações precisas em momentos importantes.

Hipótese

Lembrar as pessoas de analisarem a precisão antes de engajar com informações falsas pode aumentar as metas de precisão dos usuários.

Como funciona

  • 1

    1. O indivíduo rola o feed das redes sociais e se depara com uma potencial desinformação.

  • 2

    2. Um prompt de precisão é acionado e aparece sobre o conteúdo.

  • 3

    3. O indivíduo recebe uma explicação resumida sobre por que o lembrete é exibido, o que desvia a atenção dele para a precisão do conteúdo com dicas de letramento informacional.

  • 4

    4. Agora é mais provável que indivíduo fique atento e pense duas vezes ao encontrar conteúdo semelhante no feed.

Descobertas

  • 50%
    Aqueles que receberam dicas sobre a veracidade dos fatos foram 50% mais criteriosos ao compartilhar conteúdo em relação aos usuários que não receberam. (Fonte: Jigsaw)
  • 11%
    Três semanas depois de veiculados, os vídeos de anúncios precedentes no YouTube geraram um aumento de 11% na confiança. (Fonte: Jigsaw)

Exemplos

Em parceria com o Instituto de Tecnologia de Massachusetts (MIT) e a Universidade de Regina, fizemos uma série de experimentos para testar se os prompts de veracidade funcionam em diferentes culturas, reduzem o compartilhamento de informações falsas on-line, aumentam o de verdadeiras e aumentam a confiança dos usuários na própria capacidade de encontrar informações de qualidade.

Experimentos de pesquisa on-line foram realizados em 16 países com mais de 30.000 participantes. Os entrevistados tinham que avaliar a probabilidade de compartilharem manchetes de notícias verdadeiras e falsas.
Um protótipo inicial do prompt de precisão que pede aos usuários que analisem a precisão de uma manchete de notícias antes de continuar a navegar.

Em parceria com

Universidade de Regina e Hill Levene

Redirect Method

Interrompa a radicalização on-line
O Redirect Method é um programa destinado a atingir indivíduos vulneráveis ao recrutamento por grupos extremistas violentos. O piloto usou anúncios para redirecionar os usuários que procuram informações sobre grupos extremistas para um conteúdo selecionado que refuta as mensagens de recrutamento do Estado Islâmico.

Hipótese

Há uma janela de oportunidade durante o processo de radicalização em que indivíduos que pesquisam ideologias extremistas podem ser persuadidos por narrativas contrárias.

Como funciona

  • 1

    1. O indivíduo realiza uma pesquisa on-line com palavras-chave que indicam interesse em propaganda extremista.

  • 2

    2. O Redirect Method é acionado e detecta palavras-chave para solicitar uma intervenção.

  • 3

    3. Um anúncio com mais informações sobre o tema de interesse é apresentado ao indivíduo.

  • 4

    4. Ao clicar no anúncio, ele é redirecionado para um conteúdo que contradiz falsas narrativas extremistas.

Descobertas

  • 320,000
    indivíduos alcançados em um piloto de oito semanas. (Fonte: Jigsaw e Moonshot)
  • 500,000
    minutos de vídeos de contranarrativas veiculados. (Fonte: Jigsaw e Moonshot)

Exemplos

A Jigsaw e a Moonshot desenvolveram a metodologia de código aberto Redirect Method após entrevistarem desertores do Estado Islâmico sobre o papel da Internet no processo de radicalização. Os insights serviram de base na criação de um programa piloto com o AdWords para alcançar pessoas em risco de radicalização e veicular conteúdo com contranarrativas relevantes direcionado para elas.
O conteúdo foi enviado por usuários de todo o mundo para combater a radicalização on-line e foi selecionado por profissionais especializados.

Concentrando-se na parte do público-alvo do Estado Islâmico mais suscetível às mensagens, nossa metodologia reconhece que mesmo conteúdo que não foi criado com o objetivo de contra-argumentação pode enfraquecer narrativas prejudiciais quando selecionado, organizado e segmentado de maneira eficaz. Desde 2016, a Moonshot faz parceria com uma série de empresas de tecnologia, inclusive o Facebook, para veicular publicidade para pessoas que expressam interesse em outras pautas prejudiciais on-line, como supremacia branca, misoginia violenta e teorias da conspiração.
Um fluxo de campanha que mostra a Moonshot usando o Redirect Method para redirecionar indivíduos para um conteúdo mais seguro, nesse caso, um serviço para sair de movimentos de supremacia branca.

Em parceria com

moonshot

Feedback de Autoria

Promover conversas mais produtivas
O Feedback de Autoria usa a API Perspective, uma ferramenta com inteligência artificial que detecta linguagem tóxica, para fornecer feedback em tempo real durante a criação de postagens, informando às pessoas quando os comentários puderem ser ofensivos.

Hipótese

Dar aos usuários um momento para pausar, refletir e considerar diferentes maneiras de redigir um comentário contribui com conversas mais produtivas on-line.

Como funciona

  • 1

    1. O indivíduo escreve um comentário identificado como "tóxico", ou seja, rude, desrespeitoso ou injustificável que provavelmente fará alguém sair da conversa.

  • 2

    2. A API Perspective detecta o comentário "tóxico" com modelos de aprendizado de máquina que identificam linguagem abusiva.

  • 3

    3. Uma mensagem de feedback de autoria aparece e notifica o indivíduo de que o comentário foi identificado como perigoso/ofensivo ou não segue as diretrizes da comunidade do editor.

  • 4

    4. Ele é encorajado a adequar a linguagem antes de publicar o comentário.

Descobertas

  • 34%
    dos usuários que receberam feedback da API Perspective quiseram editar os comentários. (Fonte: Jigsaw).

Exemplos

Fizemos parceria com vários sites e desenvolvemos um recurso com integração direta aos sistemas de publicação de comentários. Conforme os usuários digitavam os comentários, o texto era verificado com a API Perspective antes da publicação.

Se o comentário excedesse um limite predeterminado de linguagem tóxica medido pela API Perspective, o usuário recebia um lembrete e tinha a oportunidade de reformular o texto e tentar de novo. Foi realizada uma análise post-hoc dos comentários para determinar as taxas de edição e o efeito geral desse recurso.
Mensagem do feedback de Autoria mostrada em vermelho abaixo de um comentário tóxico em um dos sites compatíveis com o OpenWeb.

Em parceria com

OpenWeb
Coral

Refutação preventiva

Aumentar a resistência à manipulação
Refutação preventiva é uma técnica para impedir tentativas de manipulação on-line. Ao prevenir os indivíduos e capacitá-los para identificar e refutar argumentos enganosos, eles ficam menos propensos a serem enganados no futuro.

Hipótese

Mensagens preventivas podem ajudar os indivíduos a identificar narrativas e estratégias manipuladoras (por exemplo, a alegação que "vacinas não são naturais" ou que refugiados roubam empregos).

Como funciona

  • 1

    1. Um vídeo com refutação preventiva é veiculado em um grupo de usuários como anúncio no feed das mídias sociais.

  • 2

    2. Com mensagens de vídeo curtas o indivíduo é informado sobre possíveis tentativas de manipulação on-line.

  • 3

    3. A pessoa vê um exemplo relevante de técnica ou narrativa manipuladora e depois contra-argumentos são apresentados para refutar a alegação.

  • 4

    4. Ao analisar em que medida o público que assistiu aos vídeos reconhecem as técnicas em uma breve pesquisa com grupos de controle, podemos avaliar a probabilidade dessas pessoas resistirem a conteúdo manipulador no futuro.

Descobertas

  • 73%
    das pessoas que assistiram a um vídeo com refutação preventiva tinham maior probabilidade de detectar desinformação on-line de modo consistente (Fonte: Science Advances)
  • 5%
    Vídeos com refutação preventiva, como anúncios do YouTube, aumentaram o reconhecimento de técnicas de manipulação em 5% (Fonte: Science Advances)

Abordagem e exemplos

Em ambientes controlados e experimentos práticos com parceiros acadêmicos da Universidade de Cambridge, da Universidade de Harvard e da American University, testamos a refutação preventiva. Usamos mensagens curtas de vídeo para promover a resistência a estratégias retóricas comuns e falsas alegações que perpetuam a desinformação.
A BBC Media Action, a Universidade de Cambridge e a Jigsaw desenvolveram um guia de "como fazer refutação preventiva", que fornece aos profissionais diretrizes e requisitos básicos para elaborar as próprias mensagens de refutação preventiva. Fazer o download do PDF

Em parceria com

Universidade de Cambridge
BBC Media Action
A Demagog, a NASK e a Jigsaw criaram uma série de vídeos para combater as narrativas anti-refugiados sobre os ucranianos que vivem na Europa Central e Oriental. Assistir todos os vídeos no YouTube.

Em parceria com

Em colaboração com a Universidade de Cambridge e a Universidade de Bristol, criamos cinco vídeos para refutar de forma preventiva técnicas de manipulação específicas encontradas com frequência on-line. Assista todos os vídeos no YouTube.

Em parceria com

Universidade de Cambridge
Em parceria com a Harvard T.H. Chan School of Public Health, a American University e profissionais médicos treinados, corrigimos de modo preemptivo narrativas enganosas comuns sobre a segurança das vacinas. Assista todos os vídeos no YouTube.

Em parceria com

POLARIZAÇÃO E EXTREMISMO.
LABORATÓRIO DE PESQUISA E INOVAÇÃO
Com o Hit Pause, um programa global de letramento de mídia do YouTube, os espectadores do mundo todo aprendem como detectar desinformação. O conjunto inicial de criativos se baseia no trabalho da Jigsaw para fazer a refutação preventiva de táticas de manipulação comuns. Assista todos os vídeos no YouTube.

Criado por

YouTube

Em parceria com

NAMLE (Associação Nacional para Educação em Letramento de Mídia)

A Jigsaw é uma unidade do Google que investiga ameaças às sociedades abertas e desenvolve tecnologias para inspirar soluções escalonáveis.