Intervenciones informativas:

un conjunto de estrategias, producto de una investigación basada en la ciencia de la conducta y validado tras una serie de experimentos digitales, para fomentar la resistencia a las ideas perniciosas en Internet.

Notificaciones de veracidad

Centrar la atención del usuario en la veracidad
Las notificaciones de veracidad hacen reflexionar a los usuarios sobre la veracidad del contenido que se presenta de forma muy escueta y, al mismo tiempo, les recuerdan que deben comprometerse a compartir información cierta cuando sea importante.

Hipótesis

Los usuarios pueden darle más prioridad a la veracidad si se les recuerda la importancia que tiene en el momento en que interactúen con contenido que incluye información falsa.

Cómo funciona

  • 1

    1. Un usuario está navegando en una red social y encuentra contenido que puede incluir desinformación.

  • 2

    2. Se muestra una notificación de veracidad que aparece sobre el contenido.

  • 3

    3. Se muestra una breve explicación sobre el motivo por el que ha aparecido este recordatorio y se comparten una serie de consejos sobre la alfabetización informacional para que el usuario pase a valorar la veracidad del contenido.

  • 4

    4. Se invita al usuario a tener más cuidado con este tipo de contenido y a cuestionarlo cuando se le muestre alguno similar en su feed.

Resultados

  • 50%
    Los usuarios a los que se les mostró algún consejo sobre la veracidad de la información fueron un 50 % más minuciosos a la hora de compartirla frente a aquellos que no los recibieron (fuente: Jigsaw).
  • 11%
    Los vídeos pre-roll de YouTube hicieron que la confianza aumentara hasta un 11 % al cabo de tres semanas (fuente: Jigsaw).

Ejemplos

Hemos colaborado con el Instituto Tecnológico de Massachusetts y la Universidad de Regina en una serie de experimentos para comprobar el funcionamiento de las notificaciones de veracidad en contextos multiculturales, así como para reducir el volumen de información falsa que se comparte, incrementar la cantidad de información verídica que circula en Internet y otorgar mayor seguridad a los usuarios a la hora de buscar información de calidad.

Más de 30.000 participantes de 16 países rellenaron las encuestas online de este experimento, donde se les pedía que valoraran su intención de compartir titulares verídicos y falsos.
Uno de los primeros prototipos de las notificaciones de veracidad que invita a los usuarios a reflexionar sobre si los titulares son ciertos antes de seguir navegando.

En colaboración con

Universidad de Regina y Hill levene

Redirect Method

Interrumpir la radicalización online
Redirect Method es un programa diseñado para llegar a aquellos usuarios más susceptibles a las prácticas de reclutamiento de grupos extremistas violentos. La prueba piloto utilizaba anuncios para redirigir a los usuarios que buscaban información de carácter extremista a una selección de contenido que contradice las ideas que propaga el EIIL para atraer a nuevos miembros.

Hipótesis

Durante el proceso de radicalización de la persona que se está informando sobre ideologías extremistas, esto genera una oportunidad de cambiar su opinión mostrándole contraargumentos.

Cómo funciona

  • 1

    1. El usuario hace una búsqueda online en la que emplea palabras clave que connotan cierto interés en propaganda extremista.

  • 2

    2. Redirect Method se activa y detecta las palabras clave para iniciar una intervención.

  • 3

    3. Al usuario en cuestión se le muestra un anuncio con más información sobre el tema que le interesa.

  • 4

    4. Al hacer clic en el anuncio, se redirige al individuo a otro contenido que contradice esa narrativa extremista falsa.

Resultados

  • 320,000
    personas participaron en la prueba piloto de 8 semanas (fuente: Jigsaw y Moonshot).
  • 500,000
    minutos servidos de vídeos que contradicen esa narrativa (fuente: Jigsaw y Moonshot).

Ejemplos

Jigsaw y Moonshot desarrollaron Redirect Method, una metodología de software libre, a partir de una serie de entrevistas a desertores del Estado Islámico de Irak y el Levante (EIIL) sobre el papel que desempeñó Internet en su proceso de radicalización. A raíz de la valiosa información obtenida, diseñaron un programa piloto usando AdWords para llegar a los usuarios con mayor propensión a radicalizarse, y les sirvieron contenido con puntos de vista que contrarrestaban esa ideología.
Distintos expertos en este ámbito escogieron entre todo el contenido que habían subido usuarios de todo el mundo para combatir la radicalización online de los usuarios.

Nuestra metodología, que se centra en la porción de la audiencia del EIIL más susceptible a este tipo de retórica, tiene en cuenta que incluso el contenido que no se ha creado expresamente para contradecir esta narrativa puede mitigar los efectos nocivos de este tipo de mensajes. Eso sí, siempre que se seleccione, organice y segmente de manera efectiva. Desde el 2016, Moonshot ha colaborado con un amplio abanico de empresas tecnológicas (como Facebook) para servir anuncios a los usuarios que muestran interés en ideas perniciosas en Internet, como la supremacía blanca, la misoginia violenta y las teorías conspirativas.
El flujo de una campaña que muestra cómo a través de la metodología Redirect Method, Moonshot puede dirigir a los usuarios a contenido más seguro; en este caso, a un servicio para abandonar movimientos que promueven la supremacía blanca.

En colaboración con

moonshot

Sugerencias para los autores

Fomentar mejores conversaciones
La herramienta de sugerencias para los autores utiliza la API Perspective, una herramienta que aprovecha la inteligencia artificial para detectar el lenguaje tóxico. Gracias a esto, se pueden proporcionar sugerencias a los usuarios en tiempo real y hacerles saber si los comentarios que están escribiendo podrían ser ofensivos.

Hipótesis

Si dejamos que los usuarios se paren a pensar en cómo expresan sus ideas en los comentarios y se planteen otras maneras de formularlas, podemos fomentar un modelo más saludable de conversación en Internet.

Cómo funciona

  • 1

    1. Un usuario escribe un comentario que el sistema califica como tóxico; por ejemplo, uno de carácter grosero, que falta el respeto a otros o que simplemente es inaceptable y que probablemente provoque que otras personas abandonen la conversación.

  • 2

    2. La API Perspective identifica este comentario tóxico usando modelos de aprendizaje automático que reconocen el lenguaje abusivo.

  • 3

    3. Se muestra una sugerencia para el autor en la que se le advierte de que ese comentario podría infringir las normas de la comunidad del editor o ser ofensivo o problemático.

  • 4

    4. Se invita al usuario a modificar el lenguaje empleado antes de publicar el comentario.

Resultados

  • 34%
    de los usuarios que recibieron sugerencias de la API Perspective decidieron editar sus comentarios (fuente: Jigsaw).

Ejemplos

Hemos colaborado con varios sitios web para desarrollar una función que se integra directamente con los sistemas de publicación de comentarios. Conforme los usuarios van escribiendo, la API Perspective comprueba el contenido del comentario antes de publicarlo.

Si escriben un comentario con un lenguaje cuyo nivel de toxicidad es superior al umbral que se haya definido, según la medición de la API Perspective, verán un aviso y se les invitará a expresar su opinión de otra forma. Posteriormente, analizamos el índice de comentarios editados y valoramos la repercusión general de la API.
Mensaje de la herramienta de sugerencias para los autores en rojo, debajo de un comentario tóxico en uno de los sitios web compatibles con OpenWeb.

En colaboración con

OpenWeb
Coral

Inoculación

Mayor resistencia a la manipulación
La inoculación es una técnica que trata de prevenir los intentos de manipulación en Internet. Si avisamos a los usuarios y les enseñamos a identificar y refutar los argumentos engañosos, será menos probable que caigan en estas trampas en el futuro.

Hipótesis

Los mensajes preventivos pueden ayudar a los usuarios a identificar narrativas y estrategias manipulativas (como la afirmación de que las vacunas son antinaturales o que los refugiados nos quitan el trabajo).

Cómo funciona

  • 1

    1. Se sirve un vídeo de inoculación a un grupo de usuarios a través de un anuncio en sus feeds de redes sociales.

  • 2

    2. Un breve mensaje de vídeo informa al usuario de que es posible que esté siendo objeto de manipulación en Internet.

  • 3

    3. Al usuario se le muestra un ejemplo relevante sobre una técnica o retórica manipulativa y se le proporciona una serie de contraargumentos.

  • 4

    4. Al analizar mediante una breve encuesta realizada con un grupo de control hasta qué punto los usuarios que ven vídeos recuerdan las técnicas, podemos valorar sus probabilidades de no dejarse influir por contenido manipulativo en el futuro.

Resultados

  • 73%
    de los usuarios que vieron un vídeo de inoculación tenían más probabilidades de identificar la desinformación online de forma regular (fuente: Science Advances).
  • 5%
    Los vídeos de inoculación que aparecían como anuncios de YouTube mejoraron el reconocimiento de las técnicas de manipulación en un 5 % (fuente: Science Advances).

Enfoque y ejemplos

Junto con nuestros colaboradores académicos de la Universidad de Cambridge, la Universidad de Harvard y la Universidad Americana, hemos llevado a cabo experimentos en laboratorio y en vivo para estudiar la eficacia de la inoculación mediante mensajes de vídeo cortos en aras de evitar las estrategias retóricas y las narrativas que suelen utilizarse comúnmente para perpetuar la desinformación.
BBC Media Action, la Universidad de Cambridge y Jigsaw desarrollaron una guía sobre cómo protegernos de la desinformación, donde se proporcionan una serie de directrices y requisitos básicos para generar mensajes de inoculación. Descargar PDF.

En colaboración con

Universidad de Cambridge
BBC Media Action
Demagog, NASK y Jigsaw crearon una serie de vídeos para combatir la narrativa en detrimento de los refugiados ucranianos de Europa Central y Oriental. Echa un vistazo a los vídeos en YouTube.

En colaboración con

Junto con la Universidad de Cambridge y la Universidad de Bristol, hemos creado 5 vídeos de inoculación para que los usuarios conozcan ciertas técnicas de manipulación que se usan con frecuencia en Internet. Echa un vistazo a los vídeos en YouTube.

En colaboración con

Universidad de Cambridge
Junto con los académicos de la Harvard T.H. Chan School of Public Health y de la Universidad Americana y un equipo de profesionales del ámbito sanitario, hemos subsanado de antemano algunas de las narrativas engañosas más comunes sobre la seguridad de las vacunas. Echa un vistazo a los vídeos en YouTube.

En colaboración con

LABORATORIO DE INVESTIGACIÓN E INNOVACIÓN
SOBRE POLARIZACIÓN Y EXTREMISMO
El programa Hit Pause (Dale a Pausa) de YouTube sobre la alfabetización internacional en el mundo multimedia enseñará a los usuarios de todo el mundo las aptitudes necesarias para detectar la desinformación. Las primeras creatividades que lanzaron se basaban en los estudios de Jigsaw para identificar y contrarrestar las técnicas de manipulación más habituales, como el lenguaje emocional. Echa un vistazo a los vídeos en YouTube.

Creado por

YouTube

En colaboración con

NAMLE

Jigsaw es una unidad de Google que explora las amenazas a las sociedades abiertas y desarrolla tecnologías para inspirar soluciones escalables.