Intervenciones informativas:
un conjunto de estrategias, producto de una investigación basada en la ciencia de la conducta y validado tras una serie de experimentos digitales, para fomentar la resistencia a las ideas perniciosas en Internet.
Notificaciones de veracidad
Centrar la atención del usuario en la veracidadHipótesis
Cómo funciona
-
1
1. Un usuario está navegando en una red social y encuentra contenido que puede incluir desinformación.
-
2
2. Se muestra una notificación de veracidad que aparece sobre el contenido.
-
3
3. Se muestra una breve explicación sobre el motivo por el que ha aparecido este recordatorio y se comparten una serie de consejos sobre la alfabetización informacional para que el usuario pase a valorar la veracidad del contenido.
-
4
4. Se invita al usuario a tener más cuidado con este tipo de contenido y a cuestionarlo cuando se le muestre alguno similar en su feed.
Resultados
-
50%
Los usuarios a los que se les mostró algún consejo sobre la veracidad de la información fueron un 50 % más minuciosos a la hora de compartirla frente a aquellos que no los recibieron (fuente: Jigsaw).
-
11%
Los vídeos pre-roll de YouTube hicieron que la confianza aumentara hasta un 11 % al cabo de tres semanas (fuente: Jigsaw).
Ejemplos
Más de 30.000 participantes de 16 países rellenaron las encuestas online de este experimento, donde se les pedía que valoraran su intención de compartir titulares verídicos y falsos.
Redirect Method
Interrumpir la radicalización onlineHipótesis
Cómo funciona
-
1
1. El usuario hace una búsqueda online en la que emplea palabras clave que connotan cierto interés en propaganda extremista.
-
2
2. Redirect Method se activa y detecta las palabras clave para iniciar una intervención.
-
3
3. Al usuario en cuestión se le muestra un anuncio con más información sobre el tema que le interesa.
-
4
4. Al hacer clic en el anuncio, se redirige al individuo a otro contenido que contradice esa narrativa extremista falsa.
Resultados
Ejemplos
Distintos expertos en este ámbito escogieron entre todo el contenido que habían subido usuarios de todo el mundo para combatir la radicalización online de los usuarios.
Nuestra metodología, que se centra en la porción de la audiencia del EIIL más susceptible a este tipo de retórica, tiene en cuenta que incluso el contenido que no se ha creado expresamente para contradecir esta narrativa puede mitigar los efectos nocivos de este tipo de mensajes. Eso sí, siempre que se seleccione, organice y segmente de manera efectiva. Desde el 2016, Moonshot ha colaborado con un amplio abanico de empresas tecnológicas (como Facebook) para servir anuncios a los usuarios que muestran interés en ideas perniciosas en Internet, como la supremacía blanca, la misoginia violenta y las teorías conspirativas.
Inoculación
Mayor resistencia a la manipulaciónHipótesis
Cómo funciona
-
1
1. Se sirve un vídeo de inoculación a un grupo de usuarios a través de un anuncio en sus feeds de redes sociales.
-
2
2. Un breve mensaje de vídeo informa al usuario de que es posible que esté siendo objeto de manipulación en Internet.
-
3
3. Al usuario se le muestra un ejemplo relevante sobre una técnica o retórica manipulativa y se le proporciona una serie de contraargumentos.
-
4
4. Al analizar mediante una breve encuesta realizada con un grupo de control hasta qué punto los usuarios que ven vídeos recuerdan las técnicas, podemos valorar sus probabilidades de no dejarse influir por contenido manipulativo en el futuro.
Resultados
-
73%
de los usuarios que vieron un vídeo de inoculación tenían más probabilidades de identificar la desinformación online de forma regular (fuente: Science Advances).
-
5%
Los vídeos de inoculación que aparecían como anuncios de YouTube mejoraron el reconocimiento de las técnicas de manipulación en un 5 % (fuente: Science Advances).
Enfoque y ejemplos
Jigsaw es una unidad de Google que explora las amenazas a las sociedades abiertas y desarrolla tecnologías para inspirar soluciones escalables.