Intervenciones de información
: Un conjunto de enfoques fundamentados por investigaciones de ciencia conductual y validados por experimentos digitales para generar resiliencia a los daños en línea.
Notificaciones de veracidad
Reorientar la atención del usuario hacia la precisiónHipótesis
¿Cómo funciona?
-
1
1. La persona se desplaza por el feed social y encuentra contenido con información potencialmente errónea.
-
2
2. Se activa un aviso de veracidad que aparece sobre el contenido.
-
3
3. Se proporciona una pequeña explicación de por qué apareció el recordatorio y se redirige la atención de la persona a la veracidad del contenido con sugerencias de alfabetización informativa.
-
4
4. Se le pide a la persona que sea más consciente para que pueda pensar dos veces cuando encuentre contenido similar en su feed.
Resultados
-
50%
Los usuarios que recibieron sugerencias de veracidad fueron un 50% más exigentes en sus hábitos de compartir frente a quienes no lo hicieron (fuente: Jigsaw).
-
11%
Tres semanas después de la exposición, el contenido previo a los videos en YouTube impulsó un aumento del 11% en la confianza (fuente: Jigsaw).
Ejemplos
Se realizaron experimentos de encuestas en línea en 16 países con más de 30,000 participantes en los que se les pidió que calificaran su intención de compartir titulares de noticias verdaderos y falsos.
Redirect Method
Interrupción de la radicalización en líneaHipótesis
¿Cómo funciona?
-
1
1. La persona realiza una búsqueda en línea con palabras clave que reflejan interés en propaganda extremista.
-
2
2. Redirect Method se inicia y detecta la palabra clave para intervenir.
-
3
3. Se le presenta a la persona un anuncio con más información sobre su tema de interés.
-
4
4. Cuando se hace clic en el anuncio, el sistema redirige a la persona a contenido que contrarresta las narrativas extremistas falsas.
Resultados
Ejemplos
Expertos seleccionaron el contenido, que luego subieron usuarios de todo el mundo para hacer frente a la radicalización.
Nuestra metodología se enfocó en la parte del público del ISIS más susceptible a sus mensajes. Con ella, reconocimos que incluso el contenido no creado con el propósito de contrarrestar los mensajes puede socavar las narrativas dañinas cuando se selecciona, organiza y segmenta de manera eficaz. Desde 2016, Moonshot se ha asociado con una serie de empresas tecnológicas, incluida Facebook, para implementar publicidad para quienes expresan su interés en otras ideas dañinas en línea, como la supremacía blanca, la misoginia violenta y las teorías conspirativas.
Desmentimiento anticipado
Aumentar la resistencia a la manipulaciónHipótesis
¿Cómo funciona?
-
1
1. Se muestra un video de desmentimiento anticipado a un grupo de usuarios como anuncio en su feed de redes sociales.
-
2
2. Mediante breves mensajes de video, se informa a las personas de posibles intentos de manipulación en línea.
-
3
3. Se les muestra un ejemplo relevante de una técnica o narrativa manipuladora y, luego, se ofrecen contraargumentos para refutar la afirmación.
-
4
4. Si se analiza mediante una encuesta breve frente a un grupo de control qué tan bien recuerdan las técnicas los usuarios que miraron el video, podemos evaluar las probabilidades de que se resistan al contenido manipulador.
Resultados
-
73%
Este porcentaje de personas que miraron un video de desmentimiento anticipado era más propenso a detectar sistemáticamente la información errónea en línea (fuente: Science Advances)
-
5%
Los videos de desmentimiento anticipado en formato de anuncio de YouTube aumentaron un 5% el reconocimiento de las técnicas de manipulación (fuente: Science Advances)
Enfoque y ejemplos
Jigsaw es una unidad de Google que explora las amenazas que reciben las sociedades abiertas y que desarrolla tecnologías que incentivan la creación de soluciones escalables.