Intervenciones de información

: Un conjunto de enfoques fundamentados por investigaciones de ciencia conductual y validados por experimentos digitales para generar resiliencia a los daños en línea.

Notificaciones de veracidad

Reorientar la atención del usuario hacia la precisión
En las notificaciones de veracidad, se les pide a las personas que consideren la veracidad de un fragmento de contenido, lo que las hace recordar su propio compromiso de compartir información exacta cuando es importante.

Hipótesis

Recordarles a las personas que piensen en la veracidad cuando estén a punto de enfrentarse a información falsa puede reforzar los objetivos de veracidad preexistentes de los usuarios.

¿Cómo funciona?

  • 1

    1. La persona se desplaza por el feed social y encuentra contenido con información potencialmente errónea.

  • 2

    2. Se activa un aviso de veracidad que aparece sobre el contenido.

  • 3

    3. Se proporciona una pequeña explicación de por qué apareció el recordatorio y se redirige la atención de la persona a la veracidad del contenido con sugerencias de alfabetización informativa.

  • 4

    4. Se le pide a la persona que sea más consciente para que pueda pensar dos veces cuando encuentre contenido similar en su feed.

Resultados

  • 50%
    Los usuarios que recibieron sugerencias de veracidad fueron un 50% más exigentes en sus hábitos de compartir frente a quienes no lo hicieron (fuente: Jigsaw).
  • 11%
    Tres semanas después de la exposición, el contenido previo a los videos en YouTube impulsó un aumento del 11% en la confianza (fuente: Jigsaw).

Ejemplos

Nos asociamos con el MIT y la University of Regina en una serie de experimentos para comprobar si las notificaciones de veracidad funcionan en todas las culturas, reducen el intercambio de información falsa, aumentan el intercambio de información verdadera en línea y aumentan la confianza de los usuarios en cuanto a su habilidad para determinar la calidad de la información.

Se realizaron experimentos de encuestas en línea en 16 países con más de 30,000 participantes en los que se les pidió que calificaran su intención de compartir titulares de noticias verdaderos y falsos.
Un primer prototipo de notificaciones de veracidad les pide a los usuarios que reflexionen sobre la veracidad de un titular de noticias antes de seguir navegando.

En asociación con

Hill and Levene Schools of Business at the University of Regina

Redirect Method

Interrupción de la radicalización en línea
Redirect Method es un programa destinado a llegar a personas vulnerables al reclutamiento por parte de grupos extremistas violentos. En la prueba piloto, se utilizaron anuncios para redirigir a los usuarios que buscaban información extremista a contenidos seleccionados que refutaban los mensajes de reclutamiento del ISIS.

Hipótesis

Existe una ventana de oportunidad durante el proceso de radicalización en la que se puede persuadir a las personas que están investigando ideologías extremistas con narrativas que las refutan.

¿Cómo funciona?

  • 1

    1. La persona realiza una búsqueda en línea con palabras clave que reflejan interés en propaganda extremista.

  • 2

    2. Redirect Method se inicia y detecta la palabra clave para intervenir.

  • 3

    3. Se le presenta a la persona un anuncio con más información sobre su tema de interés.

  • 4

    4. Cuando se hace clic en el anuncio, el sistema redirige a la persona a contenido que contrarresta las narrativas extremistas falsas.

Resultados

  • 320,000
    Personas a las que se llegó en una prueba piloto de 8 semanas (fuentes: Jigsaw y Moonshot)
  • 500,000
    Minutos de videos de contranarrativa publicados (fuentes: Jigsaw y Moonshot)

Ejemplos

Jigsaw y Moonshot desarrollaron la metodología de código abierto de Redirect Method a partir de entrevistas con desertores del ISIS sobre el papel que desempeñó Internet en su proceso de radicalización. Los resultados de la investigación permitieron diseñar un programa piloto que utilizaba AdWords a fin de llegar a las personas en riesgo de radicalización y mostrarles contenido con narrativas contrarias.
Expertos seleccionaron el contenido, que luego subieron usuarios de todo el mundo para hacer frente a la radicalización.

Nuestra metodología se enfocó en la parte del público del ISIS más susceptible a sus mensajes. Con ella, reconocimos que incluso el contenido no creado con el propósito de contrarrestar los mensajes puede socavar las narrativas dañinas cuando se selecciona, organiza y segmenta de manera eficaz. Desde 2016, Moonshot se ha asociado con una serie de empresas tecnológicas, incluida Facebook, para implementar publicidad para quienes expresan su interés en otras ideas dañinas en línea, como la supremacía blanca, la misoginia violenta y las teorías conspirativas.
Un flujo de campaña en el que se muestra cómo Moonshot usa Redirect Method a fin de redirigir a las personas a contenido más seguro (en este caso, servicios para salir de los movimientos de supremacía blanca).

En asociación con

moonshot

Authorship Feedback

Promover mejores conversaciones
Authorship Feedback utiliza la API de Perspective (una herramienta que emplea inteligencia artificial para detectar el lenguaje tóxico) a fin de proporcionar información en tiempo real a los comentaristas que escriben publicaciones destacando sus comentarios cuando podrían parecer ofensivos.

Hipótesis

Darles a los usuarios un momento para que se detengan, reflexionen y consideren diferentes formas de redactar sus comentarios puede contribuir a mejorar las conversaciones en línea.

¿Cómo funciona?

  • 1

    1. La persona escribe un comentario que se identifica como “tóxico”: un comentario grosero, irrespetuoso o poco razonable que probablemente haga que alguien abandone una conversación.

  • 2

    2. La API de Perspective detecta los comentarios “tóxicos” mediante modelos de aprendizaje automático que identifican el lenguaje abusivo.

  • 3

    3. Se muestra un mensaje de Authorship Feedback, que alerta a la persona de que su comentario se identificó como ofensivo o peligroso, o que no se ajusta a los lineamientos de la comunidad del publicador.

  • 4

    4. Se le sugiere al usuario que cambie su redacción antes de publicar el comentario.

Resultados

  • 34%
    Este porcentaje de los usuarios que recibieron comentarios a través de la API de Perspective decidió editar su mensaje (fuente: Jigsaw).

Ejemplos

Nos asociamos con numerosos sitios web y desarrollamos una función que se integra directamente en los sistemas de publicación de comentarios. A medida que los usuarios escribían comentarios, el texto se revisaba mediante la API de Perspective antes de publicarlo.

Si el comentario superaba un umbral predeterminado de lenguaje tóxico según la medición de la API de Perspective, se le mostraba al usuario un recordatorio y se le daba la oportunidad de reformular el comentario y volver a intentarlo. Se realizó un análisis posterior de los comentarios para determinar los índices de edición y el efecto global.
Mensaje de Autoría que se muestra en rojo debajo de un comentario tóxico en uno de los sitios web que admite OpenWeb.

En asociación con

OpenWeb
Coral

Desmentimiento anticipado

Aumentar la resistencia a la manipulación
El desmentimiento anticipado es una técnica para adelantarse a los intentos de manipulación en línea. Si se advierte a las personas y se las prepara para detectar y refutar los argumentos engañosos, se vuelven más resilientes ante los engaños futuros.

Hipótesis

Los mensajes anticipados pueden ayudar a los individuos a identificar las narrativas y estrategias manipuladoras (p. ej., la afirmación de que “las vacunas son antinaturales” o de que los refugiados les quitan el empleo a los residentes de un país).

¿Cómo funciona?

  • 1

    1. Se muestra un video de desmentimiento anticipado a un grupo de usuarios como anuncio en su feed de redes sociales.

  • 2

    2. Mediante breves mensajes de video, se informa a las personas de posibles intentos de manipulación en línea.

  • 3

    3. Se les muestra un ejemplo relevante de una técnica o narrativa manipuladora y, luego, se ofrecen contraargumentos para refutar la afirmación.

  • 4

    4. Si se analiza mediante una encuesta breve frente a un grupo de control qué tan bien recuerdan las técnicas los usuarios que miraron el video, podemos evaluar las probabilidades de que se resistan al contenido manipulador.

Resultados

  • 73%
    Este porcentaje de personas que miraron un video de desmentimiento anticipado era más propenso a detectar sistemáticamente la información errónea en línea (fuente: Science Advances)
  • 5%
    Los videos de desmentimiento anticipado en formato de anuncio de YouTube aumentaron un 5% el reconocimiento de las técnicas de manipulación (fuente: Science Advances)

Enfoque y ejemplos

Mediante pruebas de laboratorio y experimentos en vivo junto con socios académicos de la University of Cambridge, Harvard University y la American University, probamos el desmentimiento anticipado mediante mensajes breves en formato de video para promover la resistencia a las estrategias retóricas y las narrativas comunes que se usan a fin de perpetuar la información errónea.
BBC Media Action, la University of Cambridge y Jigsaw elaboraron una guía sobre “cómo desmentir la información errónea con anticipación” para darles a los profesionales lineamientos y requisitos básicos a fin de producir sus propios mensajes de este tipo. Descargar PDF

En asociación con

University of Cambridge
BBC Media Action
Demagog, NASK y Jigsaw crearon una serie de videos para hacer frente a las narrativas antirrefugiados sobre los ucranianos que viven en Europa Central y del Este. Mira todos los videos en YouTube.

En asociación con

En colaboración con la University of Cambridge y la University of Bristol, creamos 5 videos para desmentir con anticipación las técnicas de manipulación habituales en Internet. Mira todos los videos en YouTube.

En asociación con

University of Cambridge
En colaboración con académicos de Harvard T.H. Chan School of Public Health, American University y profesionales médicos capacitados, corregimos con anticipación las narrativas engañosas más comunes sobre la seguridad de las vacunas. Mira todos los videos en YouTube.

En asociación con

POLARIZATION & EXTREMISM.
RESEARCH & INNOVATION LAB
El programa de alfabetización mediática global Hit Pause de YouTube les enseña a los usuarios de los mercados a nivel mundial las habilidades necesarias para detectar información errónea. El conjunto inicial de creatividades se basa en el trabajo de Jigsaw para predecir las tácticas comunes de manipulación, como el uso de lenguaje emotivo. Mira todos los videos en YouTube.

Creación:

YouTube

En asociación con

Namle

Jigsaw es una unidad de Google que explora las amenazas que reciben las sociedades abiertas y que desarrolla tecnologías que incentivan la creación de soluciones escalables.