Upozornenia na nepresnosť

Presmerovanie pozornosti používateľov na presnosť informácií
Upozornenia na nepresnosť používateľov vyzývajú, aby sa zamysleli nad vierohodnosťou úryvkov obsahu. Zároveň im pripomínajú, že aj oni by v rozhodujúcich momentoch mali zdieľať presné informácie.

Hypotéza

Ak sú ľudia upozornení na presnosť, keď hrozí, že natrafili na nepravdivé informácie, môže to zároveň zvýšiť nároky, ktoré oni sami na presnosť informácií kladú.

Ako to funguje

  • 1

    1. Používateľ si prezerá feed na sociálnej sieti a natrafí na obsah, ktorý môže obsahovať nepravdivé informácie.

  • 2

    2. Spustí sa upozornenie na nepresnosť, ktoré prekryje daný obsah.

  • 3

    3. Používateľovi sa zobrazí stručné vysvetlenie, prečo toto pripomenutie vidí, a jeho pozornosť je presmerovaná na presnosť obsahu a tipy na zvýšenie informačnej gramotnosti.

  • 4

    4. Používateľovi sa následne zobrazí upozornenie, že by mal byť obozretnejší a že by podobný obsah vo svojom feede v budúcnosti mal brať s rezervou.

Zistenia

  • 50%
    Používatelia, ktorým sa zobrazili tipy týkajúce sa presnosti, pri zdieľaní obsahu postupovali o 50 % opatrnejšie (v porovnaní s tými, ktorí tieto tipy nevideli). (Zdroj: Jigsaw)
  • 11%
    Videá zobrazené pred začatím prehrávania na YouTube priniesli až 11 % nárast dôveryhodnosti, a to 3 týždne po tom, čo im boli používatelia vystavení. (Zdroj: Jigsaw)

Príklady

V spolupráci s MIT a Univerzitou v Regine sme uskutočnili sériu experimentov, ktorých cieľom bolo otestovať, či upozornenia na nepresnosť fungujú v rôznych kultúrach, znižujú mieru zdieľania nepravdivých informácií, zvyšujú mieru zdieľania pravdivých informácií na internete a dodávajú používateľom väčšiu istotu v ich schopnosť správne posúdiť kvalitu informácií.

Tento experimentálny internetový prieskum prebiehal v 16 krajinách a zapojilo sa doň vyše 30 000 účastníkov, ktorí mali ohodnotiť svoj zámer zdieľať pravdivé a nepravdivé titulky.
Úvodný prototyp upozornenia na nepresnosť, ktoré používateľov vyzýva, aby sa zamysleli nad presnosťou novinového titulku, skôr než budú pokračovať v prehliadaní obsahu.

Partneri

Univerzita v Regine a Hill | levene

Redirect Method

Prerušenie radikalizácie na internete
Redirect Method je program zameraný na ľudí, pri ktorých existuje zvýšené riziko, že sa nechajú zlákať násilnými extrémistickými skupinami. Jeho pilotná verzia sa pomocou reklám snažila presmerovať používateľov hľadajúcich informácie extrémistického charakteru na vhodne vybraný obsah vyvracajúci tvrdenia, ktoré šírila organizácia ISIS s cieľom získať do svojich radov nových členov.

Hypotéza

V rámci procesu radikalizácie existuje isté časové okno, počas ktorého je ľudí zaujímajúcich sa o extrémistické ideológie ešte možné odradiť, ak sa im predložia vhodné protiargumenty.

Ako to funguje

  • 1

    1. Používateľ pri vyhľadávaní na internete použije kľúčové slová, ktoré naznačujú záujem o extrémistickú propagandu.

  • 2

    2. Spustí sa program Redirect Method, ktorý na základe detegovaného kľúčového slova odošle výzvu na intervenciu.

  • 3

    3. Používateľovi sa zobrazí reklama, v ktorej nájde viac informácií o hľadanej téme.

  • 4

    4. Po kliknutí na reklamu je používateľ presmerovaný na obsah, ktorý vyvracia nepravdivé tvrdenia extrémistov.

Zistenia

  • 320,000
    používateľov oslovených počas 8‑týždňovej pilotnej verzie (zdroj: JigsawMoonshot)
  • 500,000
    minút zobrazených videí vyvracajúcich tvrdenia extrémistov (zdroj: JigsawMoonshot)

Príklady

Jigsaw a Moonshot vyvinuli program Redirect Method s metodológiou typu open source. Vychádzali pri ňom z rozhovorov s bývalými členmi organizácie ISIS, ktorí opísali, akú úlohu v ich procese radikalizácie zohral internet. Na základe týchto zistení navrhli pilotný program, v rámci ktorého sa za pomoci služby AdWords oslovovali ľudia, pri ktorých hrozilo, že by sa mohli radikalizovať. Tým sa následne zobrazoval obsah s relevantnými protiargumentmi.
Tento obsah zameraný na boj proti radikalizácii na internete nahrali používatelia z celého sveta a výber z neho zostavili skúsení odborníci.

Naša metodológia sa sústredí na segment publika organizácie ISIS, pri ktorom existuje najväčšie riziko, že ho jej vyhlásenia presvedčia. Zohľadňuje aj to, že šancu oslabiť váhu škodlivých tvrdení má i obsah, ktorý pôvodne nevznikol na účely protiargumentácie – ak sa takýto obsah vyberie, usporiada a zacieli efektívne. Spoločnosť Moonshot od roku 2016 nadviazala partnerstvá už s mnohými technologickými spoločnosťami, napríklad aj s Facebookom, a spoločne nasadzujú reklamy používateľom, ktorí sa zaujímajú aj o iné typy škodlivého správania na internete vrátane nadradenosti bielej rasy, agresívnej mizogýnie a konšpiračných teórií.
Postup kampane, ktorý ukazuje, ako spoločnosť Moonshot pomocou programu Redirect Method presmerováva používateľov na bezpečnejší obsah. V tomto prípade ide o služby zamerané na vystúpenie z hnutí o nadradenosti bielej rasy.

Partneri

Moonshot

Spätná väzba pre autora

Skvalitnenie konverzácií
Spätná väzba pre autora používa rozhranie Perspective API, ktoré za pomoci umelej inteligencie rozpoznáva toxický jazyk. Komentujúcim, ktorí píšu príspevky, poskytuje spätnú väzbu v reálnom čase tak, že ich upozorní, ak by ich komentáre mohli vyznieť urážlivo.

Hypotéza

Keď majú používatelia možnosť na chvíľu sa pozastaviť, zamyslieť a pouvažovať nad iným sformulovaním svojich komentárov, môže to pomôcť skvalitniť konverzácie na internete.

Ako to funguje

  • 1

    1. Používateľ napíše komentár, ktorý je identifikovaný ako toxický (neslušný, neúctivý alebo neprimeraný) a pravdepodobne spôsobí, že niekto opustí diskusiu.

  • 2

    2. Rozhranie Perspective API tento toxický komentár deteguje za pomoci modelov strojového učenia, ktoré identifikujú agresívny jazyk.

  • 3

    3. Používateľovi sa zobrazí správa so spätnou väzbou pre autora, ktorá ho upozorní, že jeho komentár bol identifikovaný ako rizikový či urážlivý alebo že nedodržiava vlastníkove pokyny pre komunitu.

  • 4

    4. Používateľ je vyzvaný, aby znenie komentára pred zverejnením upravil.

Zistenia

  • 34%
    používateľov, ktorí dostali spätnú väzbu prostredníctvom rozhrania Perspective API, sa rozhodlo upraviť svoj komentár. (Zdroj: Jigsaw)

Príklady

V spolupráci s viacerými webmi sme vyvinuli funkciu, ktorá bola priamo integrovaná do systémov na zverejňovanie komentárov. Keď používatelia napísali komentár, jeho text pred zverejnením skontrolovalo rozhranie Perspective API.

Ak komentár prekročil určený prah toxického jazyka meraného rozhraním Perspective API, používateľovi sa zobrazilo pripomenutie a mal možnosť komentár preformulovať a skúsiť ho zverejniť znova. Následne prebehla dodatočná analýza komentárov, aby sa zistila miera úprav a celkový efekt.
Správa so spätnou väzbou pre autora zvýraznená červenou farbou, ktorá sa nachádza pod toxickým komentárom na jednom z webov podporovaných platformou OpenWeb.

Partneri

OpenWeb
Coral

Predbežná demystifikácia

Zvýšenie odolnosti proti manipulácii
Predbežná demystifikácia je technika, ktorá má zabrániť pokusom o manipuláciu na internete. Tým, že sú používatelia vopred varovaní a získajú návod, ako identifikovať a vyvracať zavádzajúce argumenty, zníži sa riziko, že by sa v budúcnosti takýmito informáciami nechali zaviesť.

Hypotéza

Správy s preventívnym varovaním môžu ľuďom pomôcť identifikovať manipulatívne tvrdenia a stratégie (napríklad že vakcíny sú neprirodzené alebo že utečenci nám kradnú prácu).

Ako to funguje

  • 1

    1. Kontrolnej skupine používateľov a skupine používateľov vystavených spornému obsahu sa vo feede sociálnych médií zobrazí demystifikačné video.

  • 2

    2. Používateľ je prostredníctvom krátkych videospráv informovaný o možných pokusoch o jeho manipuláciu na internete.

  • 3

    3. Používateľovi sa potom ukáže relevantný príklad manipulatívnej techniky alebo tvrdenia, ako aj protiargumenty, ktoré dané tvrdenie vyvracajú.

  • 4

    4. Analýzou nárastu miery zapamätania takýchto techník môžeme vyhodnotiť pravdepodobnosť, s akou budú používatelia schopní objektívne posúdiť manipulatívny obsah v budúcnosti.

Zistenia

  • 73%
    používateľov, ktorí si pozreli demystifikačné video, s väčšou pravdepodobnosťou identifikovalo nepravdivé informácie na internete. (Zdroj: časopis Science Advances)
  • 5%
    Demystifikačné videá vo forme reklám na YouTube zvýšili úspešnosť identifikácie manipulatívnych techník o 5 %. (Zdroj: časopis Science Advances)

Prístup a príklady

Prostredníctvom laboratórnych testov a experimentov v reálnom prostredí v spolupráci s akademickými partnermi z Cambridgeskej univerzity, Programu výskumu, vyhodnocovania a praktizovania pripravenosti na núdzové situácie (Emergency Preparedness Research, Evaluation, and Practice Program, EPREP) vedeného Harvardovou univerzitou a Americkej univerzity sme sa snažili otestovať predbežnú demystifikáciu prostredníctvom krátkych videospráv. Ich cieľom bolo zvýšiť odolnosť proti bežným vyjadrovacím stratégiám a klamlivým tvrdeniam, ktoré sa používajú na šírenie nepravdivých informácií.
BBC Media Action, Cambridgeská univerzita a Jigsaw vyvinuli sprievodcu tým, ako postupovať pri demystifikácii. Tí, ktorí majú záujem uviesť túto techniku do praxe, v ňom nájdu pokyny a základné požiadavky na tvorbu vlastných demystifikačných správ. Stiahnuť PDF

Partneri

Cambridgeská univerzita
BBC Media Action
Demagóg, Výskumná a akademická počítačová sieť (Naukowa i Akademicka Sieć Komputerowa, NASK) a Jigsaw vytvorili sériu videí, ktorých cieľom je vyvrátiť protiutečenecké vyjadrenia o Ukrajincoch žijúcich v strednej a východnej Európe. Pozrieť všetky videá na YouTube

Partneri

V spolupráci s Cambridgeskou univerzitou a Univerzitou v Bristole sme vytvorili päť videí zameraných na demystifikáciu konkrétnych manipulatívnych techník, s ktorými sa používatelia môžu bežne stretnúť na internete. Pozrieť všetky videá na YouTube

Partneri

Cambridgeská univerzita
V spolupráci s Harvardovou univerzitou, Americkou univerzitou a školenými zdravotníckymi profesionálmi sme preventívne vyvrátili bežné zavádzajúce tvrdenia o bezpečnosti vakcín. Pozrieť všetky videá na YouTube

Partneri

LABORATÓRIUM VÝSKUMU A INOVÁCIÍ
ZAMERANÝCH NA POLARIZÁCIU A EXTRÉMIZMUS
Hit Pause, celosvetový program služby YouTube zameraný na mediálnu gramotnosť, pomôže naučiť divákov na trhoch po celom svete rozpoznávať nepravdivé informácie. Úvodná skupina kreatív vychádza z práce platformy Jigsaw v oblasti demystifikácie bežných manipulatívnych taktík. Pozrieť všetky videá na YouTube

Autor

YouTube

Partneri

Národná asociácia pre mediálnu gramotnosť (National Association for Media Literacy Education, NAMLE)