Interwencje dotyczące informacji:

Zestaw metod pomagających w uodpornieniu się na zagrożenia online, opartych na badaniach eksploracyjnych i potwierdzonych przez eksperymenty cyfrowe.

Podpowiedzi dotyczące prawdziwości treści

Skierowanie uwagi użytkownika na prawdziwość treści
Podpowiedzi dotyczące prawdziwości zachęcają użytkowników do zastanowienia się nad rzetelnością fragmentarycznych treści, przypominając im o zobowiązaniu do udostępniania informacji zgodnych z prawdą.

Hipoteza

Przypominanie użytkownikom o tym, że powinni pamiętać o rzetelności, kiedy mogą mieć do czynienia z fałszywymi informacjami, może ułatwić im osiągnięcie wyznaczonych celów w zakresie zgodności z prawdą.

Jak to działa

  • 1

    1. Użytkownik przewija swoje kanały społecznościowe i natrafia na treści mogące zawierać nieprawdziwe informacje.

  • 2

    2. Inicjowana jest podpowiedź dotycząca prawdziwości, która ukazuje się w oknie zasłaniającym treść.

  • 3

    3. Użytkownik otrzymuje krótkie wyjaśnienie, dlaczego przypomnienie zostało wyświetlone. Następnie wyświetlane są wskazówki dotyczące weryfikowania informacji skupiające uwagę na rzetelności treści.

  • 4

    4. Dzięki temu użytkownik staje się bardziej świadomy i gdy na swoim kanale natrafi na podobne treści, prawdopodobnie dokładniej się nad nimi zastanowi.

Wyniki

  • 50%
    Osoby, które otrzymywały wskazówki dotyczące prawdziwości, były o 50% ostrożniejsze w udostępnianiu treści w porównaniu z pozostałymi użytkownikami (źródło: Jigsaw).
  • 11%
    Reklamy wyświetlane przed filmem w YouTube w ciągu 3 tygodni spowodowały wzrost pewności w ocenie prawdziwości treści nawet o 11% (źródło: Jigsaw).

Przykłady

We współpracy z MIT i University of Regina przeprowadziliśmy serię eksperymentów, aby sprawdzić, czy podpowiedzi dotyczące prawdziwości oddziałują międzykulturowo, ograniczają udostępnianie fałszywych informacji, sprzyjają rozpowszechnianiu prawdziwych informacji w internecie i zwiększają pewność użytkowników co do umiejętności wybierania rzetelnych informacji.

W 16 krajach przeprowadziliśmy eksperymentalne ankiety wśród ponad 30 000 uczestników. Zapytaliśmy ich, jak oceniają swoje zamiary udostępniania nagłówków prawdziwych i fałszywych wiadomości.
Wczesny prototyp podpowiedzi dotyczącej prawdziwości, zachęcającej użytkowników do zastanowienia się nad rzetelnością nagłówka wiadomości przed kontynuowaniem przeglądania.

We współpracy z

University of Regina i Hill Levene

Redirect Method

Przerywanie procesu radykalizacji w internecie
Redirect Method to program mający na celu dotarcie do osób narażonych na rekrutację przez stosujące przemoc grupy ekstremistyczne. W ramach wdrożenia pilotażowego używano reklam, aby użytkowników szukających informacji na temat ruchów ekstremistycznych przekierowywać do specjalnie przygotowanych treści przeciwstawiających się przekazom rekrutacyjnym ISIS.

Hipoteza

W procesie radykalizacji istnieje okres, w którym osoby zgłębiające ideologie ekstremistyczne mogą zostać przekonane przez przeciwne narracje.

Jak to działa

  • 1

    1. Użytkownik przeszukuje internet za pomocą słów kluczowych, które wskazują na zainteresowanie propagandą ekstremistyczną.

  • 2

    2. Uruchamiany jest program Redirect Method, który wychwytuje słowo kluczowe w celu wywołania interwencji.

  • 3

    3. Użytkownikowi prezentowana jest reklama zachęcająca do wyświetlenia dodatkowych informacji na interesujący go temat.

  • 4

    4. Po kliknięciu reklamy użytkownik jest przekierowywany do treści, które obalają fałszywe narracje ekstremistów.

Wyniki

  • 320,000
    – liczba osób, do których udało się dotrzeć w ciągu 8 tygodni trwania wdrożenia pilotażowego (źródło: JigsawMoonshot).
  • 500,000
    – czas trwania prezentowanych filmów z przeciwstawnymi treściami (w minutach) (źródło: JigsawMoonshot).

Przykłady

Na podstawie wywiadów ze zbiegami z oddziałów ISIS zespoły Jigsaw i Moonshot opracowały program Redirect Method wykorzystujący metodologię typu open source, aby poznać rolę internetu w procesie radykalizacji ich poglądów. Na podstawie uzyskanych statystyk powstał program pilotażowy z wykorzystaniem AdWords mający na celu docieranie do osób zagrożonych radykalizacją i prezentowanie im treści o wydźwięku przeciwnym.
Treści były przesyłane przez użytkowników z całego świata, którzy chcieli przeciwstawić się radykalizacji w internecie, a następnie wybierane przez ekspertów-praktyków.

Skupiliśmy się na odbiorcach najbardziej podatnych na przekaz ISIS. Po zastosowaniu naszej metodologii okazało się, że nawet treści, które nie zostały stworzone pod kątem przeciwnego przekazu, mogą osłabić szkodliwe narracje, jeśli zostaną odpowiednio dobrane, zorganizowane i skutecznie ukierunkowane. Organizacja Moonshot już od 2016 roku współpracuje z szeregiem firm technologicznych, w tym z Facebookiem, aby prezentować reklamy osobom interesującym się innymi szkodliwymi treściami w internecie, w tym białą supremacją, przemocową mizoginią i teoriami spiskowymi.
Proces kampanii pokazujący, jak organizacja Moonshot korzysta z programu Redirect Method, aby przekierowywać użytkowników do bezpieczniejszych treści, w tym przypadku serwisów pomagających opuścić szeregi białych supremacjonistów.

We współpracy z

moonshot

Opinie dla autorów

Propagowanie lepszych rozmów
Opinie dla autorów wykorzystują Perspective API – narzędzie wykrywające toksyczny język za pomocą sztucznej inteligencji – aby dostarczać osobom komentującym informacje zwrotne w czasie rzeczywistym, kiedy ich posty mogą być postrzegane jako obraźliwe.

Hipoteza

Dając użytkownikom chwilę na zatrzymanie się, zastanowienie i rozważenie różnych sposobów sformułowania komentarzy, możemy poprawić jakość rozmów online.

Jak to działa

  • 1

    1. Użytkownik pisze komentarz zidentyfikowany jako „toksyczny” – niegrzeczny, lekceważący lub nieuzasadniony, który prawdopodobnie skłoni inne osoby do wycofania się z rozmowy.

  • 2

    2. Perspective API wyłapuje „toksyczne” komentarze, wykorzystując modele systemów uczących się, które rozpoznają obraźliwy język.

  • 3

    3. Wyświetlana jest opinia dla autora ostrzegająca użytkownika, że jego komentarz został uznany za ryzykowny lub obraźliwy albo niezgodny z wytycznymi dla społeczności pochodzącymi od wydawcy.

  • 4

    4. Użytkownika zachęca się do zmodyfikowania tekstu przed opublikowaniem komentarza.

Wyniki

  • 34%
    użytkowników, którzy otrzymali opinie z wykorzystaniem Perspective API, zdecydowało się na edycję swojego komentarza (źródło: Jigsaw).

Przykłady

We współpracy z kilkoma serwisami opracowaliśmy funkcję, którą można bezpośrednio zintegrować z systemami publikowania komentarzy. Gdy użytkownicy wpisywali komentarze, ich tekst był sprawdzany przez Perspective API przed opublikowaniem.

Jeśli komentarz przekraczał ustalony próg toksyczności języka mierzony przez Perspective API, użytkownik otrzymywał przypomnienie i mógł przeredagować swój komentarz oraz ponownie spróbować go opublikować. Komentarze były analizowane po publikacji, co pozwalało określić wskaźniki edycji i ogólny efekt.
Komunikat z opinią dla autora wyświetlony na czerwono pod toksycznym komentarzem na jednej z witryn obsługiwanych przez OpenWeb.

We współpracy z

OpenWeb
Coral

Obalanie mitów na wczesnym etapie

Zwiększenie odporności na manipulację
Obalanie mitów na wczesnym etapie to technika pozwalająca wyprzedzić próby manipulacji online. Ostrzegając użytkowników z wyprzedzeniem i wyposażając ich w umiejętność dostrzegania oraz obalania fałszywych argumentów, zwiększamy ich odporność na manipulacje w przyszłości.

Hipoteza

Komunikaty wyprzedzające mogą pomóc użytkownikom w identyfikowaniu manipulacyjnych narracji i strategii (na przykład twierdzeń, że „szczepionki są nienaturalne” lub że uchodźcy kradną miejsca pracy).

Jak to działa

  • 1

    1. Film na temat obalania mitów na wczesnym etapie jest prezentowany grupie użytkowników jako reklama w ich kanałach społecznościowych.

  • 2

    2. Za pomocą krótkich komunikatów filmowych użytkownik jest informowany o możliwych próbach manipulacji online.

  • 3

    3. Następnie użytkownikowi pokazywany jest odpowiedni przykład manipulacyjnej techniki lub fałszywego przekazu wraz z kontrargumentami obalającymi przedstawione twierdzenie.

  • 4

    4. Analizując poziom rozpoznawania technik przez użytkowników, którzy obejrzeli film, na podstawie krótkiej ankiety w porównaniu z grupą kontrolną, możemy ocenić ich prawdopodobieństwo oparcia się perswazji, gdy w przyszłości zetkną się z manipulacyjnymi treściami.

Wyniki

  • 73%
    użytkowników oglądających film na temat obalania mitów na wczesnym etapie częściej konsekwentnie dostrzegało dezinformację online (źródło: Science Advances).
  • 5%
    Wyświetlanie filmów na temat obalania mitów na wczesnym etapie jako reklam w YouTube zwiększyło poziom rozpoznawania technik manipulacji o 5% (źródło: Science Advances).

Podejście i przykłady

Wykorzystując badania laboratoryjne i eksperymenty na żywo prowadzone we współpracy z partnerami akademickimi z University of Cambridge, Harvard University oraz American University, przetestowaliśmy obalanie mitów na wczesnym etapie za pomocą krótkich komunikatów filmowych. Chcemy w ten sposób wzmacniać odporność na typowe strategie retoryczne i narracje, które są wykorzystywane do utrwalania dezinformacji.
BBC Media Action, University of Cambridge i Jigsaw opracowały przewodnik na temat obalania mitów na wczesnym etapie, zawierający praktyczne wskazówki i podstawowe wymagania dotyczące tworzenia własnych komunikatów ostrzegających przed dezinformacją. Pobierz plik PDF

We współpracy z

University of Cambridge
BBC Media Action
Demagog, NASK i Jigsaw stworzyły serię filmów, które mają na celu przeciwdziałanie antyuchodźczym przekazom na temat Ukraińców mieszkających w Europie Środkowo-Wschodniej. Obejrzyj wszystkie filmy w YouTube

We współpracy z

We współpracy z University of Cambridge i University of Bristol stworzyliśmy 5 filmów, których celem jest przedstawienie konkretnych technik manipulacji często spotykanych online. Obejrzyj wszystkie filmy w YouTube

We współpracy z

University of Cambridge
We współpracy z Harvard T.H. Chan School of Public Health, American University i przeszkolonymi pracownikami ochrony zdrowia z wyprzedzeniem skorygowaliśmy często spotykane fałszywe wypowiedzi na temat bezpieczeństwa szczepionek. Obejrzyj wszystkie filmy w YouTube

We współpracy z

POLARYZACJA I EKSTREMIZM.
LABORATORIUM BADAŃ I INNOWACJI
Dzięki opracowanemu przez YouTube globalnemu programowi świadomego korzystania z mediów Hit Pause widzowie na rynkach całego świata mogą nauczyć się wykrywania dezinformacji. Początkowy zestaw materiałów reklamowych bazuje na pracach Jigsaw polegających na obnażaniu typowych taktyk manipulacji, takich jak język nacechowany emocjonalnie. Obejrzyj wszystkie filmy w YouTube

Utworzone przez

YouTube

We współpracy z

Namle

Jigsaw to zespół w Google, który bada zagrożenia dla otwartych społeczeństw i tworzy technologię inspirującą skalowalne rozwiązania.