Interwencje dotyczące informacji:
Zestaw metod pomagających w uodpornieniu się na zagrożenia online, opartych na badaniach eksploracyjnych i potwierdzonych przez eksperymenty cyfrowe.
Podpowiedzi dotyczące prawdziwości treści
Skierowanie uwagi użytkownika na prawdziwość treściHipoteza
Jak to działa
-
1
1. Użytkownik przewija swoje kanały społecznościowe i natrafia na treści mogące zawierać nieprawdziwe informacje.
-
2
2. Inicjowana jest podpowiedź dotycząca prawdziwości, która ukazuje się w oknie zasłaniającym treść.
-
3
3. Użytkownik otrzymuje krótkie wyjaśnienie, dlaczego przypomnienie zostało wyświetlone. Następnie wyświetlane są wskazówki dotyczące weryfikowania informacji skupiające uwagę na rzetelności treści.
-
4
4. Dzięki temu użytkownik staje się bardziej świadomy i gdy na swoim kanale natrafi na podobne treści, prawdopodobnie dokładniej się nad nimi zastanowi.
Wyniki
-
50%
Osoby, które otrzymywały wskazówki dotyczące prawdziwości, były o 50% ostrożniejsze w udostępnianiu treści w porównaniu z pozostałymi użytkownikami (źródło: Jigsaw).
-
11%
Reklamy wyświetlane przed filmem w YouTube w ciągu 3 tygodni spowodowały wzrost pewności w ocenie prawdziwości treści nawet o 11% (źródło: Jigsaw).
Przykłady
W 16 krajach przeprowadziliśmy eksperymentalne ankiety wśród ponad 30 000 uczestników. Zapytaliśmy ich, jak oceniają swoje zamiary udostępniania nagłówków prawdziwych i fałszywych wiadomości.
Redirect Method
Przerywanie procesu radykalizacji w internecieHipoteza
Jak to działa
-
1
1. Użytkownik przeszukuje internet za pomocą słów kluczowych, które wskazują na zainteresowanie propagandą ekstremistyczną.
-
2
2. Uruchamiany jest program Redirect Method, który wychwytuje słowo kluczowe w celu wywołania interwencji.
-
3
3. Użytkownikowi prezentowana jest reklama zachęcająca do wyświetlenia dodatkowych informacji na interesujący go temat.
-
4
4. Po kliknięciu reklamy użytkownik jest przekierowywany do treści, które obalają fałszywe narracje ekstremistów.
Wyniki
Przykłady
Treści były przesyłane przez użytkowników z całego świata, którzy chcieli przeciwstawić się radykalizacji w internecie, a następnie wybierane przez ekspertów-praktyków.
Skupiliśmy się na odbiorcach najbardziej podatnych na przekaz ISIS. Po zastosowaniu naszej metodologii okazało się, że nawet treści, które nie zostały stworzone pod kątem przeciwnego przekazu, mogą osłabić szkodliwe narracje, jeśli zostaną odpowiednio dobrane, zorganizowane i skutecznie ukierunkowane. Organizacja Moonshot już od 2016 roku współpracuje z szeregiem firm technologicznych, w tym z Facebookiem, aby prezentować reklamy osobom interesującym się innymi szkodliwymi treściami w internecie, w tym białą supremacją, przemocową mizoginią i teoriami spiskowymi.
Obalanie mitów na wczesnym etapie
Zwiększenie odporności na manipulacjęHipoteza
Jak to działa
-
1
1. Film na temat obalania mitów na wczesnym etapie jest prezentowany grupie użytkowników jako reklama w ich kanałach społecznościowych.
-
2
2. Za pomocą krótkich komunikatów filmowych użytkownik jest informowany o możliwych próbach manipulacji online.
-
3
3. Następnie użytkownikowi pokazywany jest odpowiedni przykład manipulacyjnej techniki lub fałszywego przekazu wraz z kontrargumentami obalającymi przedstawione twierdzenie.
-
4
4. Analizując poziom rozpoznawania technik przez użytkowników, którzy obejrzeli film, na podstawie krótkiej ankiety w porównaniu z grupą kontrolną, możemy ocenić ich prawdopodobieństwo oparcia się perswazji, gdy w przyszłości zetkną się z manipulacyjnymi treściami.
Wyniki
-
73%
użytkowników oglądających film na temat obalania mitów na wczesnym etapie częściej konsekwentnie dostrzegało dezinformację online (źródło: Science Advances).
-
5%
Wyświetlanie filmów na temat obalania mitów na wczesnym etapie jako reklam w YouTube zwiększyło poziom rozpoznawania technik manipulacji o 5% (źródło: Science Advances).
Podejście i przykłady
Jigsaw to zespół w Google, który bada zagrożenia dla otwartych społeczeństw i tworzy technologię inspirującą skalowalne rozwiązania.