Info Interventions

: İnternetteki zararlı bilgilere karşı direnç oluşturmak için davranışa yönelik bilimsel araştırmalardan yararlanılan ve dijital deneyimler tarafından onaylanan bir dizi yaklaşım.

Doğruluk İstemleri

Kullanıcıların Dikkatini Yeniden Doğruluğa Çekin
Doğruluk İstemleri bireylerden, kısa içeriklerin doğruluğunu değerlendirmelerini ister ve doğru bilgiler paylaşma taahhütlerini kendilerine hatırlatır.

Hipotez

Yanlış bilgiler edinmek üzere olabilecek bireylere içeriklerin doğruluğunu değerlendirmeleri gerektiğini hatırlatmak, kullanıcıların taahhütleri arasında zaten olan doğruluk hedeflerine ulaşmalarına katkıda bulunabilir.

İşleyiş Şekli

  • 1

    1. Birey sosyal medya hesabındaki feed'de gezerken yanlış olabilecek bir bilgi görür.

  • 2

    2. Bunun sonucunda bir doğruluk istemi tetiklenir ve içeriğin üstünde belirir.

  • 3

    3. Bireye bu hatırlatmayı neden gördüğüyle ilgili kısa bir açıklama yapılır ve bilgi okuryazarlığı hakkında ipuçları sunularak bireyin dikkati içeriğin doğru olup olmadığına çekilir.

  • 4

    4. Bu aşamada bireyden daha dikkatli olması istenir ve feed'inde benzer içeriklerle karşılaştığında iki kez düşünmesi gerekebileceği kendisine hatırlatılır.

Bulgular

  • 50%
    Doğrulukla ilgili ipuçları verilen bireylerin, paylaşma alışkanlıkları konusunda diğerlerine kıyasla %50 daha anlayışlı olduğu görüldü. (Kaynak: Jigsaw)
  • 11%
    YouTube'da videolardan önce gösterilen reklamlar, yayınlanmalarından üç hafta sonra %11'e varan bir güven artışı sağladı. (Kaynak: Jigsaw)

Örnekler

Doğruluk istemlerinin farklı kültürlerde işe yarayıp yaramadığını, yanlış bilgi paylaşımını azaltıp azaltmadığını, internette doğru bilgi paylaşımını artırıp artırmadığını ve kullanıcıların kaliteli bilgilere erişim becerileri açısından daha fazla güven duymalarını sağlayıp sağlamadığını test etmek amacıyla bir dizi deney yapmak için MIT ve Regina Üniversitesi ile işbirliği yaptık.

Online anketlerden yararlanılan deneyler, 16 ülkede 30.000'den fazla katılımcıyla yapıldı. Katılımcılardan, doğru ve yanlış haber başlıklarını paylaşmaya yönelik niyetlerini derecelendirmeleri istendi.
Kullanıcılardan gezinmeye devam etmeden önce bir haber başlığının doğruluğunu değerlendirmelerini isteyen ve erken prototip aşamasında olan bir doğruluk istemi.

İş Ortakları

Regina Üniversitesi ve Hill levene

Redirect Method

İnternette Radikalleşmeyi Önleyin
Redirect Method, şiddet ve aşırılık yanlısı gruplara dahil olmaya müsait bireylere ulaşmayı hedefleyen bir programdır. Pilot programda, aşırılık yanlısı bilgiler arayan kullanıcılara ulaşıp onları IŞİD'in başkalarını bünyesine katmak amacıyla verdiği mesajları çürüten özel olarak seçilmiş içeriklere yönlendirmek üzere reklamlardan yararlanıldı.

Hipotez

Radikalleşme sürecinde, aşırılık yanlısı ideolojileri araştıran bireylerin, öğrendiklerini çürüten bilgiler sayesinde ikna edilebilmesi mümkündür.

İşleyiş Şekli

  • 1

    1. Birey, aşırılık yanlısı propagandaya ilgi duyduğunu gösteren anahtar kelimeleri kullanarak internette arama yapar.

  • 2

    2. Redirect Method başlatılır ve bir müdahale istemek için anahtar kelime tespit edilir.

  • 3

    3. Bireye, ilgilendiği konu hakkında daha fazla bilgi içeren bir reklam sunulur.

  • 4

    4. Reklamı tıklayan birey, aşırılık yanlısı doğru olmayan bilgileri çürüten içeriklere yönlendirilir.

Bulgular

  • 320,000
    8 haftalık pilot program ile ulaşılan kişi sayısı (Kaynak: Jigsaw ve Moonshot)
  • 500,000
    Caydırıcı bilgiler içeren videoların dakika cinsinden uzunluğu (Kaynak: Jigsaw ve Moonshot)

Örnekler

Redirect Method'ın açık kaynaklı metodolojisini geliştirmek için Jigsaw ve Moonshot, IŞİD'den kaçanlarla röportaj yapıp IŞİD'in radikalleşme sürecinde internetin oynadığı rolü öğrendi. Elde edilen bilgiler, radikalleşme riski taşıyan bireylere ulaşmak amacıyla AdWords'ün kullanıldığı bir pilot programın tasarımını şekillendirdi ve bu bireylere caydırıcı alakalı bilgiler sunmak için içeriklerden yararlanıldı.
İnternette radikalleşmeye karşı koymak amacıyla kullanılan içerikler dünyanın dört bir yanındaki kullanıcılar tarafından yüklendi ve uzman çalışanlar tarafından seçildi.

IŞİD'in mesajlarından etkilenmeye en müsait kitlesine odaklanan metodolojimiz, caydırıcı mesajlar vermek amacıyla hazırlanmayan içeriklerin bile derlenerek, düzenlenerek ve etkili bir şekilde sunularak zararlı bilgilerin etkilerini azaltabileceğini ortaya koydu. Moonshot, beyaz ırkın diğerlerinden daha üstün olduğunun savunulması, şiddet unsurları barındıran kadın düşmanlığı ve komplo teorileri gibi internette görülen diğer zararlı faaliyetlere ilgi gösterenlere reklamlar sunmak amacıyla 2016'dan bu yana farklı teknoloji şirketleriyle (Facebook dahil) işbirliği yaptı.
Moonshot'ın Redirect Method sayesinde bireyleri daha güvenli içeriklere (bu örnekte, beyaz ırkın diğerlerinden daha üstün olduğuna inanan gruplardan ayrılmaya yönelik hizmetler) yönlendirmesini gösteren bir kampanya akışı.

İş Ortakları

moonshot

Authorship Feedback

Daha İyi İletişimleri Teşvik Edin
Authorship Feedback, yorum yazan kullanıcıları yorumlarının rahatsız edici olarak anlaşılabileceği durumlarda uyararak onlara anlık geri bildirimler sunmak amacıyla Perspective API'den (rahatsız edici dil kullanımlarını tespit etmek için yapay zeka kullanan bir araç) yararlanır.

Hipotez

Kullanıcılara duraklamaları, değerlendirme yapmaları ve yorumlarını farklı şekillerde nasıl ifade edebileceklerini düşünmeleri için zaman tanımak internette daha iyi iletişim kurulmasını sağlayabilir.

İşleyiş Şekli

  • 1

    1. Birey, "rahatsız edici" olarak tanımlanan, yani kaba, saygısız veya başkasının bir tartışmadan ayrılmasına neden olabilecek makul olmayan bir yorum yazar.

  • 2

    2. Perspective API, uygunsuz dil kullanımını algılayan makine öğrenimi modelleri sayesinde "rahatsız edici" yorumu tespit eder.

  • 3

    3. Kişiyi, yazdığı yorumun riskli/rahatsız edici olduğu veya yayıncının topluluk kurallarına uymadığı konusunda uyaran bir içerik sahipliği geri bildirimi gösterilir.

  • 4

    4. Birey, yorumunu yayınlamadan önce başka bir dille ifade etmeye teşvik edilir.

Bulgular

  • 34%
    Perspective API tarafından desteklenen geri bildirimlerin sunulduğu kullanıcılar arasında yorumlarını düzenlemeyi tercih edenlerin oranı (Kaynak: Jigsaw).

Örnekler

Bazı web siteleriyle işbirliği yaptık ve yorum yayınlama sistemlerine doğrudan entegre edilebilen bir özellik geliştirdik. Kullanıcılar yorum yazdığı sırada, yazdıkları yorum yayınlanmadan Perspective API aracılığıyla kontrol edildi.

Yorumların Perspective API tarafından önceden belirlenen bir rahatsız edici dil kullanımı eşiğini aştığı durumlarda kullanıcılara hatırlatma yapıldı ve kendilerinden yorumlarını başka bir dille ifade ederek tekrar denemeleri istendi. Düzenleme oranlarını ve genel etkiyi belirlemek amacıyla yorumlarda post-hoc analizler gerçekleştirildi.
OpenWeb tarafından desteklenen web sitelerinin birindeki rahatsız edici bir yorumun altında kırmızı renkle gösterilen Authorship Feedback mesajı.

İş Ortakları

OpenWeb
Coral

Yanlış Bilgileri Önceden Çürütme

Manipülasyona Karşı Direnci Artırın
Yanlış bilgileri önceden çürütme, internetteki manipülasyon girişimlerini önlemek amacıyla kullanılan bir tekniktir. Bireyler kendilerini önceden uyaran ve yanıltıcı argümanları tespit edip çürütecek donanıma sahip olmalarını sağlayan bu teknik sayesinde ileride yanlış yönlendirilmeye karşı direnç kazanır.

Hipotez

Önleyici mesajlar, bireylerin manipülasyon amaçlı söylemleri ve stratejileri (ör. "aşıların doğal olmadığı" veya mültecilerin işleri çaldığı iddiası) belirlemelerine yardımcı olabilir.

İşleyiş Şekli

  • 1

    1. "Yanlış bilgileri önceden çürütme" ile ilgili bir video, bir dizi kullanıcının sosyal medya feed'inde reklam olarak gösterilir.

  • 2

    2. Kısa video mesajları sayesinde birey, internette karşılaşabileceği manipülasyon girişimleri hakkında bilgilendirilir.

  • 3

    3. Kişiye, bir manipülasyon tekniği veya söylemiyle ilgili bir örnek gösterilir ve yanlış bilgileri çürütmek için karşı argümanlar sunulur.

  • 4

    4. Kontrol grubuyla alakalı kısa bir anket aracılığıyla tekniklerin video izleyicileri tarafından ne kadar hatırlandığını analiz ederek, ileride manipülasyon amaçlı bir içeriğe direnme olasılıklarını değerlendirebiliriz.

Bulgular

  • 73%
    "Yanlış bilgileri önceden çürütme" videosu izleyen bireyler arasında internetteki yanlış bilgileri tutarlı bir şekilde tespit edebilenlerin oranı (Kaynak: Science Advances)
  • 5%
    YouTube reklamı olarak sunulan ve manipülasyon teknikleriyle ilgili farkındalığı %5 artıran "yanlış bilgileri önceden çürütme" videolarının sayısı (Kaynak: Science Advances)

Yaklaşım ve Örnekler

Cambridge Üniversitesi, Harvard Üniversitesi ve American Üniversitesi bünyesinde çalışan akademisyen iş ortaklarımızla birlikte yaptığımız laboratuvar testlerinde ve canlı deneylerde, yanlış bilgileri kalıcı hâle getirmek için sık kullanılan retorik stratejilere ve söylemlere karşı direnç oluşturmak amacıyla kısa video mesajlarıyla "yanlış bilgileri önceden çürütme" tekniğini test ettik.
BBC Media Action, Cambridge Üniversitesi ve Jigsaw, çalışanlara yanlış bilgileri önceden çürütmeyle ilgili kendi mesajlarını oluşturabilmeleri için talimatlar ve temel şartlar sunmak amacıyla bir "yanlış bilgileri önceden çürütme" rehberi hazırladı. PDF sürümünü indirin

İş Ortakları

Cambridge Üniversitesi
BBC Media Action
Demagog, NASK ve Jigsaw, Orta ve Doğu Avrupa'da yaşayan Ukraynalılar hakkındaki mülteci karşıtı söylemlere karşı bir video serisi oluşturdu. Tüm videoları YouTube'da izleyin.

İş Ortakları

Cambridge Üniversitesi ve Bristol Üniversitesi ile işbirliği yaparak, internette sık karşılaşılan manipülasyon tekniklerinin önceden çürütülmesini sağlamak amacıyla 5 video hazırladık. Tüm videoları YouTube'da izleyin.

İş Ortakları

Cambridge Üniversitesi
Harvard Üniversitesi T.H. Chan Kamu Sağlığı Fakültesindeki akademisyenler, American Üniversitesi ve eğitimli tıp uzmanlarıyla işbirliği yaparak, aşı güvenliği konusunda sık karşılaşılan yanlış bilgileri önlemeye yönelik düzeltmeler yaptık. Tüm videoları YouTube'da izleyin.

İş Ortakları

POLARIZATION & EXTREMISM
RESEARCH & INNOVATION LAB
YouTube'un küresel medya okuryazarlığı programı Hit Pause, dünya genelindeki pazarlarda yer alan izleyicilerin yanlış bilgileri tespit etme becerileri edinmesine yardımcı olur. İlk reklam öğesi grubu, sık karşılaşılan manipülasyon tekniklerini (ör. duygu odaklı konuşma) önceden çürütmeyle ilgili olarak Jigsaw tarafından yapılan çalışmalara dayanıyor. Tüm videoları YouTube'da izleyin.

Oluşturan

YouTube

İş Ortakları

Namle

Google kapsamındaki birimlerden biri olan Jigsaw, açık topluluklara yönelik tehditleri tespit eder ve ölçeklenebilir çözümlere ilham veren teknolojiler geliştirir.