التدخلات المعلوماتية

هي مجموعة من الطرق المنهجية تهدف إلى تعزيز القدرة على مواجهة الأضرار التي يمكن التعرّض لها على الإنترنت. وتستند هذه الطرق إلى أبحاث علمية سلوكية وتخضع لتجارب رقمية للتحقّق من فعاليتها.

الرسائل التي تحث المستخدمين على توخي الدقة

إعادة تركيز انتباه المستخدم على الدقة
الرسائل التي تحث على توخي الدقة تطلب من المستخدمين التحقّق من مدى مصداقية أي محتوى يظهر لهم، ما يذكّرهم بالتزامهم بأهمية عدم مشاركة أي معلومات إلا إذا كانت صحيحة ودقيقة.

الفرضية

إنّ تذكير المستخدمِين بأهمية توخي الدقة عند التعامل مع أي معلومات قد تكون خاطئة يمكن أن يعزِّز الاستعداد المسبق لدى المستخدمين للوصول إلى معلومات دقيقة ومشاركتها.

آلية العمل

  • 1

    1. يتنقّل المستخدم عبر وسائل التواصل الاجتماعي ويصادِف محتوى قد يتضمّن معلومات خاطئة.

  • 2

    2. يتم عرض رسالة تحث المستخدم على توخي الدقة وذلك في نافذة منبثقة فوق المحتوى.

  • 3

    3. يتم باختصار شرح سبب عرض هذا التذكير للمستخدم وبالتالي تحويل انتباهه إلى مدى دقة المحتوى باستخدام ملاحظات لتعزيز مهارة التعامل مع المعلومات.

  • 4

    4. سيُطلب من المستخدِم الآن أن يكون أكثر حرصًا وقد يعيد التفكير إذا صادف محتوى مشابهًا مجددًا في شبكات التواصل الاجتماعي.

النتائج

  • 50%
    الأشخاص الذين تلقّوا ملاحظات حول الدقة أصبحوا أكثر دراية بنسبة %50 بعادات المشاركة، مقارنةً بالمستخدمِين الذين لم يتلقّوا تلك الملاحظات. (المصدر: Jigsaw)
  • 11%
    كانت الإعلانات المعروضة ما قبل تشغيل الفيديوهات على YouTube سببًا في زيادة الثقة بنسبة تصل إلى %11، بعد ثلاثة أسابيع من عرضها للمشاهدين. (المصدر: Jigsaw)

الأمثلة

لقد عملنا بالشراكة مع MIT (معهد ماساتشوستس للتكنولوجيا) و"جامعة ريجينا" على سلسلة من التجارب لاختبار ما إذا كانت الرسائل التي تحث على توخي الدقة تحقّق نجاحًا بين الثقافات المختلفة، وتساهم في الحدّ من نشر المعلومات الخاطئة، وتشجّع على مشاركة المعلومات الصحيحة على الإنترنت، وتعزّز ثقة المستخدمِين في قدرتهم على تحديد مدى جودة المعلومات.

تم إجراء تجارب استطلاع على الإنترنت في 16 بلدًا وشمِلت أكثر من 30,000 مشارك، حيث طُلب منهم تحديد ما إذا كانوا ينوون مشاركة عناوين أخبار صحيحة أم خاطئة.
رسالة نموذجية يتم عرضها بشكل مسبق وتطلب من المستخدمِين التأكد من دقة عنوان الخبر قبل متابعة التصفُّح

بالشراكة مع

جامعة ريجينا وكليتَا "هيل" و"ليفين" لإدارة الأعمال

Redirect Method

التصدي لأفكار التطرّف على الإنترنت
Redirect Method هو برنامج يهدف للوصول إلى الأشخاص المعرّضين لأن يتم تجنيدهم من قِبل الجماعات الإرهابية المتطرّفة. استخدَم البرنامج التجريبي الإعلانات لإعادة توجيه المستخدمِين الذين يبحثون عن معلومات تحمل طابع التطرّف إلى محتوى تم إعداده بعناية لتفنيد الأفكار التي تروّج لها "داعش".

الفرضية

قبل أن يقع الأشخاص في فخ التطرّف في حال بحثهم عن معلومات عن أيديولوجيات متطرّفة، تظل لدينا فرصة لإقناعهم بمدى كذب ادعاءات هذه الجماعات المتطرّفة.

آلية العمل

  • 1

    1. يكمل الشخص عملية بحث على الإنترنت باستخدام كلمات رئيسية تشير إلى اهتمامه بالمواد الدعائية التي تروّج للتطرّف.

  • 2

    2. يبدأ هنا عمل برنامج Redirect Method من خلال التقاط الكلمة الرئيسية لبدء التدخل.

  • 3

    3. يُعرَض للمستخدِم إعلان يتضمّن مزيدًا من المعلومات حول الموضوع الذي يهمّه.

  • 4

    4. عند النقر على الإعلان، يُعاد توجيه المستخدِم إلى محتوى يفنِّد أكاذيب الجماعات المتطرفة.

النتائج

  • 320,000
    شخص تم الوصول إليهم على مدار 8 أسابيع من التشغيل التجريبي للبرنامج. (المصدر: Jigsaw وMoonshot)
  • 500,000
    دقيقة من الفيديوهات التي تفنّد الأكاذيب تم عرضها. (المصدر: Jigsaw وMoonshot)

الأمثلة

طوّرت كل من Jigsaw وMoonshot الطريقة المنهجية المفتوحة المصدر لبرنامج Redirect Method بعد إجراء مقابلات مع المنشقّين عن "داعش" بشأن دور الإنترنت في عملية التطرّف. ساهمت المعلومات التي تجميعها من هذه المقابلات في تصميم برنامج تجريبي باستخدام AdWords بهدف الوصول إلى الأشخاص المعرّضين لخطر التطرّف، كما تم توظيفها في إنشاء محتوى لعرض القصص التي تتصدّى لأفكار التطرّف.
كان المستخدمون من جميع أنحاء العالم يحمّلون المحتوى لمواجهة التطرّف على الإنترنت، وتم اختيار ذلك المحتوى من قِبل الخبراء المختصين.

تركّز طريقتنا المنهجية على مخاطبة شريحة الجمهور الأكثر قابلية للاقتناع بأفكار "داعش"، مع الوضع في الاعتبار أن أي محتوى يمكن أن يتصدّى بشكل فعّال لهذه الأفكار الضارة والخطيرة في حال تم إعداده بعناية لمخاطبة هذه الشرائح من الجمهور، حتى وإن لم يكن يرد بشكل مباشر على هذه الأفكار. ومنذ عام 2016، عقدت Moonshot شراكة مع مجموعة من شركات التكنولوجيا، من بينها Facebook، بهدف نشر إعلانات تخاطب الجماهير المهتمة بمواضيع مسيئة أخرى على الإنترنت، مثل تفوّق العرق الأبيض، والكراهية الشديدة للنساء وأعمال العنف ضدهن، ونظريات المؤامرة.
تعرض الصورة المتحركة الحملة التي تمارسها Moonshot باستخدام برنامج Redirect Method لإعادة توجيه الأشخاص إلى محتوى أكثر أمانًا. وفي هذه الحالة، يكون الهدف هو إبعاد المستخدمين عن المحتوى الخاص بحركات سيادة البِيض.

بالشراكة مع

moonshot

ميزة ‏Authorship Feedback

تعزيز جهود تحسين جودة المحادثات
تستفيد ميزة Authorship Feedback من Perspective API، وهي أداة تستخدم الذكاء الاصطناعي لرصد التعليقات المسيئة، بهدف توفير ملاحظات في الوقت الفعلي لكاتبي التعليقات ومساعدتهم على تعديل تعليقاتهم التي قد يُنظر إليها على أنّها مسيئة.

الفرضية

إنّ منح المستخدمِين فرصة للتوقّف ومراجعة تعليقاتهم والتفكير في صياغتها بطريقة أخرى يمكن أن يساهم في تحسين جودة المحادثات على الإنترنت.

آلية العمل

  • 1

    1. يكتب المستخدِم تعليقًا يتم تحديده بأنّه "مسيء" أو فظّ أو لا يمكن تقبّله، ما قد يتسبّب في مغادرة أحد الأشخاص للمناقشة.

  • 2

    2. تلتقط Perspective API التعليق المسيء باستخدام نماذج تعلُّم الآلة التي ترصد هذه النوعية من التعليقات.

  • 3

    3. يتم عرض رسالة من خلال ميزة Authorship Feedback لتنبيه المستخدِم إلى أنّ تعليقه يُعتبر مسيئًا أو خطيرًا أو أنّه يخالف إرشادات المنتدى التي حدَّدها الناشر.

  • 4

    4. يتم تشجيع المستخدم على تعديل تعليقه قبل نشره.

النتائج

  • 34%
    من المستخدمِين الذين تلقّوا ملاحظات من خلال Perspective API اختاروا تعديل تعليقاتهم. (المصدر: Jigsaw).

الأمثلة

لقد تشاركنا مع العديد من المواقع الإلكترونية وطوّرنا ميزة تم دمجها مباشرةً في أنظمة نشر التعليقات. وأثناء كتابة المستخدمِين للتعليقات، كان يتم فحص تعليقاتهم من خلال واجهة برمجة التطبيقات Perspective API قبل نشرها.

وإذا خالف التعليق القاعدة المحددة مسبقًا بخصوص المحتوى المسيء الذي ترصده Perspective API، يتم عرض تذكير للمستخدِم ومنحه فرصة لإعادة صياغة التعليق والمحاولة مرة أخرى. وبعد إعادة صياغة التعليق، كان يتم تحليله لتحديد معدّل التعديل وتأثيره بشكل عام.
تعرض ميزة Authorship feedback رسالة باللون الأحمر أسفل تعليق مسيء على أحد المواقع الإلكترونية المتاحة من خلال منصة OpenWeb.

بالشراكة مع

OpenWeb
Coral

كشف المعلومات الكاذبة

تعزيز القدرة على التصدّي لأساليب التضليل
إنّ كشف المعلومات الكاذبة هو أسلوب يهدف بشكل استباقي إلى التصدّي لمحاولات تضليل الأشخاص على الإنترنت. ومن خلال تحذير المستخدمِين بشكل مسبق وتدريبهم على كشف المناقشات المضلِّلة وتفنيدها، يصبح بمقدورهم التصدّي لمحاولات التضليل في المستقبل.

الفرضية

يمكن للرسائل الاستباقية أن تساعد المستخدمِين في تحديد الادعاءات والاستراتيجيات المضلّلة (مثل الادعاء بأنّ "اللقاحات غير طبيعية" أو أنّ اللاجئين يستولون على الوظائف).

آلية العمل

  • 1

    1. يتم عرض فيديو حول كشف المعلومات الكاذبة لمجموعة من المستخدمين على شكل إعلان في الخلاصة الخاصة بحساباتهم على وسائل التواصل الاجتماعي.

  • 2

    2. من خلال رسائل الفيديو القصيرة، يتم إعلام المستخدِم بالمحاولات المحتملة لتضليله على الإنترنت.

  • 3

    3. يُعرَض للمستخدِم مثال ذو صلة حول الأساليب أو الادعاءات المضلّلة، ثم تُقَدَّم له أدلة منطقية لتفنيد تلك الادعاءات.

  • 4

    4. من خلال إجراء استطلاع قصير لتحليل قدرة مشاهدي الفيديو على تذكُّر أساليب التضليل ومقارنة النتائج مع مجموعة مرجعية، يمكننا تقييم مدى قدرتهم على التصدّي للمحتوى المضلِّل في المستقبل.

النتائج

  • 73%
    من المستخدمِين الذين شاهدوا فيديوهات كشف المعلومات الكاذبة أصبحوا قادرين بشكل أكبر على التعرّف بانتظام على المعلومات الخاطئة على الإنترنت. (المصدر: Science Advances )
  • 5%
    ساهمت فيديوهات كشف المعلومات الكاذبة، ومنها الإعلانات على YouTube، في تعزيز إمكانية التعرّف على أساليب التضليل بنسبة %5. (المصدر: Science Advances)

الطريقة المنهجية والأمثلة عليها

من خلال إجراء اختبارات في المختبر وتجارب مباشرة بالشراكة مع أكاديميين في "جامعة كامبريدج" و"جامعة هارفارد" و"الجامعة الأمريكية"، أجرينا تجربة بخصوص كشف المعلومات الكاذبة عن طريق عرض رسائل فيديو قصيرة للمستخدمين لنعزز قدرتهم على التصدّي للاستراتيجيات البلاغية الشائعة والادعاءات التي يتم استخدامها لترسيخ المفاهيم والمعلومات الخاطئة.
تعاونت "بي بي سي ميديا أكشن" مع جامعة كامبريدج وJigsaw لتطوير دليل "كشف المعلومات الكاذبة"، الذي يقدِّم للمختصين الإرشادات والمتطلبات الأساسية لوضع الرسائل التي تكشف المعلومات الكاذبة والمضلّلة. تنزيل ملف PDF

بالشراكة مع

جامعة كامبريدج
بي بي سي ميديا أكشن
أنشأت كل من Demagog وNASK وJigsaw سلسلة من الفيديوهات لمواجهة القصص المناهضة للّاجئين الأوكرانيين في شرق ووسط أوروبا. شاهِد جميع الفيديوهات على YouTube.

بالشراكة مع

لقد أنشأنا بالتعاون مع "جامعة كامبريدج" و"جامعة بريستول" 5 فيديوهات تهدف إلى كشف بعض أساليب التضليل الشائعة على الإنترنت. شاهِد جميع الفيديوهات على YouTube.

بالشراكة مع

جامعة كامبريدج
لقد عملنا بشكل استباقي على تصحيح القصص المضلِّلة الشائعة عن أمان اللقاحات، وذلك بالشراكة مع باحثين علميين من "كلية T.H. Chan للصحة العامة في جامعة هارفارد" و"الجامعة الأمريكية"، بالإضافة إلى عدد من العاملين المحترفين والمدرَّبين في القطاع الصحي. شاهِد جميع الفيديوهات على YouTube.

بالشراكة مع

مختبر الأبحاث والابتكارات
حول الاستقطاب والتطرّف
تقدِّم منصة YouTube برنامجًا عالميًا لمحو الأمية الإعلامية بعنوان Hit Pause، ويساعد هذا البرنامج المشاهدين من مختلف أنحاء العالم على اكتساب المهارات اللازمة لكشف المعلومات الخاطئة. تستند المجموعة الأولية من المواد الإبداعية إلى أسلوب عمل Jigsaw في كشف أساليب التضليل الشائعة، مثل استخدام اللغة العاطفية. شاهِد جميع الفيديوهات على YouTube.

تم الإنشاء من قِبل

YouTube

بالشراكة مع

Namle (الرابطة الوطنية لمحو الأميّة الإعلامية)

Jigsaw هي وحدة في Google ترصد التهديدات التي تواجه المجتمعات المفتوحة وتبتكر وسائل تكنولوجية لإيجاد حلول قابلة للتطور.