تسر يبات هوكن.. العراقيون أربكوا نظام فيسبوك الذكي

742

هالة السلام /

تداولت وسائل إعلام عالمية مؤخراً بعض التسريبات من محتوى الوثائق الداخلية التي كشفت عنها “فرانسيس هوغن”، الموظفة التي عملت لدى شركة فيسبوك، ثم قدمت شكاوى واتهامات في محكمة بريطانية ضد الشركة، معززة اتهاماتها بوثائق أخذتها قبل أن تترك العمل إلى الأبد.
انضمت هوغن إلى فريق عمل فيسبوك عام 2019 وشغلت منصب مديرة إنتاج في الشركة، قبل أن تغادر منصبها في أيار الماضي، وعملت في قضايا الديمقراطية والتضليل ومسائل مكافحة التجسس، وفق ما يظهره موقعها الشخصي وحسابها على موقع تويتر .
ماذا كشفت التسريبات؟
جعلَ الافتقار إلى الخبرة اللغوية المحلية والمعرفة الثقافية، من الصعب، إن لم يكن من المستحيل، قمع الطائفية عبر الإنترنت، وغيرها من أشكال المحتوى الضار الذي يستهدف الفئات الضعيفة المحلية، قد يكون لهذه الإخفاقات تأثير كبير على العنف في العالم الحقيقي، وفقاً لباحثي الفيسبوك وخبراء خارجيين.
التحريض على الكراهية
فقد بينت الوثائق أنه في أواخر عام 2020، توصل باحثو الفيسبوك إلى نتيجة مفادها أن جهود الشركة لم تنجح في الحد من خطاب الكراهية في العالم العربي.
إذ نجحت في إزالة 6% فقط من المحتوى الذي يحرض على الكراهية باللغة العربية في تطبيق إنستغرام ومعدل 40% في موقع الفيسبوك.
كما تسلط المعلومات الضوء على تعثّر عملاق التكنولوجيا في مكافحة انتشار خطاب الكراهية والمحتوى المتطرف في بلدان من جميع أنحاء الشرق الأوسط وخارجه، حيث يمثل العنف المستمر – والترويج له عبر الإنترنت – خطراً وشيكاً لملايين مستخدمي التطبيق.
تضمنت بعض تلك الخطابات محتوى كراهية وتحريض وتكتيكات لمهاجمة أهداف في الغرب – جرت مشاركتها على نطاق واسع في تطبيقي إنستغرام وفيسبوك، غالبيتها أرفقت بمنشورات مترجمة إلى الإنجليزية للاستهلاك الجاهز – للتضليل.
حتى أن موقف الموقع في البلدان التي تعاني من توترات دينية قائمة، وسنوات من الصراع العنيف والمؤسسات الحكومية الضعيفة، غالباً ما أدى إلى نتائج أكثر خطورة.
مناطق عالية الخطورة
نظراً لذك، وضع فيسبوك علامة “أولوية” على العديد من هذه البلدان على أنها مناطق عالية الخطورة، أو ما تسمى بمناطق المستوى 1 التي تتطلب موارد إضافية، مثل خوارزميات متطورة لمراقبة المحتوى والاستجابة للأحداث في الوقت الفعلي تقريباً، وفقاً لقائمة الشركة الداخلية لـلبلدان ذات الأولوية لعام 2021.

العراقيون أربكوا الأنظمة..!
عندما سُئل أحد الباحثين في شؤون موقع فيسبوك، عن فريق الإشراف على محتوى الشركة المختص باللغة العربية، كان التمثيل العراقي تقريباً غير موجود، وفقاً للوثيقة الداخلية المعنونة “سرد نزاهة غير مكتمل للشرق الأوسط وشمال إفريقيا” بتاريخ كانون الأول 2020، في ذلك الوقت كان ما يقارب 25 مليون عراقي، أو ثلثي السكان، على منصات الفيسبوك، وفقاً للتقديرات الخاصة بالشركة.
وحينما كانت الاشتباكات المسلحة عنيفة وتتفاقم بسرعة في بلد هشّ سياسياً، خاضت ما تسمى بـ “الجيوش الإلكترونية” حملات من خلال نشر مواد معادية وغير قانونية بأساليب مضللة، وأدى النقص في الخبرة باللغة المحلية لانتشارها داخل الفيسبوك وإثارة الطائفية الدينية والمعارك على الشبكة الاجتماعية وسط العنف المتدهور.
ووفقا لبحث الشركة الخاص، فإن “الدولة” –أيضاً- لعبت دوراً، وكانت “وكيلاً لجيوش إلكترونية تخوض حملات إبلاغ عن المحتوى من أجل حظر صفحات معينة”، استناداً إلى المستندات الداخلية.

تحذيرات الفيسبوك
لم تظهر صعوبات الفيسبوك في العالم العربي بين عشية وضحاها، بل حذر باحثو الشركة وخبراء خارجيون وبعض الحكومات في المنطقة، ولسنوات، عملاق الشبكات الاجتماعية من الاستثمار بكثافة في الشرق الأوسط للحد من انتشار خطاب الكراهية.
وقد خصت الوثائق دولتي العراق واليمن، من حيث انتشار مستويات عالية من الحسابات المزيفة المنسقة – يرتبط العديد منها بأسباب سياسية أو إرهابية – وتضم معلومات مضللة أثارت العنف المحلي، غالباً بين الجماعات الدينية المتحاربة.

احتيال
حيلة أخرى اتبعت في أحد المنشورات، حين بشّر مقاتلو تنظيم داعش الإرهابي بقتل 13 جندياً عراقياً عبر تحديث على الفيسبوك باستخدام صورة مارك زوكربيرج، الرئيس التنفيذي للشركة، لإخفاء المنشور وتضليل أدوات مراقبة المحتوى الآلي للمنصة.
وفي أوائل يوليو (تموز) الماضي، شن أشخاص مرتبطون بتنظيم داعش الإرهابي حملة منسقة على الفيسبوك أشادت بتفجير مميت في بغداد، وهاجمت أولئك المرتبطين بالحكومة العراقية.
لقد استخدم تنظيم داعش الإرهابي في مناسبات عدة اللغة العامية المحلية لتجاوز قواعد محتوى الفيسبوك لنشر خطاب الكراهية، وكان يشمت علناً على الإنترنت ويشيد بقياداته عند تنفيذ هجوم، من خلال منشورات تنتهك بشكل مباشر معايير مجتمع عملاق التكنولوجيا ضد خطاب الكراهية، لكن بحيلة مضللة.
لذلك لم تجرِ إزالة الكثير من هذه المواد تلقائياً وبشكل استباقي بواسطة نظام الفيسبوك، بل كان بعضها يحذف في وقت لاحق بعد تبليغ النشطاء.
ويشير باحثو معهد الحوار الستراتيجي إلى أن “ما يحدث على الإنترنت له تأثير على ما يحدث خارجه”، ما يجعل الناس يشعرون بعدم الأمان، ويزيد من حدة التوترات القائمة بين تنظيم داعش والتحالف الدولي.
ويعود جزء كبير من هذه المشكلة إلى كيفية تدريب الفيسبوك على خوارزمياته لاكتشاف الكلام الذي يحض على الكراهية، ويبدو أن الخوارزميات قد فقدت قدرتها في الترجمة لمكافحة خطابات التحريض، بالرغم من اعتبار تلك الخوارزميات خط الدفاع الأول للتطبيق – وهو عبارة عن خوارزميات معقدة تكتشف وتزيل تلقائياً المواد الضارة إجمالاً. ورغم كفاح الفيسبوك لوقف انتشار خطاب الكراهية على منصته في كثير من البلدان الناطقة بالعربية، إلا أن خوارزمياته، عالية الجودة، كان لها تأثير معاكس، فقد أزالت المنشورات المشروعة بشكل خاطئ، وحدّت من حرية التعبير داخل المنطقة.
يذكر أن وثائق نُشرت في أواخر عام 2020 بينت أن أكثر من ثلاثة أرباع المحتوى العربي التي أزيلت تلقائياً من المنصة، بدعوى الترويج للإرهاب، قد صُنفت عن طريق الخطأ على أنها مواد ضارة.
ويخلص الباحثون إلى أن إزالة المحتوى المشروع كان له تأثير غير مباشر بإعطاء تصور أن عملاق وسائل التواصل الاجتماعي قد قلب الموازين لصالح الأنظمة الاستبدادية في البلدان على مجموعات حقوق الإنسان، وقام بإسكات المستخدمين العرب وإعاقة حرية التعبير، بناءً على بحث عام 2020. لافتين إلى أن عمليات الإزالة المفرطة هذه تجعل من الصعب أيضاً توثيق جرائم الحرب المحتملة التي التقطت عبر وسائل التواصل الاجتماعي، وأن هذا يعد بمثابة أمر مميت حقاً للمحتوى في المنطقة.
من جانبها، ورداً على ذلك، قالت إدارة شركة فيسبوك إنها تفكر في توظيف المزيد من متابعي المحتوى بمهارات لغوية عالية إذا لزم الأمر.
ما تجدر الإشارة إليه أن شركة فيسبوك أعلنت رسمياً تحويل اسمها إلى Meta
وسينصبّ تركيز (ميتا) على بناء العالم الافتراضي الكامل Metaverse كمكان للتواصل والترفيه بتجربة ثلاثية الأبعاد، مع الإبقاء على أسماء التطبيقات التابعة للشركة: فيسبوك، أنستغرام، مسنجر، واتساب، كما هي..