يُزعم أن فيسبوك يوافق على الإعلانات المدفوعة التي تحتوي على خطاب الكراهية والتحريض ضد الفلسطينيين
"فيسبوك يوافق على إعلان إسرائيلي يدعو لاغتيال ناشط مؤيد لفلسطين"، ٢١ نوفمبر ٢٠٢٣
تمت الموافقة على سلسلة من الإعلانات التي تجرد الإنسانية وتدعو إلى العنف ضد الفلسطينيين، والتي تهدف إلى اختبار معايير الإشراف على محتوى فيسبوك، من قبل شبكة التواصل الاجتماعي، وفقًا للمواد التي تمت مشاركتها مع موقع The Intercept.
وتضمنت الإعلانات المقدمة، باللغتين العبرية والعربية، انتهاكات صارخة لسياسات فيسبوك وشركتها الأم ميتا. وتضمنت بعضها محتوى عنيفًا يدعو بشكل مباشر إلى قتل المدنيين الفلسطينيين، مثل الإعلانات التي تطالب بـ "محرقة للفلسطينيين" والقضاء على "نساء وأطفال وشيوخ غزة". واحتوت منشورات أخرى، مثل تلك التي تصف أطفال غزة بأنهم "إرهابيو المستقبل" والإشارة إلى "الخنازير العربية"، على لغة مهينة للإنسانية.
"إن الموافقة على هذه الإعلانات هي الأحدث في سلسلة إخفاقات ميتا تجاه الشعب الفلسطيني"، هكذا قال نديم الناشف، مؤسس مجموعة "حملة" الفلسطينية للبحث والمناصرة في مجال وسائل التواصل الاجتماعي، والتي قدمت الإعلانات التجريبية...
ظهرت فكرة حملة لاختبار جهاز الرقابة على التعلم الآلي على فيسبوك الشهر الماضي، عندما اكتشف الناشف إعلانًا على صفحته على فيسبوك يدعو صراحةً إلى اغتيال الناشط الأمريكي بول لارودي، أحد مؤسسي حركة غزة الحرة.
تعتبر الدعوة لاغتيال ناشط سياسي انتهاكًا لقواعد الإعلان في فيسبوك. ويشير ظهور المنشور الذي رعاه Ad Kan على المنصة إلى موافقة فيسبوك عليه على الرغم من تلك القواعد. من المحتمل أن يكون الإعلان قد مر عبر التصفية بواسطة عملية فيسبوك الآلية، القائمة على التعلم الآلي، والتي تسمح لأعمالها الإعلانية العالمية بالعمل بسرعة.
في حين أن هذه التقنيات تسمح للشركة بتجنب قضايا العمل المرتبطة بالمشرفين البشريين، فإنها تحجب أيضًا كيفية اتخاذ قرارات الإشراف خلف الخوارزميات السرية.
التحريض على العنف على الفيسبوك
وفي خضم الحرب الإسرائيلية على الفلسطينيين في غزة، كان الناشف منزعجًا بدرجة كافية من الدعوة الصريحة في الإعلان لقتل لارودي، لدرجة أنه شعر بالقلق من أن الوظائف المماثلة مدفوعة الأجر قد تساهم في العنف ضد الفلسطينيين.
فضوليًا لمعرفة ما إذا كانت الموافقة مجرد صدفة، أنشأت حملة وأرسلت ١٩ إعلانًا، باللغتين العبرية والعربية، مع نص متعمد، في انتهاك صارخ لقواعد الشركة – وهو اختبار لميتا وفيسبوك. تم تصميم إعلانات حملة لاختبار عملية الموافقة ومعرفة ما إذا كانت قدرة ميتا على فحص التحريض العنيف والعنصري قد تحسنت تلقائيًا، حتى مع وجود أمثلة لا لبس فيها على التحريض على العنف.
يبدو أن ميتا قد فشل في اختبار حملة.
وأكدت المتحدثة باسم فيسبوك، إيرين ماكبايك، أنه تمت الموافقة على الإعلانات عن طريق الخطأ. "
بعد أيام قليلة من الموافقة على إعلاناتها التجريبية، اكتشفت حملة إعلانًا باللغة العربية تديره مجموعة تطلق على نفسها اسم "الهجرة الآن" وتطلق على "العرب في يهودا والسومرية" - وهو الاسم الذي يستخدمه الإسرائيليون، وخاصة المستوطنون، للإشارة إلى الغرب الفلسطيني المحتل - للانتقال إلى الأردن.
وفي كلتا الحالتين، وفقًا للناشف، فإن حقيقة الموافقة على هذه الإعلانات تشير إلى مشكلة عامة: تدعي شركة ميتا أنها تستطيع استخدام التعلم الآلي بشكل فعال لردع التحريض الصريح على العنف، في حين أنه من الواضح أنها لا تستطيع ذلك.
[ترجمة غير رسمية من الإنجليزية إلى العربية مقدمة من مرصد الأعمال وحقوق الإنسان]