فيسبوك يوقف 583 مليون حساب مزيف في 3 أشهر فقط
قالت إدارة فيسبوك إنها حذفت أو وضعت تحذيرات على حوالي 29 مليون مشاركة في الموقع خرقت القواعد المتعلقة بحظر ترويج خطاب الكراهية أو العنف المصور والإرهاب والجنس، خلال الأشهر الثلاثة الأولى من العام الجاري.
وهذه هي المرة الأولى التي تعلن فيها الشركة عن أرقام توضح حجم الجهود المبذولة لفرض قواعدها على المستخدمين.
ويقوم فيسبوك بتطوير أدوات ذكاء اصطناعي لدعم عمل مراقبيها البالغ عددهم 15 ألف شخص، والذين يراقبون كل ما يتم نشره ويتعاملون معه على الفور.
وأشار التقرير إلى أن البرنامج الاصطناعي مازال يعاني حتى يتمكن من تحديد أو التعرف على بعض أنواع الانتهاكات
على سبيل المثال، تعرفت الخوارزميات (العمليات الحسابية التي يقوم بها البرنامج) على 38 في المائة فقط من المشاركات المحددة على أنها تحض على الكراهية خلال هذه الفترة، ما يعني أن هناك 62 في المائة من هذه المشاركات كشفها المستخدمون أنفسهم وأبلغوا عنها الإدارة.
لكن على النقيض من ذلك، قالت الشركة إن أدواتها اكتشفت 99.5 في المائة من الدعاية التي كانت مخصصة لدعم تنظيم الدولة الإسلامية وتنظيم القاعدة والجماعات المتشددة الأخرى التابعة لها، وكان هناك 0.5 في المائة فقط اكتشفها الجمهور.
وتكشف الأرقام أيضا أن موقع فيسبوك يعتقد أن المستخدمين ربما تعرضوا لمشاهد العنف والتعري للبالغين عبر خدمته، بصورة أكبر خلال الأشهر الثلاثة الأولى من العام الجاري مقارنة بالأشهر الثلاثة السابقة.
كنها قالت إنها لم تطور طريقة للحكم على ما إذا كان هذا ينطبق أيضا على خطاب الكراهية والدعاية الإرهابية.
وعلق جاي روزين، رئيس إدارة المنتجات في فيسبوك على هذا قائلا :”في الوقت الذي نتعرف فيه على الطريقة الصحيحة للقيام بذلك، سنقوم بتحسين المنهجية”.
ارتفاع عنيف
قسّم فيسبوك المحتوى المحظور إلى عدة فئات:
العنف المصور (فيديو أو صور)
تعري البالغين والمحتوى الجنسي
الرسائل غير المرغوب فيها
خطاب الكراهية
حسابات مزيفة
وبالنسبة للفئة الأخيرة، تُقدر الشركة أن عدد الحسابات المزيفة يتراوح بين 3 و4 في المائة من جميع المستخدمين النشطين على موقع فيسبوك، وقالت إنها أوقفت 583 مليون حساب مزيف في الفترة بين يناير/كانون الثاني وحتى مارس/آذار.
وتشير الأرقام إلى أن العنف المصور ارتفع بشكل كبير، كما توضح أن مزيجا من تقنية الكشف الأفضل عن هذه الحسابات وكذلك التصعيد في الصراع السوري، ربما تفسر أسباب زيادة رصد وكذلك إنشاء الحسابات المزيفة.
وأزالت إدارة فيسبوك 1.9 مليون قطعة من المحتوى المتطرف بين يناير/ كانون الثاني ومارس/آذار، بزيادة بلغت 73 في المائة عن الربع السابق.
وهذا من شأنه أن يكون أمرا مبشرا للحكومات، ولا سيما في الولايات المتحدة وبريطانيا، والتي دعت الشركة إلى وقف انتشار مواد ومشاركات بعض المجموعات المتطرفة مثل تنظيم الدولة.
وقالت براندي نونكي، من مركز بيركيلي لأبحاث تكنولوجيا المعلومات في مصلحة المجتمع بجامعة كاليفورنيا :”إنها (إدارة فيسبوك) تتخذ الخطوات الصحيحة لتحديد ما هو الخطاب المحمي وغير المحمي على منصتها بوضوح”.
لكنها أضافت أن :”الفيسبوك ما زالت أمامه مهمة كبيرة وثقيلة”.
“التصريح بالمثلية”
يظهر تعقيد هذه الوظيفة عند التفكير في الحديث الذي يحض على الكراهية، وهي فئة يصعب التحكم فيها بطريقة آلية (أي تحتاج تدخل بشري).
وقد عالجت الشركة 2.5 مليون نموذج في الفترة الأخيرة، بزيادة 56 في المائة عن الأشهر من أكتوبر/تشرين الأول إلى ديسمبر/كانون الأول 2017.
وشارك المشرفون البشريون في التعامل مع الجزء الأكبر من هذه المنشورات، ولكنهم واجهوا مشاكل في تحديد ما يجب أن يبقى وما يجب حذفه.
وقال أليكس شولتز، رئيس قسم تحليلات البيانات بفيسبوك :”هناك فارق بسيط (بين الخطابات العادية والتحريضية)، هناك سياق لا تستطيع التكنولوجيا القيام به بعد”.
وأضاف :”في هذه الحالات، نحن نميل كثيرا إلى فريق المراجعة لدينا، والذي يتخذ قرارا نهائيا بشأن ما يجب فعله.”
وللتدليل على ذلك، قال شولتز إن الكلمات التي تكون إهانة إذا ما استُخدمت كجزء من هجوم كراهية ضد المثليين يكون لها معنى مختلف عندما يستخدمها المثليون أنفسهم. لذا، فإن حذف جميع المشاركات من خلال تحديد مصطلح معين سيكون خيارا خاطئا.
لكنه سأل :”كيف يمكن التعرف على أنني مثلي الجنس إذا كنت تراجع ملفي الشخصي؟”
ويجيب :”بالنسبة لي، أنا وضعت هذا في الجزء العلوي من ملف التعريف، لقد تحدثت علنا، وأنا مثلي منفتح جدا”.
“لكن هذا لا ينطبق على الجميع، ولا يمكننا معرفة ذلك. هذه مشكلة صعبة للغاية.”
عينات مذهلة
في محاولة لاكتشاف ما قد يكون قد فاتها، راجعت الشبكة الاجتماعية عينات عشوائية.
استغرق الأمر عددا غير محدد من المشاركات التي تمت مشاهدتها على فيسبوك، ووضعت الإدارة ملاحظات على مدى انتهاك المحتوى لسياساتها.
وكانت النتائج مثيرة للقلق.
ووفقا للعينة، فإن ما يصل إلى 27 مشاركة من بين كل 10 آلاف مشاركة احتوت على شكل من أشكال العنف المصور. ونظرا لأن هناك 1.5 مليار مستخدم يومي لخدمة فيسبوك فإن هذا الرقم يعني أن عشرات الملايين من المشاركات العنيفة لا يمكن مراجعتها كل يوم.
وبنفس التقنية تم اكتشاف ما بين 7 إلى 9 مشاركات تحتوي على مشاهد تعر أو محتوى جنسي من بين كل 10 آلاف مشاركة.
وقال شولتز إن “كمية المواد المتعلقة بالإرهاب صغيرة للغاية” بحيث لا يمكن أخذ عينات منها بهذه الطريقة. وعن خطاب الكراهية ، قال إن الشركة تفتقر إلى أية “بيانات موثوق بها” عن الحجم الكلي.
وتابع :”لا يمكننا حاليا قياس مدى انتشار انتهاكات خطاب الكراهية على فيسبوك، لأننا حين نطالب ممثلينا بالذهاب والبحث، في ما إذا كان هذا الكلام يحض على الكراهية، فإنه يكون من الصعب جدا تسجيل ذلك”.
وأوضح :”نحن نرتكب أخطاء ونحاول أن نكون أفضل في قياس ما يتم نشره.”
لكن دوتي لوكس، منظمة حفلات في سان فرانسيسكو، والتي تقود حملات ضد فشل فيسبوك في مكافحة استهداف الأقليات، أكدت أن “الصعوبة ليست عذرا”.
وقالت :”لا يمكنني التعاطف مع كون هذا أمر صعب حقا، لأنه ليس بجديد حقا”.
وعلقت على ما يقوم به فيسبوك :”لقد وجدوا الوقت لإصدار تطبيقات المواعدة ويجدون الوقت لإرفاق حسابي المصرفي، لكنهم لا يجدون الوقت لمعرفة حقيقة مستخدميهم.”
وقالت لوكس، التي وصفت نفسها لي بأنها (سيدة يهودية مثلية)، إن “الاعتماد على تقارير الشرطة حول خطاب الكراهية كان معيبا من الأساس، لأنه يمكن إساءة استخدامه لإسكات الآخرين”.
وتابعت :”أنت فقط تعطي الناس أصحاب النوايا الخبيثة القدرة على التصرف بشكل ضار”.
جيش المشرفين
ويبقى فيسبوك خائفا من تكوين فريق المشرفين البشري.
وقالت الشركة إنها حاولت التأكد من أن العاملين في الولايات المتحدة تعاملوا مع حوادث استفادوا خلالها من فهم الثقافة الأمريكية، وبالمثل بالنسبة للحوادث في بلدان أخرى.
لكن السيدة لوكس تشعر أن الشركة بحاجة إلى أن تكون أكثر انفتاحا.
وقالت :”إذا كنت توظف أشخاصا غير موجودين في دوائر اجتماعية معينة أو ثقافات مختلفة، فلن يكونوا فاعلين”.
“إنها فقط ستؤدي إلى استمرارية نفس القضية إلى الأبد.”
المصدر : بي بي سي