أظهرَتْ تسجيلات فيديو صوّرها أحد مقاتلي #المعارضة_السورية، بينما كان يركب في شاحنةٍ صغيرة من الخلف، #القوات_التركية تسير عبر سهلٍ صخري في شمالي #سوريا باتجاه بلدةٍ كانت #القوات_الأميركية قد انسحبت منها حديثاً، حيث تم نشر المحتوى الصادم على الفيسبوك في 14 تشرين الأول.

لم يكن ذلك التسجيل، سوى واحد من موجة التسجيلات التي شاركها الصحفي المدني “أبو ليث الجزراوي” على صفحة الفيسبوك خاصته، والتي كانت تؤرّخ إعادة التشكيل السريعة للخريطة السياسية لمنطقة شمالي سوريا بعد أن أمر الرئيس الأمريكي #دونالد_ترامب قواته بالانسحاب من المنطقة في وقتٍ سابق من الشهر ذاته. ولكن بعد أيامٍ قليلة، اختفت تسجيلات الفيديو من الانترنت وحظر الفيسبوك صفحته.

كان “الجزراوي”، وهو اسم مستعار، يستخدم صفحته التي تحمل اسم (عين على الحسكة)، نسبةً إلى مسقط رأسه، لمشاركة معلومات تتعلق بالحرب الأهلية السورية مع خمسين ألفاً من متابعيه.

وفي بعض الأيام، مثل ذلك اليوم من شهر تشرين الأول، كان يشارك أخبار تتعلق بأنشطة القوات وتحركاتهم. وفي أيام أخرى كان يشارك تسجيلات فيديو أو صور تُظهر حجم الدمار الدامي الذي خلفته الهجمات العسكرية.

أما عن الهدف من تلك المواد التي كان يشاركها، وبحسب قوله، فكان إبقاء الناس العاديين على اطلاع عمّا يحدث «ليس لدينا ولاء لأي أحد، ومعظم متابعينا هم مجرد أشخاص عاديين من عامة الشعب»، يقول “الجزراوي”.

إلا أن تسجيلات الفيديو والصور التي شاركها والتي تظهر #الحرب_الأهلية السورية على أرض الواقع؛ كانت السبب في حظر صفحته. من جانبه أكد موقع الفيسبوك للصحيفة أن صفحة (عين على الحسكة) تعرضت للبلاغات في أواخر 2019، كما تم الإبلاغ عن المستخدمين، نظراً لمشاركتها محتوىً “متطرف”.

وقد تم تحويل الصفحة إلى أحد المشرفين في الموقع حيث قرر إزالتها. وبعد إشعار من التايم، أعاد الفيسبوك الصفحة في أوائل شهر شباط الماضي، أي بعد حوالي 12 أسبوعاً من إزالتها، معللين بأن المشرف ارتكب خطأ بإزالتها. وقد رفض الفيسبوك تحديد أي الفيديوهات كانت التي تعرضت للإبلاغ.

وكان قد تم تطوير الخوارزميات في مواقع التواصل الاجتماعي كرد فعل على تنظيم #داعش الذي صدم العالم عام 2014 عندما بدأ أعضاء التنظيم بنشر مقاطع فيديو عن عمليات الإعدام والمعارك ومشاركتها بسهولة كدعاية للتنظيم.

ونظراً إلى أن هذه المقاطع أدت إلى تطرف المشاهدين، عمل التحالف الذي تقوده #الولايات_المتحدة في #العراق وسوريا مع الوقت لقمع التنظيم، كما تم تجنيد شبكات التواصل الاجتماعي للمساعدة في مهمة القضاء على نشاط التنظيم.

وسرعان ما اكتشفت الشركات وجود كم كبير من المحتوى الذي يتطلب فريق ضخم من البشر للتعامل معه. (يتم رفع ما يزيد عن 500 ساعة من تسجيلات الفيديو على يوتيوب كل دقيقة). لذا، استدعى الأمر منذ عام 2017 استخدام الخوارزميات لاكتشاف المحتوى المتطرف بشكل تلقائي.

حيث كانت هذه الخوارزميات في البداية غير مطورة (خام) وكانت مكملة لعمل المشرفين البشريين فقط.  لكنها اليوم وعقب ثلاث سنوات من التدريب، مسؤولة عن نسبة ساحقة من عمليات الكشف.

وبحسب الفيسبوك، يتم الآن إزالة 98% من المحتوى بشكل تلقائي لانتهاكه قواعد الموقع المتعلقة بالتطرف والتي يتم وضع علامة عليها. أما على موقع يوتيوب، المتوسع أكثر، فقد تم إزالة ما يزيد عن عشرين مليون فيديو قبل أن يحقق أية مشاهدة عام 2019.

ومع تفشي فيروس #كورونا في جميع أنحاء العالم منذ مطلع العام الحالي، أعلن كل من موقع فيسبوك ويوتيوب وتويتر أن الخوارزميات خاصتهم سوف تشرف على القسم الأكبر من المحتوى، حيث تم منع المشرفين البشريين من نقل المواد الحساسة معهم إلى المنزل في ظل ظروف العمل من المنزل بسبب الفيروس.

إلا أن الخوارزميات سمعتها أسوأ مقارنة مع البشر من ناحية واحدة حاسمة: السياق. الآن، وبينما يعتمد كل من فيسبوك ويوتيوب على الخوارزميات أكثر فأكثر، الكثير من الصور وتسجيلات الفيديو البريئة يتم حجبها وإزالتها، خاصةً تلك المسجلة في مناطق الحرب. حيث يمكن لمثل هذا المحتوى أن يكون غرضاً أساسياً لكل من المدنيين المتواجدين على الأرض، الذين يزودون العالم بمعلومات فورية حيوية عما يحصل في ذات الوقت، ولجماعات حقوق الإنسان التي تراقب من بعيد.

ففي عام 2017، وللمرة الأولى على الإطلاق، أصدرت محكمة #الجنايات_الدولية في #هولندا لائحة اتهام بجرائم حرب استناداً إلى تسجيلات الفيديو الصادرة من #ليبيا والتي تم نشرها على مواقع التواصل الاجتماعي.

ومع تطوير خوارزميات الكشف عن العنف، لاحظ مراقبو الصراعات أيضاً آثاراً جانبية غير متوقعة: يمكن لهذه الخوارزميات أن تزيل دلائل جرائم الحرب من الانترنت قبل أن يعرف أي أحد حتى بوجودها.

وفي يومٍ ماطر من أيام شهر كانون الثاني، كان (كريس وودز) يتخذ طريقه إلى أعلى الدرج الضيق ليصل لنهاية التراس في حرم جامعة (غولدسميث) جنوب شرقي #لندن، حيث خُصص الطابقان العلويان هنا كقاعدة لحرب الطائرات الجوية التي أسسها (وودز) عام 2014 بهدف محاسبة الجيوش عن الخسائر في صفوف المدنيين.

وقد جمع هو وفريقه من هذا المقر الضيق أدلة توثق ما يزيد عن 52 ألف حالة وفاة بين المدنيين، معظمها اكتشفت من خلال وسائل التواصل الاجتماعي. وقد أجبروا التحالف بقيادة الولايات المتحدة في سوريا والعراق على مشاركة المعلومات الشهرية فيما يخص القتلى في صفوف المدنيين بسبب الأضرار الجانبية، وكذلك عملوا على مراقبة القوات العسكرية التركية والروسية.

كما توسع عملهم مؤخراً ليغطي #الصومال، إضافة إلى على العمل على أرشيف #اليمن. كل هذا العمل يتم بالقليل من التمويل. «ميزانيتنا للسنة القادمة تبلغ حوالي ثُلث مليون باوند، أي ما يعادل 430 ألف دولار أمريكي، لكل شيء نقوم به»، يقول (وودز) من مكتبه في الغرفة العلوية. ويضيف: «هذا تقريباً يعادل سعر القنبلة الموجهة».

«إزالة صفحة (عين على الحسكة) كان بمثابة ضربة لهذه العملية الضيقة. فالصفحة كانت أحد أكثر المصادر الشاملة للأخبار المتعلقة بشمال سوريا وشرقها»، يقول “محمد الجميلي”، باحث في المجموعة مختص في الصراعات. ويضيف: «إغلاق الصفحة كان يعني فقداننا مصدراً رئيسياً للأخبار المحلية، حيث تفتقر المنطقة أساساً لمصادر الأخبار».

وكانت هذه الصفحة خير مثال على كيفية تأثير إزالة صفحة واحدة على عمل المدافعين عن حقوق الإنسان وجعل مهمتهم أكثر صعوبة، إلا أن هذا ما يحدث وعلى نطاق واسع.

فمن بين 1.7 مليون تسجيل فيديو على يوتيوب والتي تم حفظها لدى “الأرشيف السوري”، وهي منظمة غير ربحية تقوم بتخزين أدلة على عمليات انتهاك حقوق الإنسان مقرها برلين، تم إزالة 16% من تلك المقاطع من الموقع.

كما تم إزالة جزء كبير من تلك المقاطع عام 2017 بمجرد أن بدأ يوتيوب باستخدام الخوارزميات للإبلاغ عن محتوى عنيف أو متطرف. ولا تزال عملية إزالة المحتوى المفيد تتم بشكل مستمر، «نحن لا نزال نرى بأن عملية الحذف هذه تشكل مشكلة»، يقول (جيف دوتش)، باحث في الأرشيف السوري.

ويضيف: «نحن لا نقول بأن هذا المحتوى كلّه يجب أن يبقى متاح للعامة إلى الأبد، إلا أنه من المهم أن تتم أرشفة هذا المحتوى بحيث يصبح من السهل وصول الباحثين وجماعات حقوق الإنسان والأكاديميين والمحامين إليه للاستعانة به في بعض أنواع المساءلة القانونية». ويقول يوتيوب أنه يعمل مع الأرشيف السوري لتحسين كيفية تمييزهم للأفلام التي يمكن أن تكون مفيدة لجماعات حقوق الإنسان وإبقائها دون حذف.

ويتفهم معظم الأشخاص العاملين في مجال مراقبة الصراع أن شركات مواقع التواصل الاجتماعي في موقف صعب. وبالعودة إلى المكتب في الغرفة العلوية في جنوب شرق لندن، يوافق (وودز) بأن الكثير من المحتوى العنيف لا مكان له على مواقع التواصل الاجتماعي.

لكنه محبط مما يراه خلال ثلاث سنوات من التكاسل من قبل تلك الشبكات عندما يتعلق الأمر بمنع فقدان الأدلة القيمة إلى الأبد، الأمر الذي من شأنه تقليص فرصة إدانة منتهكي حقوق الإنسان ومواجهتهم بجرائمهم.

«من وجهة نظرنا الخاصة أنه إذا ما كانوا مصممين على حذف مقاطع الفيديو والصور والمنشورات وما إلى ذلك، فأنه يجب أن يتم تخزينهم بحيث يسهل الوصول إليها من قبل الباحثين الذين لديهم رخصة بذلك»، يقول “وودز”. ويضيف: «ما يجري في الوقت الحالي هو حذف كل شيء أو لا شيء. سيحذفون أرشيفاً كاملاً وسيضيع كل شيء إلى الأبد».

وتعمل أنظمة الكشف في فيسبوك ويوتيوب على استخدام تقنية تدعى التعلم الآلي، والتي يتم من خلالها تغذية كم هائل من البيانات (الصور المتطرفة ومقاطع الفيديو والبيانات الوصفية) إلى ذكاء اصطناعي بارع في تمييز الأنماط واكتشافها.

ويمكن تدريب تقنية التعلم الآلي على تمييز الصور التي تحتوي بيت أو سيارة أو وجه بشري. لكن منذ 2017، قام كل من فيسبوك ويوتيوب بتغذية هذه الخوارزميات وتدريبها بحيث يمكنها تمييز عمليات قطع الرؤوس والفيديوهات الدعائية وغيرها من المحتويات البغيضة الأخرى التي تم الإبلاغ عنها على أنها متطرفة.

ويتميز كل من يوتيوب وفيسبوك بسرية نوع المحتوى الذي يستخدمونه لتدريب الخوارزميات المسؤولة عن قسم كبير من عمليات الحذف هذه. وهذا يعني أنه لا توجد أية وسيلة للمراقبين معرفة ما إذا كان المحتوى البريء، مثل صفحة (عين على الحسكة)، قد تم إدراجه فعلاً في بيانات التدريب أم لا.

الأمر الذي من شأنه التأثير على عملية صنع القرار في الخوارزمية. ويقول فيسبوك في حالة صفحة (عين على الحسكة) بأنه مع الأسف، قد ارتكبنا خطأ، بحسب قول “ضياء كيالي”، منسق التقنية والدفاع في (ويتنيس)، وهي مؤسسة حقوقية تركز على مساعدة الناس على تسجيل الأدلة الرقمية على انتهاكات حقوق الإنسان.

ويضيف كيالي قائلاً: «لكن ماذا لو تم استخدام الصفحة كبيانات تدريبية؟ ومن ثم نشر ذلك الخطأ بشكل كبير في جميع أنحاء أنظمتهم؟ حيث سيعمل على تدريب الخوارزمية بشكل أكبر ومن ثم إزالة المزيد من هذا المحتوى المشابه الذي تمت إزالته عن طريق الخطأ. أعتقد أن هذا بالضبط ما يحدث الآن».

ومع ذلك، ينكر كل من فيسبوك ويوتيوب أن يكون هذا الخطأ ممكناً. حيث يقول فيسبوك أنه يعيد تدريب خوارزمياته بانتظام لتجنب حدوث مثل تلك الأخطاء. أما يوتيوب وفي بيان للشركة جاء: «إن القرارات التي يتخذها المشرفون البشريون تساعد في تحسين دقة أنظمة الإبلاغ الآلي الخاصة بنا».

وربما يشكل المحتوى الإسلامي المتطرف من الشرق الأوسط الجزء الأكبر من مجموعات بيانات التدريب في الوقت الحالي، كما يقول “كيالي” مشيراً إلى «عدم وجود طريقة لتأكيد ذلك نظراً لعدم مشاركة منصات التواصل الاجتماعي هذه المعلومات».

وهذا يعني أن المحتوى العربي الآخر، مثل مقاطع الفيديو التي توثق آثار التفجير، حيث يلقى خلالها باللائمة على تنظيم داعش في النص المصاحب للتسجيل، على سبيل المثال، معرّض أيضاً لخطر الحذف. ويتابع كيالي: «لقد رأينا باستمرار قيام كل من فيسبوك ويوتيوب بإزالة المقاطع التي توثق الاحتجاج من العالم الناطق بالعربي».

ويرى مراقبو النزاعات، أن إحدى الطرق للتأكد من أن الاحتفاظ بمثل هذا المحتوى المتواجد على الانترنت هي قيام شبكات التواصل الاجتماعي بتوظيف مزيداً من المشرفين على المحتوى وضمان دفع أجورهم ومعاملتهم معاملة حسنة مثلهم مثل أي موظف آخر.

إلا أن كل من فيسبوك ويوتيوب يتحركان في الاتجاه الآخر، بسبب عدم اعترافهم بان الإشراف على المحتوى يمكن أن يكون مهمة صعبة ومضرة عاطفياً بالمشرفين، ولأن الكومبيوترات أسرع إلى حدّ ما، ولأن استخدام الخوارزميات أرخص من اللجوء إلى توظيف المهرة من الناس.

«تبشر هذه التقنية بالكثير من الوعود، وقد أصبحنا الآن في بعض الحالات قادرين على اكتشاف وإزالة بعض من المحتوى الضار بشكل تلقائي دون اللجوء إلى المشرفين»، يقول “إيرين سالتمان”، مدير سياسة مكافحة الإرهاب في أوروبا والشرق الأوسط وإفريقيا في  بيان لصحيفة التايم.

هذا تماماً ما يحدث مع المحتوى المتطرف المعروف. ولكن عندما تشير الخوارزميات إلى محتوى لم يسبق التعرف عليه، فإنه يتم توجيه المحتوى دائماً إلى أحد المشرفين، والذي يتخذ قراراً نهائياً فيما يخص إزالته أو إبقائه، بحسب إدعاء فيسبوك ويوتيوب.

وغالباً ما تستند القرارات المتعلقة بإنزال المحتوى إلى السياق الثقافي، ذلك لأن سياسات فيسبوك تسمح ببعض أنواع العنف والتطرف في حالات معينة.

وعند سؤال أحد المشرفين عن مصير مقطع فيديو يوثق عملية إعدام تم نشره من قبل مرتكبه لنشر الخوف، أو مشاركة مقطع مشابه من قبل مواطن أو صحفي ليرى العالم بأكمله عملية انتهاك حقوق إنسان خطيرة، كان جوابه أنه من الممكن أن يكون كلا المقطعين متطابقين، عندها مصير أحدهما الحذف والآخر البقاء على الانترنت.

«لا يمكن لهذه التكنولوجيا حتى الآن معالجة كل شيء يخالف قواعدنا»، يقول “سالتمان” ويضيف: «العديد من القرارات التي يجب أن نتخذها معقدة وتنطوي على قرارات تتعلق بالنية من وجود المادة والفروق الثقافية التي لا تزال تتطلب عين وقرار بشري».

ومن أجل خلق التوازن في هذه العملية، يتحمل جيش فيسبوك من المشرفين البشريين هذه المهمة. وفي بعض الأحيان لا يصيبون بالقرار المتخذ.

فبعد أن تمت الإشارة إلى العديد من منشورات صفحة (عين على الحسكة) من قبل الخوارزميات والأشخاص على حدّ سواء، قرر المشرف في فيسبوك بشكل خاطئ حظر الصفحة بشكل كلي لمشاركتها تسجيلات فيديو عنيفة، وهو انتهاك لقوانين فيسبوك المتعلقة بالعنف والتطرف، والتي تنص على إمكانية إبقاء البعض من المحتوى ذا الأهمية الإخبارية على الانترنت بشرط عدم تشجيعه على العنف أو الإشادة بالإرهاب.

وهذه الفروق الدقيقة مهمة في عملية تحقيق التوازن بين حرية التعبير والبيئة الآمنة لمستخدمي الموقع من جهة، وإبقاء شركة فيسبوك في الجانب الصحيح من التعليمات الحكومية.

وبحسب قواعد فيسبوك المتعلقة بموضوع الدموية والأخلاق، فإن قطع الرأس والجثث المتحللة وحز الحنجرة وأكل لحوم البشر جميعها مصنفة على أنها محظورة وغير مسموح بها ما لم تتم في مكان طبي.

ومع ذلك يميز المشرفون تلك المقاطع التي تحتوي العنف لنشر الوعي وتوثيق انتهاكات حقوق الإنسان. ويقول “سالتمان”: «في هذه الحالات، وبالاعتماد على مضمون المحتوى، قد نسمح بنشره، إلا أننا نضع شاشة تحذير تظهر للمستخدمين عند رؤية المحتوى ونحدد الأشخاص المسموح لهم برؤيته ممن هم 18 عاماً وما فوق. نحن نعلم أن الكثيرين لن يوافقوا على سياستنا هذه ونحن نحترم ذلك».

إلا أن الصحفيين المدنيين العاملين في خضم الحرب الأهلية المستعرة لا يملكون الوقت الكافي لقراءة التفاصيل الدقيقة. ويرى مراقبو النزاع أن فيسبوك ويوتيوب غير قادرين على اتخاذ جميع القرارات بأنفسهم.

حيث يقول “وودز”: «سواء أردنا ذلك أم لم نرده، يستخدم الناس منصات التواصل الاجتماعي كمكان للتسجيل الدائم، ولا يمكن لمواقع التواصل الاجتماعي الاختيار بين المواد ذات القيمة والأهمية وبين عديمة القيمة».

 

عن صحيفة (The Time)


 

هل أعجبك المحتوى وتريد المزيد منه يصل إلى صندوق بريدك الإلكتروني بشكلٍ دوري؟
انضم إلى قائمة من يقدّرون محتوى الحل نت واشترك بنشرتنا البريدية.