logo
الأرشيف السوري
logo
الأرشيف السوري

LOST FOUND

تأثير جائحة كوفيد-19 على الإشراف على المحتوى

عامٌ على إحصاء المحتوى المحفوظ، المفقود والمُستعاد

اطبع المقال

تكمن مشكلة تمكين الذكاء الصناعي من الإشراف على محتوى وسائل التواصل الاجتماعي في أننا قد لا نعرف ما الذي فقدناه على الإطلاق. وستستمرّ الأمور على هذا المنوال ما لم نجمع البيانات، ندقّق الخوارزميات، ونجري التغييرات التي نريدها سعيًا للعالم الديمقراطي الذي نطمح إليه.

إن كنا، كمنظمة مجتمع مدني صغيرة، قادرين على أرشفة المحتوى بأمان قبل حذفه وتحديد الأخطاء؛ أفلا تستطيع شركات وسائل التواصل الاجتماعي القيام بالأمر ذاته؟

الخامس عشر من مايو هو الذكرى السنوية الأولى لنداء كريستشرش، والذي انطلق عقب هجوم 2019 الإرهابي على مسجدين في كريستشرش، نيوزيلاندا، حيث كانت المبادرة “نداءً للعمل” يستهدف كلًا من الحكومات والشركات التقنية، بغرض “إزالة المحتوى المتطرف، العنيف والإرهابي من الإنترنت”، بقيادة نيوزلندا وفرنسا. في شهر مايو الماضي؛ أصدرت فرنسا قانونها الخاص -الذي يستبق لوائح تنظيمية مماثلة للاتحاد الأوروبي- والذي يطالب شركات وسائل التواصل الاجتماعي بإزالة المحتوى المُحدّد على أنه غير مشروع في غضون 24 ساعة، والمحتوى المُحدّد على أنه “إرهابي” في غضون ساعة واحدة. وهو قانون واجب النفاذ عن طريق الغرامات، والتي قد تبلغ المليارات.

لن تكون إزالة المحتوى خلال هذه الأطر الزمنية ممكنة إلا بزيادة استخدام الذكاء الصناعي. لكن من المعروف عن الذكاء الصناعي أنه أعمى للسياقات، ما يعني أنه لن يكون قادرًا على تحديد الخلفيات التاريخية أو السياسية أو اللغوية للمنشورات. إذ يُعتبر التهكّم، الاعتداء العنصري، توثيق حقوق الإنسان والدعوة للعنف والتطرف أمورًا متشابهة بالنسبة للرؤية الآلية للخوارزمية، ويتعذّر عليها التفريق بين أيّ منها. في عام 2016، أزالت شركة فيسبوك صورة شهيرة من حرب فيتنام للمصور كيم فوك، يظهر فيها طفل عارٍ هارب من قذائف النابالم الأميريكية، وكان سبب الإزالة هو “عُريّ الأطفال”. إلا أن الصورة أُعيدت بعد احتجاجات عامة.

لهذا السبب، عيّنت شركات وسائل التواصل الاجتماعي في السنوات الأخيرة أعدادًا كبيرة ومتزايدة من مشرفي المحتوى البشريين أثناء العمل على خوارزميات التعلم الآلي.

تماشيًا مع لوجستية في الوقت المحدد Just-in-time في الإشراف على وسائل التواصل الاجتماعي؛ غالبًا ما يكون مشرفو المحتوى البشريون عمالًا عابرين — يوظّفون من قبل متعهّدين عوضًا عن شركات وسائل التواصل الاجتماعي. أطلق عليهم فيلم وثائقيّ مؤخرًا تسمية “عمال النظافة”. قبل جائحة كوفيد-19، لم يكن الإشراف البشري على المحتوى وقوته العاملة غير المرئية محلّ اهتمام، بل إن معظم الناس لم يكونوا يعرفون عنه سوى القليل؛ أو لم يسمعوا به البتة، كحال العديد من الخدمات اليومية المنظّمة لحياتنا— مثل سلاسل المواد الطبية والغذائية أو جمع النفايات.

كان من المستحيل إدراك التأثير الحقيقي لمشرفي المحتوى البشريين، هل أحدث عملهم فارقًا ملموسًا، أم أن الذكاء الصناعي هو المسيطر؟ من دون بيانات عامة دقيقة؛ كانت الإجابة على هذا السؤال تخمينية، أو سرديّة بأفضل أحوالها. لكن الجائحة الحالية غيّرت ذلك.

كحال الكثيرين من بيننا، التزم مشرفو المحتوى البشريون المتعاقدون مع شركات التواصل الاجتماعي، مثل فيسبوك، يوتيوب وتويتر، بقواعد التباعد الاجتماعي ولزموا منازلهم خلال الشهرين الماضيين. لاحظ نشطاء تقنيّون، مثل ضياء كيّالي، أنّ معظم مشرفي المحتوى البشريين لم يكونوا قادرين على العمل عن بعد نتيجة للقيود، مثل اتفاقيات الخصوصية وسياسات حماية البيانات الإقليمية، ولأنّه من غير الآمن عرض محتوى يُحتمل أن يكون مزعجًا خارج بيئات عمل مراقبة.

وهكذا، بين ليلة وضحاها، أدّت التدابير المُتّخدة لوقف انتشار كوفيد-19 إلى تسريع قدوم مستقبل يكون فيه الذكاء الصناعي، في غياب زملائه البشريين، مخوّلًا ليشرف على محتوانا على وسائل التواصل الاجتماعي دون هوادة. واقعيًا، هذا هو المستقبل الذي دعا إليه المشرّعون من خلال طلبات عمليات الإزالة السريعة. وهو المستقبل الذي حذّرت منه منظمات المجتمع المدني التي توثّق انتهاكات حقوق الإنسان، مثل الأرشيف السوري.

كان معدل عمليات إزالة المحتوى الذي يسجّله الأرشيف السوريّ آخذًا بالارتفاع قبل لزوم المشرفين البشريين منازلهم. أظهرت أبحاثنا أن معدلات إزالة محتوى وثائق حقوق الإنسان السورية منذ بداية هذا العام قد ازدادت بنسبة الضعف تقريبًا على يوتيوب، فيما ازدادت بنسبة تقارب الثلاثة أضعاف على تويتر. لا تتوفر لدينا بيانات مشابهة على فيسبوك لأنه، خلافًا لتويتر ويوتيوب، لا يقدم لمستخدميه سبب إزالة المحتوى. إن هذه الزيادة غير مسبوقة خلال عملنا في جمع البيانات حول عمليات إزالة المحتوى منذ عام 2018،

تأسس الأرشيف السوري عام 2014 لصون وثائق الحرب في سوريا على وسائل التواصل الاجتماعي من صور، مقاطع فيديو ومنشورات قيّمة تاريخيًا، والتي تُعتبر أدلّة محتملة على انتهاكات حقوق الإنسان. أُطلق على النزاع السوري لقب ‘حرب يوتيوب’ في إشارةٍ إلى حقيقة مفادها أن “عدد ساعات مقاطع الفيديو التي توثّق النزاع في سوريا على يوتيوب يفوق عدد ساعات النزاع على أرض الواقع”.

في عام 2017، وتحت ضغط من الحكومات الغربية، قدّمت شركات التواصل الاجتماعيّ خوارزميات التعلّم الآلي للإبلاغ عن المحتوى لتُظهر نشاطها في مكافحة نشر المحتوى المتطرّف. تمثّلت استجابة الأرشيف السوري في متابعة المحتوّى المرئي المخزّن على خوادمنا خارج الشبكة. استخدمنا هذه البيانات للعمل مع منظمات أخرى، مثل ويتنس، وشركات تواصل اجتماعي، مثل يوتيوب، على استعادة المحتوى المُزال خطأً. ساعدنا على استعادة مئات الآلاف من الصور ومقاطع الفيديو على شبكة الإنترنت حتى الآن.

على سبيل المثال، أزال يوتيوب 31.9 مليون مقطع فيديو عام 2019 — بمعدل 87000 مقطع يوميًا. ومن بين المحتوى المُبلغ عن انتهاكه المحتمل لبنود الخدمة، أزيل ما نسبته 87% من خلال الإبلاغ الآلي، وأزيل أكثر من ثُلث المحتوى قبل أن يحصل على أية مشاهدات. كما أزال فيسبوك حوالي 25 مليون وحدة محتوى اعتُبرت “دعاية للإرهاب” عام 2019. أما في الربع الأول من عام 2020، فإن 99.3% من المحتوى المحذوف قد أُزيل قبل أن يُبلغ عنه مستخدمون. كما أزال تويتر 115,861 حسابًا لمحتوى إرهابي في النصف الأول من عام 2019.

للتوضيح، فإن تزايد كميات المحتوى المُزال لا تشير بالضرورة إلى سوء الإشراف على المحتوى، إذ قد تكون مؤشرًا على تحميل مزيد من المحتوى العشوائي أو غير المشروع.

إذن ما هو سوء الإشراف على المحتوى؟ يعني سوء الإشراف على المحتوى معدّلات خطأ مرتفعة. ثمّة نوعان أساسيان من الأخطاء المحتملة: ترك المحتوى الذي يجب أن يُزال، وإزالة المحتوى الذي يجب أن يُترك. يمثّل الوصول لتوازن سليم تحديًا مستمرًا لشركات التواصل الاجتماعي التي، تحت ضغط إزالة “المحتوى المتطرف العنيف” وحماية حرية التعبير، يجب أن تختار “نوع الخطأ الذي ستخطئه”.

الأهم من ذلك، يتمثّل سوء الإشراف على المحتوى أيضًا، من وجهة نظرنا، في عدم تقديم سبب إزالة المحتوى للمستخدمين، وعدم تمكينهم من المطالبة به إذا كانوا يعتقدون أن قرار إزالته اتُّخذ عن طريق الخطأ.

أثارت صورة كيم فوك الشهيرة للطفل الهارب من قنابل النابالم تحولًا في الرأي العام، وفقًا لما كتبه إليري روبرتس بيدل، ويمكن القول إنها ساهمت في إنهاء الحرب في فيتنام. كيف كان شكل العالم سيختلف لو أن تلك الصورة خضعت للرقابة من نصف قرن؟ اليوم، قد تتعرض صورة مشابهة مُلتَقطة في سوريا للإزالة دون إشراف بشري وقبل أن تحصل على مشاهدة واحدة حتّى — دون أن نعرف ما فقدناه على الإطلاق.

نحن نتفهم أن عدم الاستعانة بالذكاء الصناعي أمر غير وارد. إذ أن إيقاف تشغيله يعني إغراق خلاصات وسائل التواصل الاجتماعي لدينا بـ “كلام تافه لا يُحتمل، محتوى عشوائي، غير ذي صلة أو مزعج” وفقًا للأستاذة المساعدة في دراسات المعلومات سارة روبرتس.

لكن بالمقابل، على الحكومات، المشرعين ومنظمات المجتمع المدني أن ينظروا للجائحة الحالية كفرصة لفهم ما يمكن أن يحدث إذا عزّزنا استخدام الذكاء الصناعي بشكل دائم. وإن كان على معدّلات الخطأ أن ترتفع، فيجب أن نتساءل: أيّ نوع من الأخطاء نريد للقوانين واللوائح المستقبلية أن تحفّزها؟ إن هذا النقاش، الدائر في جوهره حول كيفية فهمنا لـ ‘الإشراف الجيد على المحتوى’، يجب أن يُجرى علنًا.

إن بيانات الأرشيف السوري فريدة، ولذا، فنحن ملتزمون بمشاركتها علنًا وعلى نطاق واسع قدر الإمكان، لكن هذا ليس كافيًا.

يجب على شركات وسائل التواصل الاجتماعي توفير أكبر قدر ممكن من المعلومات حول الإشراف على المحتوى دون المساس بخصوصية مستخدميها، وذلك لتمكين المراقبة المستقلة. إذ لا تكفي معرفتنا بأن مزيدًا من المحتوى يُزال، فلا بد من معرفة السبب. يُعتبر تقديم سبب إزالة المحتوى بداية في هذا المضمار، وعلى فيسبوك أن يقوم بذلك لكل وحدة محتوى يزيلها.

تتحمّل شركات التواصل الاجتماعي مسؤولية الاستثمار على نحوٍ صحيح في كل من الإشراف البشري والآلي على المحتوى. يمكن أن ترتفع أعداد الأخطاء إن تُركت دون تصدٍّ أو رقابة، فتصبح جزءً من الأنظمة غير المكتملة التي أنتجتها. إن الفرص المتاحة لاستعادة المحتوى من قبل المستخدمين قليلة بشكل مخيّب. ومن غير الديمقراطي أن تكون القدرة على مناهضة عمليات الإزالة الجائرة متركزةً لدى عدد قليل من المنظمات الغربية، بما في ذلك الأرشيف السوري.

من بين الأفكار التي تلقى قبولًا في هذا المضمار؛ وجوب إتاحة المحتوى المُزال تحت تصنيف “إرهاب وتطرف عنيف”من قبل شركات التواصل الاجتماعي؛ وذلك للجهات التي يصبّ وصولها إليه في صالح المصلحة العامة، مثل المدافعين عن حقوق الإنسان، المحامين وخبراء مكافحة الإرهاب. إن مشاركة مثل هذه المواد أمر له تأثيره الذي نعرفه مسبقًا. كما حصل عام 2017، حيث أصدرت محكمة الجنايات الدولية أول مذكرة توقيف مستندة إلى أدلة وسائل التواصل الاجتماعي فقط، وكانت المذكرة باسم الورفلي، القائد العسكري الليبي. وفي عام 2018، وبناء على طلب الأمم المتحدة، خزّنت شركة فيسبوك محتوىً كانت قد أزالته سابقًا وأتاحت الوصول إليه للمحققين في سياق الإبادة الجماعية في ميانمار.

في العام نفسه، حفظ الأرشيف صورًا لهجمات غاز السارين في سوريا من وسائل التواصل الاجتماعي، وساعدت تلك الصور منظمة حظر الأسلحة الكيميائية على تحديد مسؤولية الحكومة السورية عن عدد من الهجمات الكيميائية. كان العديد من تلك الصور قد حُذف بالفعل من وسائل التواصل الاجتماعي قبل بدء التحقيقات لاحتوائها على مشاهد مؤذية.

لم تكن الأمور على المحكّ أكثر مما هي عليه الآن سواء على شبكة الإنترنت أم خارجها. تشهد وسائل التواصل الاجتماعي ارتفاعًا مستمرًا في نشاط مستخدميها تجاوز أكثر الأوقات انشغالًا مثل منتصف ليلة رأسة السنة الجديدة.

إن كنّا قادرين على أرشفة 5 ملايين صورة ومقطع فيديو، فشركات التواصل الاجتماعي قادرة ولا بد أن تفعل الشيء نفسه بطريقة تحافظ على خصوصية محتوىً لا يمكن أن تبقيه متاحًا للعموم، لكن قيمته أكبر من أن يُمحى. وفقًا لحساباتنا، تبلغ تكلفة الأرشفة الآمنة لمليون مقطع فيديو وصورة على خادوم لمدة عام حوالي 10.000$. ما يعني أن شركات فيسبوك، تويتر ويوتيوب كانت ستتكلف مجتمعة نصف مليون دولار لتخزين المحتوى الذي حذفته عام 2019. يجب أن يكون لدى هذه الشركات، التي تبلغ عائداتها السنوية مليارات، القدرة على التوصل إلى حلول لكيفية القيام بذلك مع الحفاظ على الخصوصية، وهو مطلب العديد من منظمات المجتمع المدني بالفعل.

تدفع شركات وسائل التواصل الاجتماعي ضريبة قصور استثمارها في الإشراف البشري على المحتوى. حيث دفع فيسبوك الشهر الماضي 52 مليون دولار كتعويضات لمشرفي محتوى حاليين وسابقين أصيبوا بالصدمة جراء عملهم.

logo

الأرشيف السوري

الأرشيف السوري هو مشروع مستقل تمامًا، لا يقبل الدعم المالي من الحكومات المتورطة بشكلٍ مباشر في النزاع السوري. نسعى للحصول على التبرعات من الأفراد لنتمكّن من الاستمرار بعملنا. يمكنكم دعمنا عبر صفحة باتريون الخاصة بالمشروع.

تبرّع
Mnemonicالأرشيف السودانيالأرشيف اليمنيukrainian archive
اشترك بقائمتنا البريدية