خوارزميات حماية الإنترنت تمحو مجتمعات الميم بصمت
٣٠ مارس ٢٠٢٦

يعتقد معظم الناس أن الإنترنت يعمل كساحة عامة محايدة. ونميل إلى تصديق أن ما نراه على الإنترنت هو مجرد انعكاس للمحتوى الرائج، بينما ما يختفي منه يكون قد تجاهله الجمهور ببساطة. لكن تحت سطح حياتنا الرقمية اليومية، تتخذ أنظمة آلية قرارات تحريرية هائلة بصمت. تعمل خوارزميات البرامج، المصممة للحفاظ على سلامة المنصات وجاذبيتها للمعلنين، كحراس غير مرئيين. وبالنسبة لمجتمع الميم، غالباً ما يتعامل هؤلاء الحراس الرقميون مع وجودهم ذاته على أنه انتهاك للقواعد.
الافتراض الشائع هو أن الإشراف على المحتوى يستهدف فقط السلوكيات الضارة بالفعل، مثل خطاب الكراهية المتعمد أو الأنشطة غير القانونية. لكن في الواقع، تعتمد البنية التحتية الرقمية للويب الحديث بشكل كبير على فلاتر كلمات مفتاحية بدائية وبرامج للتعرف على الأنماط. وعلى مدى السنوات القليلة الماضية، وجد الباحثون الذين يحللون المنصات الرقمية نمطاً مقلقاً. إذ تقوم أنظمة الإشراف الآلية بشكل روتيني بتصنيف كلمات غير ضارة مرتبطة بهويات مجتمع الميم، وتعتبرها محتوى للبالغين أو مثيراً للجدل أو ساماً بطبيعته.
وقد سلطت الأبحاث الصادرة عن منظمات مثل "مركز الديمقراطية والتكنولوجيا" (Center for Democracy and Technology) الضوء على هذا الاحتكاك الرقمي. فقد أظهرت الدراسات التي اختبرت نماذج معالجة اللغات الطبيعية أن أدوات الذكاء الاصطناعي تمنح باستمرار درجات "سمية" أعلى للجمل التي تحتوي ببساطة على كلمات مثل "مثلي" أو "مثلية" أو "عابر جنسانياً". وفي نمط موثق جيداً عبر شبكات الإعلانات الكبرى، أُدرجت هذه المصطلحات التعريفية الأساسية في قوائم الحظر الخاصة بـ"سلامة العلامة التجارية"، جنباً إلى جنب مع الألفاظ النابية واللغة العنيفة. يستخدم المعلنون هذه الأدوات البرمجية لتجنب وضع إعلاناتهم بجوار محتوى مثير للجدل. ونتيجة لذلك، يتم تجريد المقالات أو مقاطع الفيديو العادية تماماً التي تتناول حياة مجتمع الميم من عائدات الإعلانات تلقائياً.
هذه ليست مجرد مشكلة في بضعة مواقع إلكترونية معطوبة. إنها قضية نظامية متجذرة في تكنولوجيا الشركات التي تشغل الإنترنت العالمي. تعتمد منصات التواصل الاجتماعي على الإشراف الآلي لمسح مليارات المنشورات يومياً. وعندما يبحث شاب عن مصادر دعم مجتمعية، أو تنشر وسيلة إعلامية مستقلة قصة عن الحقوق المدنية، فإن البرامج الأساسية غالباً ما تحد من وصول هذا المحتوى. وتُظهر البيانات من المجموعات المدافعة عن صانعي المحتوى مراراً وتكراراً أن صانعي المحتوى من مجتمع الميم يعانون من انخفاضات مفاجئة في الوصول إلى الجمهور، وهي ظاهرة تُعرف باسم "الحظر الشبحي" (shadowbanning)، لمجرد استخدامهم مصطلحات مجتمعهم في العناوين أو الوسوم.
لفهم سبب حدوث ذلك، يجب أن ننظر إلى كيفية بناء النظم البرمجية الحديثة. فنماذج التعلم الآلي لا تفهم السياق البشري. إنها تُدرَّب على مجموعات بيانات ضخمة مأخوذة من الإنترنت المفتوح. ولأن مصطلحات مجتمع الميم كثيراً ما تكون هدفاً للمضايقات والتنمر والنقاشات السياسية الحادة على الإنترنت، تتعلم الخوارزميات ربط هذه الكلمات بالصراع. ويربط الذكاء الاصطناعي رياضياً بين الهوية و"السمية". وعندما يحدد مهندس برمجيات معياراً لتصفية المحتوى العدائي، فإن الآلة تقوم بجدية بقمع أهداف العداء جنباً إلى جنب مع المهاجمين.
علاوة على ذلك، تعطي صناعة تكنولوجيا الشركات الأولوية باستمرار للتوسع على حساب الدقة. فمن الأرخص والأسرع لمنصة سحابية أو شبكة اجتماعية عالمية استخدام قوائم حظر واسعة للكلمات المفتاحية بدلاً من توظيف عدد كافٍ من المشرفين البشريين لفهم السياق. لا تستطيع الآلة التمييز بسهولة بين شتيمة تُستخدم كسلاح وشخص من فئة مهمشة يستعيد هويته. لذلك، تلجأ البنية الرقمية افتراضياً إلى القمع الفظ الذي يتجنب المخاطر. وهكذا، تقرر البرامج فعلياً أن الطريقة الأكثر أماناً للتعامل مع مواضيع مجتمع الميم هي إخفاؤها ببساطة.
إن عواقب هذا المحو الخوارزمي وخيمة. بالنسبة لناشري الإعلام الرقمي، فإن تصنيفهم بواسطة برامج "سلامة العلامة التجارية" يعني خسارة أموال الإعلانات اللازمة للاستمرار. وقد واجهت العديد من وسائل الإعلام المستقلة الخاصة بمجتمع الميم خراباً مالياً لمجرد أن البنية التحتية الرقمية الآلية اعتبرت تقاريرها محفوفة بالمخاطر بالنسبة للرعاة من الشركات. تقوم البرامج بهدوء بتجويع هذه المنظمات من الإيرادات دون إصدار حظر رسمي أبداً.
على المستوى الإنساني، يكون التأثير أكثر عزلة. فلعقود من الزمان، كان الإنترنت شريان حياة حيوياً للأشخاص الذين يعيشون في بيوت غير داعمة أو مناطق معادية. وغالباً ما يكون المكان الوحيد الذي يمكن للأفراد فيه طرح أسئلة حول هويتهم بأمان أو العثور على مجتمع داعم. وعندما تقوم محركات البحث وخوارزميات وسائل التواصل الاجتماعي بدفن هذه المحادثات تحت ستار "سلامة المستخدم"، فإنها تقطع شريان الحياة الرقمي هذا. قد يجد مراهق يبحث عن الدعم صفحات فارغة أو تحذيرات من محتوى مقيد أو فقط منشورات شركات منمقة للغاية، وذلك ببساطة لأن النظام البرمجي الأساسي يرى أن مصطلحات بحثه غير لائقة.
يتطلب إصلاح هذا الأمر تحولاً جذرياً في كيفية تصميم شركات التكنولوجيا لبنيتها التحتية الرقمية. يجب على مهندسي البرمجيات التوقف عن الاعتماد على قوائم الحظر الكسولة للكلمات المفتاحية وبناء ذكاء اصطناعي أكثر تطوراً ووعياً بالسياق. ويجب مراجعة بيانات التدريب بدقة لضمان أن نماذج التعلم الآلي لا تستوعب وتضخم تحيزات الإنترنت المفتوح. ويجب على شركات التكنولوجيا تدريب أنظمتها الآلية بفاعلية للتمييز بين خطاب الكراهية الموجه ضد مجتمع ما واللغة اليومية العادية التي يستخدمها ذلك المجتمع.
إضافة إلى ذلك، يحتاج قطاع تكنولوجيا الشركات إلى استعادة الإشراف البشري في عمليات الإشراف على المحتوى. فبينما تكون الأتمتة ضرورية للتعامل مع الحجم الهائل لحركة المرور على الإنترنت، فإن السياق البشري ضروري للإنصاف. ويجب على شركات التكنولوجيا توفير عمليات استئناف شفافة عند حرمان المحتوى من العائدات أو قمعه، مما يسمح للمستخدمين بالطعن في القرارات الآلية التي تتخذها خوارزميات خفية. ويجب محاسبة المنصات عن الأضرار الجانبية التي تسببها أدوات السلامة الخاصة بها.
التكنولوجيا ليست محايدة أبداً. فالنظم البرمجية التي نتفاعل معها كل يوم من صنع البشر، وهي تعكس نقاط الضعف لدى صانعيها. عندما نسمح للبنية التحتية الرقمية بالتعامل مع فئة سكانية بأكملها كخطأ في النظام أو كمخاطرة تجارية، فإننا نخفق في تحقيق الوعد الأساسي للإنترنت. يتطلب العالم المتصل حقاً مساحات رقمية يمكنها التعامل مع الطيف الكامل للهوية الإنسانية. وإلى أن تقوم صناعة التكنولوجيا بتحديث افتراضاتها الأساسية، سيستمر حراسها الآليون في فرض محو خوارزمي صامت.