حرب الذكاء الاصطناعي ضد خطاب التطرف تزداد خطورة بسرعة
١٦ أبريل ٢٠٢٦
تتسابق شركات الذكاء الاصطناعي لكشف المحتوى المتطرف، لكن أنظمتها تخلط بينه وبين الدين واللغة والسياسة. والنتيجة هي فشل أمني حقيقي واتهامات زائفة ورقابة تزداد قسوة.
قد لا تأتي فضيحة الذكاء الاصطناعي الكبرى التالية من روبوت دردشة جامح أو تزييف عميق يخدع الناخبين. بل قد تأتي من أمر أكثر حساسية: آلات تقرر ما هو الخطاب المتطرف، ومن يبدو مشتبهاً به، وأي المجتمعات يجب مراقبتها أولاً. هذا الصراع قائم بالفعل، ويزداد تعقيداً كل أسبوع.
في جميع أنحاء قطاع التكنولوجيا، تبيع الشركات أنظمة ذكاء اصطناعي تعد بكشف دعاية الإرهاب والتهديدات العنيفة وأنماط التطرف بسرعة الآلة. الحكومات تريدها. والمنصات تحتاجها. والمستثمرون يرون فيها منجم ذهب. لغة المبيعات دائماً واحدة: الآلة أسرع من البشر. الآلة ترى أنماطاً لا يراها البشر. الآلة توقف الخطر قبل انتشاره. يبدو الأمر نظيفاً وحديثاً وحتمياً.
لكن عندما تصل هذه الأنظمة إلى العالم الحقيقي، تصبح القصة مختلفة. اللغة ليست رياضيات. والدين ليس مسرح جريمة. والغضب السياسي ليس مثل النية بارتكاب العنف. مع ذلك، تواصل أدوات الإشراف بالذكاء الاصطناعي الخلط بين هذه الأمور، خاصة عندما يتعلق الأمر باللغات العربية والأردية وغيرها من اللغات الخاضعة لتدقيق شديد. حذر الباحثون من هذا لسنوات. وقد وثقت منظمات مثل "هيومن رايتس ووتش" و"أكسس ناو" وفرق أكاديمية عدة أخطاء متكررة في الإشراف الآلي تتعلق بالنزاعات والإسلام والخطاب السياسي. ببساطة، تتخذ الآلات قرارات خطيرة في سياقات يكون فيها فهم الخلفية هو كل شيء، والدقة غالباً ما تكون مهزوزة.
والأدلة ليست نظرية. في عام 2021، قال مجلس الإشراف الخاص بشركة "ميتا" إن الشركة أزالت خطأً محتوى يوثق انتهاكات في الشرق الأوسط. حدث ذلك لأن أنظمتها كانت تفرض إجراءات مفرطة على المواد باللغة العربية. خلال فترات النزاع، أصبح هذا النمط مألوفاً بشكل مؤلم. تُحذف المنشورات. وتُجمد الحسابات. ويجد الصحفيون والنشطاء والمستخدمون العاديون أنفسهم يصرخون في فراغ، بينما تصر المنصات على أنها تحمي الجمهور. أحياناً تكون المنصات تحجب الدعاية فعلاً. وأحياناً أخرى تكون ببساطة تتجاهل السياق تماماً.
هذا هو الخطر الرئيسي في سوق أمن الذكاء الاصطناعي الجديد. يُباع كدرع ضد الإرهاب، لكنه في الواقع يتصرف كأداة غليظة. عبارة واحدة، صورة واحدة، مقطع خطبة، نقاش تاريخي، أو منشور حزين بعد هجوم، قد يتعامل النظام معها جميعاً كأشكال مختلفة من التهديد نفسه. الآلة لا تفهم الحزن. ولا تستوعب السخرية. ولا تعرف ما إذا كان المستخدم يمدح العنف أم يدينه أم يوثقه. إنها تتنبأ بناءً على الأنماط. والأنماط المبنية على سنوات من البيانات المتحيزة يمكن أن تتحول إلى اشتباه آلي.
هذا ليس وهماً. هكذا يعمل تعلم الآلة. تتعلم النماذج من التصنيفات السابقة، وهذه التصنيفات تعكس أحكاماً بشرية وأولويات مؤسسية وضغوطاً سياسية. إذا ركزت فرق الإشراف تاريخياً بشكل أكبر على مناطق أو لغات أو علامات دينية معينة، فإن النموذج الذي تدرب على هذا التاريخ سيمتص تلك الأنماط. أظهر باحثون في مؤسسات مثل ستانفورد ونيويورك مراراً أن أنظمة الإشراف على المحتوى يمكن أن تعمل بشكل غير متساوٍ عبر اللغات والثقافات المختلفة. اللغة الإنجليزية تحصل على أغنى بيانات التدريب، وأكبر قدر من ضبط السياسات، وأوسع تدقيق عام. أما البقية فغالباً ما يحصلون على الفتات.
والآن أضف إلى ذلك سوق مكافحة الإرهاب، حيث يدفع الخوف عمليات الشراء ويموت الفهم الدقيق للسياق أولاً. هنا يعد البائعون بتحديد مسارات التطرف، والروابط الشبكية، والخطابات عالية الخطورة قبل أن يتمكن المحللون البشريون من رصدها. يبدو العرض لا يقاوم بعد كل هجوم كبير. لا يريد أي وزير أو عمدة أن يكون المسؤول الذي رفض أداة تُسوَّق على أنها وسيلة للوقاية. لكن الادعاءات التنبؤية في هذا المجال تستحق تشكيكاً قوياً. تاريخ تكنولوجيا الأمن مليء بمنتجات وعدت بالكثير وقدمت القليل، خاصة عندما غلف البائعون عمليات فرز البيانات العادية بلغة الاختراقات الاستخباراتية.
حتى بعض أقوى مؤيدي سلامة الذكاء الاصطناعي يعرفون أن هذا يمكن أن يخرج عن السيطرة بسرعة. المشكلة ليست في وجود محتوى متطرف عنيف على الإنترنت. فهو موجود، وقد أمضت المنصات سنوات في محاولة احتوائه. المشكلة هي القفزة من تحديد الدعاية الواضحة إلى بناء أنظمة تستنتج الأيديولوجية الخطرة من أجزاء من الكلام أو الارتباطات أو المفردات الدينية. هنا يمكن للعمل الشرطي المشروع أن يتحول إلى تنميط رقمي.
أوروبا أصبحت ساحة معركة رئيسية. بموجب قانون الخدمات الرقمية للاتحاد الأوروبي، تواجه المنصات الكبرى ضغوطاً للتصرف بقوة أكبر ضد المواد غير القانونية والضارة، بما في ذلك المحتوى الإرهابي. في الوقت نفسه، تحذر جماعات حقوقية من أن الأتمتة المفرطة يمكن أن تمحو الخطاب المشروع وتدفن الطعون تحت ركام البيروقراطية. في بريطانيا، حيث لطالما كانت سياسة مكافحة التطرف مسيسة، أمضت جماعات الحريات المدنية سنوات في الطعن على التجاوزات في البرامج التي تهدف إلى رصد علامات التطرف. والآن يهدد الذكاء الاصطناعي بتعزيز هذه النزعات نفسها بشفافية أقل وعلى نطاق أوسع.
ثم هناك مشكلة الإنترنت المفتوح. لقد سهّل الذكاء الاصطناعي التوليدي إنتاج الدعاية بلغات متعددة، ونسخ الرموز، وإعادة مزج الخطب، وإغراق الشبكات بمواد مقنعة بتكلفة منخفضة. حذرت اليوروبول في عام 2023 من أن الذكاء الاصطناعي التوليدي يمكن أن يدعم العمليات الإجرامية والمتطرفة من خلال جعل التجنيد والدعاية أسهل انتشاراً. هذا التحذير مهم. فالتهديد حقيقي. لكن هذا هو بالضبط سبب خطورة الذعر. يمكن استخدام تهديد حقيقي لتبرير استخدام أدوات غير دقيقة، ومراقبة واسعة النطاق، وشراكات سرية بين الحكومات وشركات التكنولوجيا التي تعمل بقليل من المساءلة العامة.
من هنا يبدأ الحديث عن المؤامرات، وهو يزدهر لأن المؤسسات تستمر في تغذيته. عندما ترفض الحكومات شرح كيفية تحديد الأنظمة للمستخدمين، وعندما تختبئ المنصات وراء لغة سلامة غامضة، وعندما يفقد الأبرياء حساباتهم أو يواجهون التدقيق دون حل واضح، يمتلئ الفراغ بالشائعات. يبدأ الناس في الاعتقاد بأنهم مراقبون بسبب الكلمات التي يصلون بها، أو التاريخ الذي يناقشونه، أو السياسة التي ينتقدونها. أحياناً تكون هذه المخاوف مبالغاً فيها. وأحياناً لا تكون كذلك. النقطة بسيطة: الغموض يولد الشك، والذكاء الاصطناعي يجعل تحدي السلطة الغامضة أكثر صعوبة.
الدفاع المفضل لدى هذه الصناعة هو أن المراجعة البشرية لا تزال جزءاً من العملية. يبدو هذا مطمئناً حتى تنظر إلى حجم العمل. مليارات المنشورات تتحرك عبر المنصات الكبرى. تقوم الفلاتر الآلية بالفرز الأولي. وتصنف أنظمة الفرز المخاطر. ويعمل المراجعون تحت ضغط، وغالباً بمعرفة محلية محدودة ووقت قليل. بمجرد أن يصف نظام الذكاء الاصطناعي شيئاً بأنه خطير، يمكن أن يؤثر هذا التصنيف على كل قرار لاحق. الإشراف البشري في هذه العمليات غالباً ما يكون مجرد موافقة روتينية تحت الضغط، وليس ضمانة حقيقية.
لا يعني أي من هذا أن شركات التكنولوجيا يجب أن تتخلى عن جهودها لوقف العنف المتطرف الحقيقي على الإنترنت. سيكون هذا سخيفاً. لقد استخدمت دعاية تنظيم "داعش"، وكتيبات الهجمات، وحملات التجنيد المنظمة المنصات الرقمية بفعالية في الماضي. كما وثقت وكالات إنفاذ القانون في جميع أنحاء أوروبا وآسيا والشرق الأوسط كيف يمكن للشبكات المشفرة والأنظمة الإعلامية عبر الإنترنت أن تساعد الجماعات العنيفة. التهديد ليس من اختراعنا. المشكلة هي أن الشركات والحكومات تتصرف كما لو أن الكشف الأسرع يعني تلقائياً كشفاً أذكى. وهذا غير صحيح.
الطريق الأذكى أصعب وأقل بريقاً. إنه يعني ادعاءات أضيق. خبرة لغوية أفضل. مراجعات مستقلة. تقارير علنية عن الأخطاء. أنظمة طعون واضحة. وقواعد قوية ضد استنتاج النية العنيفة من الدين وحده. إنه يعني الاعتراف بأن النموذج لا يمكنه بشكل موثوق تسوية الغموض السياسي والديني والثقافي على نطاق واسع لمجرد أن لوحة تحكم البائع تضيء باللون الأحمر.
تحب صناعة الذكاء الاصطناعي الحديث عن "المواءمة". هذا هو الاختبار الحقيقي. إذا لم تتمكن هذه الأنظمة من التمييز بين الإيمان والتعصب، أو بين التغطية الإعلامية والدعاية، أو بين المعارضة والخطر، فهي لا تجعلنا أكثر أماناً. بل إنها تؤتمت أحد أقدم الإخفاقات في السياسة الحديثة: معاملة مجتمعات بأكملها على أنها مشكلة يجب إدارتها. وبمجرد برمجة هذا المنطق في الأكواد، فإنه يتحرك بسرعة، ويختبئ جيداً، ويصعب التراجع عنه بشكل كبير.
Source: Editorial Desk