سلاح جديد ضد التحرش الرقمي: الذكاء الاصطناعي يحظر الصور الخادشة على هاتفك

٣١ مارس ٢٠٢٦

سلاح جديد ضد التحرش الرقمي: الذكاء الاصطناعي يحظر الصور الخادشة على هاتفك

يعتقد الكثيرون أن شركات التكنولوجيا الحديثة قادرة على فلترة أي محتوى محظور على الفور قبل أن يصل إلى شاشة المستخدم. فنحن نثق بالذكاء الاصطناعي في كشف انتهاكات حقوق النشر في ثوانٍ، وتحديد خطاب الكراهية أثناء كتابته، وحتى في إنشاء صور واقعية لمناظر طبيعية من مجرد وصف نصي. ولكن، لأكثر من عقد من الزمان، استطاع شكل من أشكال التحرش الرقمي واسع الانتشار أن يفلت من هذه الشباك الخوارزمية الهائلة. فالصور غير المرغوب فيها للأعضاء التناسلية الذكرية، التي غالبًا ما يُستهان بها باعتبارها مزحة مزعجة لا مفر منها في عصر المواعدة الرقمية، شكلت تحديًا صعبًا بشكل مفاجئ لمهندسي الرؤية الحاسوبية. إن المعركة لبناء برامج يمكنها تحديد هذه الصور الفاضحة وحظرها بدقة دون انتهاك خصوصية المستخدم تعيد تشكيل كيفية تصميمنا للبنية التحتية الرقمية الحديثة.

حجم المشكلة هائل، مما يتطلب تدخلاً تقنياً وليس مجرد تدخل سلوكي. تظهر البيانات التي جمعها مركز "بيو" للأبحاث باستمرار أن ما يقرب من نصف الشابات الناشطات على الإنترنت قد تلقين صوراً فاضحة لم يطلبنها. في تطبيقات المواعدة، ومنصات الرسائل المجهولة، والرسائل المباشرة على وسائل التواصل الاجتماعي، يعمل الظهور المفاجئ لهذه الصور كشكل من أشكال الاستعراضية الرقمية. لسنوات، اعتمدت المنصات بالكامل على الإشراف القائم على رد الفعل. كان على المستخدم فتح الرسالة، وتلقي صدمة الصورة، ثم الانتقال يدويًا عبر قائمة الإبلاغ لتنبيه فريق إشراف بشري. هذا النظام القديم أجبر الضحية على تحمل عبء التنفيذ بالكامل، بينما ظل البرنامج نفسه مجرد قناة سلبية للإساءة.

فشل البرامج المبكرة في التعامل مع هذه القضية لفت انتباه المشرعين في نهاية المطاف، مما حول المشكلة من مجرد شكوى مستخدم إلى مسؤولية قانونية نظامية. في المملكة المتحدة، جرّم تشريع حديث "الاستعراضية الإلكترونية" (cyberflashing)، لتنضم بذلك إلى عدد متزايد من الولايات الأمريكية، مثل كاليفورنيا وتكساس، التي فرضت عقوبات على إرسال الصور الحميمية غير المرغوب فيها. مع تصاعد المخاطر القانونية، لم يعد بإمكان شركات التكنولوجيا التعامل مع القضية على أنها مشكلة إشرافية ذات أولوية منخفضة. وأُجبرت على الاستثمار بكثافة في الهندسة الاستباقية، لتصطدم بالقيود التقنية الشديدة لبرامج التعرف على الصور الحالية.

السبب الكامن وراء هذا التأخير لم يكن مجرد لامبالاة من الشركات، بل كان قيداً حقيقياً في بنية الذكاء الاصطناعي والخصوصية. قد يبدو تدريب نموذج تعلم آلي للتعرف على أجزاء معينة من التشريح البشري أمراً بسيطاً في عالم يهيمن عليه التعرف على الوجوه، لكن جسم الإنسان يطرح متغيرات معقدة للغاية على الكمبيوتر. عانت خوارزميات التعرف على الصور المبكرة بشكل لا نهائي من النتائج الإيجابية الخاطئة. فالتغيرات في الإضاءة، وتنوع درجات لون البشرة، والظلال الكثيفة، وأشياء بريئة تماماً مثل الأصابع أو النقانق أو الفواكه غريبة الشكل، كانت تخدع البرنامج بشكل متكرر وتدفعه للإبلاغ عن صور عادية. وجد المهندسون أن الخوارزمية التي يتم ضبطها بصرامة شديدة ستحجب المحادثات اليومية، بينما الخوارزمية التي يتم ضبطها بتساهل شديد ستسمح للتحرش بالمرور دون رادع.

علاوة على ذلك، مع تحرك قطاع التكنولوجيا الأوسع نحو التشفير من طرف إلى طرف لحماية خصوصية المستخدمين عالميًا، ظهرت عقبة جديدة ضخمة أمام مشرفي المحتوى. فإذا كانت المنصة لا تستطيع قانونيًا أو تقنيًا فك تشفير محتويات رسالة مباشرة على خوادمها المركزية والاطلاع عليها، فلا يمكنها استخدام خوارزمية سحابية لفحص الصور المسيئة أثناء إرسالها. وقد خلق هذا مفارقة في البنية التحتية الرقمية. فمعايير التشفير ذاتها المصممة لحماية المستخدمين من مراقبة الحكومات وجمع بيانات الشركات، كانت توفر عن غير قصد نفقًا آمنًا تمامًا للمسيئين لنشر الصور الحميمية غير المرغوب فيها دون كشفهم.

يحمل الفشل التكنولوجي في فلترة هذه الصور عواقب وخيمة على الحياة العامة الرقمية. أظهرت الأبحاث في السلوك عبر الإنترنت مرارًا وتكرارًا أن التعرض المتكرر للتحرش الجنسي الرقمي يخلق "تأثيراً مثبطاً" كبيراً على المشاركة في الإنترنت. يبلغ المستخدمون عن شعورهم بعدم الأمان بشكل أساسي في رسائلهم المباشرة، مما يدفعهم إلى إغلاق حساباتهم، أو التخلي عن النقاشات العامة، أو مغادرة تطبيقات معينة بالكامل. إن صعوبة هذا التبادل الرقمي غير متكافئة على الإطلاق. فتحميل صورة وإرسالها لا يستغرق سوى جزء من الثانية، لكن معالجة الانتهاك العاطفي، وحظر المرسل، والتعامل مع واجهة إبلاغ معقدة، يستنزف وقتًا وطاقة هائلين من المتلقي. لقد دعمت بنية الإنترنت هذا التحرش بشكل أساسي من خلال جعله بلا تكلفة للمرسل ومرهقًا للمتلقي.

لحل هذا اللغز المعقد، كان على المهندسين إعادة التفكير في كيفية عمل الإشراف على الصور بشكل أساسي. فبدلاً من فحص الصور في سحابة مركزية، بدأت الشركات في تطوير نماذج ذكاء اصطناعي خفيفة قادرة على العمل بالكامل على الأجهزة المحلية للهاتف الذكي. هذا المفهوم، المعروف باسم "الحوسبة الطرفية" (edge computing)، ينقل القوة التحليلية إلى الجهاز الذي في يدك. كانت منصات المواعدة رائدة في تطوير إصدارات مبكرة من هذا الكشف المحلي، حيث نشرت خوارزميات مدربة على مجموعات بيانات محددة للغاية لتحديد تشريح الذكور داخل الصورة محليًا قبل أن تظهر بالكامل على الشاشة.

عندما يحسب البرنامج المحلي احتمالًا كبيرًا لوجود محتوى فاضح، فإنه يقوم تلقائيًا بتمويه الصورة ويعرض على المستخدم تحذيرًا. وهذا يمنح المتلقي القدرة على عرض الصورة أو الإبلاغ عنها أو حذفها دون أن يتعرض أبدًا للنسخة غير المموهة. وقد أدمجت شركة "آبل" مؤخرًا ميزة أمان اختيارية مماثلة مباشرة في نظام تشغيل هواتفها. ولأن تحليل الصورة يحدث بالكامل على شريحة السيليكون الخاصة بالجهاز بدلاً من خادم بعيد، فإن التشفير من طرف إلى طرف يظل سليمًا تمامًا. فالمنصة لا ترى الصورة أبدًا، لكن المستخدم يظل محميًا من الإساءة.

تمثل أدوات التمويه على الجهاز تحولًا فلسفيًا كبيرًا في كيفية بناء البنية التحتية الرقمية وتحديد أولويات السلامة الشخصية. لفترة طويلة، تعاملت صناعة التكنولوجيا مع حماية المستخدم كفكرة ثانوية، وهي مشكلة يتولاها مشرفون بشريون يتقاضون أجوراً زهيدة لتنظيف الفوضى الرقمية بعد أن يكون الضرر النفسي قد وقع بالفعل. من خلال دفع الذكاء الاصطناعي مباشرة إلى حافة الشبكة، يبني المطورون أخيرًا حدودًا رقمية يمكن للمستخدمين التحكم فيها. لقد أوجدت التكنولوجيا في الأصل بيئة سلسة سمحت لهذا النوع المحدد من التحرش بالازدهار، ولكن مع خوارزميات أذكى وتحترم الخصوصية، فإنها توفر أخيرًا الأدوات اللازمة لإغلاق الباب في وجهه.

Publication

The World Dispatch

Source: Editorial Desk

Category: Technology