تسريب شفرة الذكاء الاصطناعي: خطر يتجاوز مجرد إحراج شركة مثل أنثروبيك

١ أبريل ٢٠٢٦

تسريب شفرة الذكاء الاصطناعي: خطر يتجاوز مجرد إحراج شركة مثل أنثروبيك

عندما يسمع معظم الناس عبارة "تسريب الشفرة المصدرية"، يفكرون في إحراج للشركة أو فقدان أسرار تجارية أو معركة قانونية بين المنافسين. لكن هذا التصور ضيق جداً. في عالم الذكاء الاصطناعي، يمكن أن يعني التسريب شيئاً أكبر: كشف التعليمات الخفية وضوابط الأمان والأدوات الداخلية التي تشكل سلوك نموذج قوي في العالم الحقيقي. فلو تم تسريب شفرة مرتبطة بشركة كبرى مثل "أنثروبيك"، لن تنتهي القضية عند حدود الملكية الفكرية، بل ستثير سؤالاً أصعب حول ما إذا كانت أنظمة الذكاء الاصطناعي الأكثر تأثيراً اليوم تتم حمايتها بالجدية المتوقعة من البنية التحتية الرقمية الحيوية.

وهذا القلق ليس نظرياً. فأنظمة الذكاء الاصطناعي الحديثة تتضمن أكثر بكثير من مجرد واجهة محادثة. تبني الشركات أنظمة كاملة حول أوزان النماذج، وأساليب الضبط الدقيق، وتلقينات النظام، ومرشحات المحتوى، ومسارات استرجاع البيانات، وأدوات التقييم، ولوحات التحكم الداخلية. قد لا يظهر بعض هذا في مستودع الشفرات التقليدي. لكن عندما يظهر، يمكن للشفرة أن تكشف الافتراضات ونقاط الضعف خلف نموذج يعتمد عليه ملايين الناس في الكتابة والبرمجة والبحث وخدمة العملاء وقرارات العمل. وفي قطاع يطلب من الجمهور بشكل متزايد أن يثق بضمانات غير مرئية، فإن أي كشف جزئي لهذه الأسرار يعد أمراً خطيراً.

لقد أظهرت السنوات الأخيرة مدى الضرر الذي يمكن أن تسببه التسريبات عندما يتعلق الأمر بأنظمة الذكاء الاصطناعي سريعة التطور. في عام 2023، ظهرت مجموعة من مواد جوجل الداخلية على الإنترنت، وأعطت الغرباء نظرة أوضح على كيفية تفكير واحدة من أكبر مجموعات التكنولوجيا في العالم بشأن المنافسة في مجال الذكاء الاصطناعي مفتوح المصدر. وفي نفس الفترة تقريباً، انتشرت أوزان نموذج "لاما" (LLaMA) التابع لشركة ميتا على نطاق واسع، مما سرّع وتيرة التجارب في هذا المجال. قال المؤيدون إن ذلك ساعد الأبحاث، بينما قال المنتقدون إنه سهّل نسخ القدرات المتقدمة وتكييفها وإساءة استخدامها. النقطة ليست أن كل التسريبات متساوية، بل أن تسريبات الذكاء الاصطناعي لها تأثيرات تتجاوز بكثير المصالح المالية لشركة واحدة.

الأدلة من مجال الأمن السيبراني مقلقة أيضاً. فقد وجد تقرير شركة "آي بي إم" لعام 2024 حول تكلفة خرق البيانات أن المتوسط العالمي لتكلفة الاختراق وصل إلى أعلى مستوى له على الإطلاق، وهو 4.88 مليون دولار. هذا الرقم يغطي خسائر الأعمال بشكل عام، وليس فقط شركات الذكاء الاصطناعي. لكن شركات الذكاء الاصطناعي تحمل طبقة إضافية من المخاطر لأن منتجاتها غالباً ما تكون مدمجة داخل خدمات أخرى. أي ثغرة أمنية لدى مزود نموذج واحد يمكن أن تنتشر آثارها إلى شركات المحاماة والمستشفيات والمدارس وفرق البرمجيات والمقاولين الحكوميين الذين يستخدمون هذا النموذج عبر واجهة برمجة التطبيقات (API). حادث أمني واحد يمكن أن يصبح مشاكل عديدة لاحقة.

السبب الأساسي بسيط ومقلق. تتحرك شركات الذكاء الاصطناعي بسرعة لأن السوق يكافئ السرعة. يمكن لإطلاق نموذج جديد أن يغير تقييم الشركة ويجذب عقوداً ضخمة ويغير نظرة الجمهور بين عشية وضحاها. في المقابل، غالباً ما تتحسن إجراءات الأمان وضوابط الوصول الداخلي ببطء أكثر. هذا التفاوت شائع في عالم التكنولوجيا، لكن الذكاء الاصطناعي يزيده حدة لأن التطوير يتم عبر فرق ضخمة موزعة تستخدم أدوات سحابية ومستودعات مشتركة وتطبيقات من أطراف ثالثة ومتعاقدين. كل طبقة إضافية يمكن أن تصبح نقطة ضعف جديدة. ببساطة، المرونة التي تساعد الشركات على بناء أنظمة متقدمة يمكنها أيضاً أن تسهل انتشار الشفرات الحساسة أو تفاصيل الإعدادات إلى حيث لا ينبغي لها أن تصل.

هناك أيضاً مشكلة ثقافية. لقد أمضى قطاع الذكاء الاصطناعي سنوات وهو يروج لنفسه كبيئة قائمة على الانفتاح والتقدم والتطوير السريع. هذه القيم ساعدت على ازدهار الأبحاث، لكنها جعلت الخط الفاصل بين المشاركة الصحية والكشف الخطير غير واضح. لطالما اعتمد مجال تعلم الآلة الأكاديمي على نشر الأساليب والمعايير والشفرات. لكن الذكاء الاصطناعي التجاري المتقدم لم يعد مجرد مشروع أكاديمي، بل أصبح صناعة ذات مخاطر عالية لها منتجات تؤثر على النصائح المالية وصياغة الوثائق القانونية والتعليم والمعلومات السياسية. عادات الأمان الموروثة من عصر الأبحاث الأكثر انفتاحاً لم تعد تناسب هذا الواقع الجديد.

إذا تم تسريب شفرة مصدرية مرتبطة بشركة مثل "أنثروبيك"، فإن الخوف المباشر سيكون من استنساخ النموذج أو نسخه من قبل المنافسين. وهذا خطر حقيقي. لكن الخطر الأوسع هو أن تتمكن جهات خبيثة من استخدام المواد المسربة لدراسة الحواجز الوقائية والتحايل عليها. تعمل أنظمة الأمان غالباً عبر طبقات: تلقين معين يمنع فئة من الطلبات الضارة، ومصنّف آخر يكتشف المخرجات الخطيرة، وقاعدة داخلية أخرى تغير طريقة تعامل النموذج مع الحالات الاستثنائية. إذا أصبح من السهل فهم هذه الطبقات، فإن المهاجمين يحصلون على دليل إرشادي لاختراقها. وهذا ليس مجرد تخمين نظري، فقد أظهر باحثو الأمن مراراً أنه يمكن "التحايل" على النماذج بتلقينات مصممة بعناية، كما أن مجتمعات الإنترنت تتبادل طرقاً للقيام بذلك بالضبط.

التأثير الاجتماعي لا يقل خطورة. فالثقة في الذكاء الاصطناعي هشة بالفعل. أظهر كل من مؤشر "إيدلمان للثقة" واستطلاعات "مركز بيو للأبحاث" قلقاً عاماً واسع النطاق بشأن تأثير الذكاء الاصطناعي على العمل والمعلومات المضللة والسلامة. ففي الولايات المتحدة، أفاد مركز "بيو" في عام 2024 أن عدد الأمريكيين القلقين بشأن الاستخدام المتزايد للذكاء الاصطناعي في الحياة اليومية يفوق عدد المتحمسين له. أي تسريب كبير سيعمق هذا التشكك، وسيبعث برسالة مفادها أن الشركات التي تطلب من المدارس والمستشفيات والجهات الحكومية تبني الذكاء الاصطناعي على نطاق واسع قد لا تزال تعاني في الإدارة الأساسية لأنظمتها الخاصة.

قد تكون العواقب الاقتصادية واسعة النطاق. فالشركات التي تختار مزوداً للذكاء الاصطناعي لا تشتري مجرد برامج ذكية، بل تراهن على الموثوقية والامتثال واستمرارية العمل. إذا كشفت الشفرة المسربة عن ممارسات ضعيفة، فقد يعيد العملاء في القطاعات الخاضعة للتنظيم التفكير في استخدام هذه التقنيات أو يبطئون وتيرة تبنيها. وهذا أمر مهم لأن إنفاق الشركات أصبح الآن محورياً لنموذج عمل الذكاء الاصطناعي. وقد وجدت استطلاعات "ماكنزي" الأخيرة أن الشركات تنتقل من مرحلة التجارب إلى استخدام أعمق في عملياتها، خاصة في التسويق والبرمجيات وخدمة العملاء. وتعتمد هذه الاستثمارات على الثقة في قدرة المزودين على حماية الأنظمة نفسها، وليس فقط بيانات المستخدمين.

هناك جانب يتعلق بالسياسات أيضاً. فقد بدأت الحكومات في الولايات المتحدة والاتحاد الأوروبي والمملكة المتحدة في طرح أسئلة أكثر صرامة حول سلامة وحوكمة الذكاء الاصطناعي المتقدم. يمكن لتسريب كبير أن يدفع الجهات التنظيمية إلى التعامل مع شركات الذكاء الاصطناعي الكبرى ليس كبائعي برامج عاديين، بل كمشغلين لبنية تحتية حساسة. قد يعني ذلك قواعد إبلاغ أكثر صرامة، وعمليات تدقيق خارجية، وضوابط أقوى للتهديدات الداخلية، واختبارات أمنية أكثر رسمية. يقاوم البعض في هذا القطاع هذه الفكرة، بحجة أن التنظيم الصارم قد يبطئ الابتكار. لكن تاريخ الأسواق الرقمية يشير إلى عكس ذلك: فالثقة والتبني يزدادان عندما يعتقد المستخدمون أن هناك حماية حقيقية.

الاستجابة المنطقية ليست الذعر، بل النضج. يجب على شركات الذكاء الاصطناعي تقييد الوصول الداخلي إلى الأنظمة عالية الخطورة، وفصل بيئات البحث عن أنظمة التشغيل الفعلية، واستخدام توقيع ومراقبة أقوى للشفرات، وإجراء مراجعات دورية لمخاطر التهديدات الداخلية. يجب أن تصبح عمليات التدقيق الأمني المستقلة أمراً طبيعياً لا استثنائياً. كما يجب على العملاء الكبار التوقف عن التعامل مع شراء الذكاء الاصطناعي كشراء برنامج بسيط، وأن يطرحوا على المزودين أسئلة مباشرة حول أمان مستودعات الشفرات، والاستجابة للحوادث، ووصول المتعاقدين، واختبار ضمانات النموذج. يجب على مجالس الإدارة والمديرين التنفيذيين أن يفهموا أن مخاطر الذكاء الاصطناعي لا تقتصر على المخرجات السيئة، بل تكمن أيضاً في الآلية الخفية التي تنتجها.

الدرس الأعمق هو درس لا يزال قطاع الذكاء الاصطناعي يقاومه. فالنماذج القوية ليست منتجات سحرية تحلق فوق القواعد العادية. لقد بناها بشر، وهي مخزنة على خوادم، وتُدار عبر شفرات، وهي عرضة لنفس الإخفاقات التي تصيب بقية مجالات التكنولوجيا. إن تسريب شفرة مصدرية لشركة مثل "أنثروبيك" سيكون مهماً ليس لأنه يحطم أسطورة السيطرة الكاملة، بل لأنه يذكرنا بأنه لم تكن هناك سيطرة كاملة من الأساس. يجب على الجمهور أن يأخذ ذلك على محمل الجد، وكذلك كل شركة تتسابق لبناء العقل الآلي القادم الذي لا غنى عنه.

Publication

The World Dispatch

Source: Editorial Desk

Category: AI