داخل الصندوق الأسود: المشكلة المتنامية للذكاء الاصطناعي الذي لا يمكننا تفسيره
٢٨ مارس ٢٠٢٦

نميل إلى الاعتقاد بأن أجهزة الكمبيوتر منطقية في جوهرها، فهي تتبع القواعد. وإذا قدمت آلة إجابة ما، فإننا نفترض وجود مسار واضح من الرموز البرمجية والحسابات يمكن تتبعه للوصول إليها. ولكن بالنسبة للعديد من أقوى أنظمة الذكاء الاصطناعي التي تشكل عالمنا اليوم، فإن هذا الافتراض خاطئ بشكل خطير. فحتى مبتكرو هذه الأنظمة أنفسهم لا يستطيعون دائماً شرح المنطق الدقيق وراء قرار معين. هذه هي مشكلة "الصندوق الأسود"، وهي تمثل أحد أهم وأكثر التحديات إثارة للقلق في عصر الذكاء الاصطناعي الحديث.
في جوهرها، لا تعتبر هذه المشكلة عيباً برمجياً، بل هي سمة من سمات طريقة تعلم الذكاء الاصطناعي المتقدم. فعلى عكس البرامج التقليدية التي تُبرمَج بتعليمات شرطية صريحة مثل "إذا-فإن"، فإن نماذج التعلم العميق، وهي المحرك وراء الذكاء الاصطناعي التوليدي والأتمتة المعقدة اليوم، مستوحاة من الدماغ البشري. تتكون هذه النماذج من شبكات ضخمة متعددة الطبقات من "الخلايا العصبية" الاصطناعية التي تتعلم من خلال تحليل مجموعات هائلة من البيانات، وتعديل الروابط بينها حتى تتمكن من التعرف على الأنماط. على سبيل المثال، يمكن تدريب نظام على ملايين الصور الطبية لتحديد الأورام، أو على بيانات مالية لعقود من الزمن لتقييم مخاطر الائتمان. والنتيجة هي آلة يمكنها أداء مهمتها بدقة مذهلة، لكن منطقها الداخلي عبارة عن شبكة من مليارات الأوزان والتحيزات الرياضية، وهو مشهد من الارتباطات الإحصائية المعقدة لدرجة يصعب على العقل البشري تفسيرها.
ولهذا الغموض عواقب وخيمة على أرض الواقع. لنأخذ القطاع المالي كمثال، حيث تُستخدم نماذج الذكاء الاصطناعي بشكل متزايد للموافقة على القروض وبطاقات الائتمان أو رفضها. من حق الشخص الذي يُرفض طلبه للحصول على قرض أن يعرف السبب، لكن البنك الذي يستخدم نموذج "صندوق أسود" قد لا يتمكن من تقديم سبب محدد ومفهوم للبشر بخلاف "الخوارزمية قررت أنك تشكل خطراً كبيراً". وقد أبرزت الأبحاث الصادرة عن مؤسسات مثل معهد الذكاء الاصطناعي المرتكز على الإنسان في جامعة ستانفورد مراراً كيف أن تعقيد هذه النماذج يجعل من شبه المستحيل على المراجعين الخارجيين اكتشاف التحيزات الخفية. فإذا تم تدريب نموذج على بيانات منحازة تاريخياً، فقد يتعلم معاقبة المتقدمين من أحياء أو فئات سكانية معينة بشكل غير عادل دون أي تعليمات صريحة للقيام بذلك، مما يؤدي إلى استمرار عدم المساواة تحت ستار التكنولوجيا الموضوعية.
وتزداد المخاطر أكثر في المواقف التي تتعلق بالحياة أو الموت. فعندما تتخذ مركبة ذاتية القيادة قراراً في جزء من الثانية بالانحراف أو استخدام المكابح، يصبح فهم منطقها أمراً حاسماً للسلامة والمساءلة. وإذا وقع حادث، يصبح من الصعب للغاية تحديد المخطئ. هل كان السبب عطلاً في أجهزة الاستشعار، أم خللاً في الرمز البرمجي، أم خياراً منطقياً ولكنه مشكوك فيه من الناحية الأخلاقية اتخذه النموذج بناءً على الأنماط التي تعلمها أثناء التدريب؟ بدون تفسير واضح، يصبح تحسين النظام ومنع الحوادث المستقبلية مسألة تخمين. ويوجد نفس التحدي في مجال الطب، حيث قد يحدد الذكاء الاصطناعي فحص مريض ما على أنه سرطاني. ورغم أن هذه قد تكون أداة منقذة للحياة، يحتاج الأطباء إلى فهم الأساس الذي بنيت عليه التوصية ليثقوا بها ويتخذوا تشخيصاً نهائياً ومسؤولاً.
استجابة لهذه المعضلة المتنامية، ظهر مجال متخصص يُعرف باسم "الذكاء الاصطناعي القابل للتفسير" (XAI). يعمل الباحثون على تطوير تقنيات جديدة للنظر داخل الصندوق الأسود. تعمل بعض الأساليب عن طريق إنشاء نماذج تقريبية أبسط تحاكي سلوك الذكاء الاصطناعي المعقد، مما يقدم شرحاً أكثر سهولة لنتيجة معينة. وتحاول أساليب أخرى إنشاء "خرائط حرارية" توضح أي أجزاء من المدخلات – مثل كلمات معينة في نص أو بكسلات في صورة – كانت الأكثر تأثيراً في القرار النهائي للذكاء الاصطناعي. وتُعد هذه الأدوات خطوة أولى حيوية، لكنها غالباً ما تقدم ارتباطات، وليس فهماً حقيقياً للمنطق السببي للذكاء الاصطناعي.
وبدأ صانعو السياسات أيضاً في الانتباه إلى هذه المسألة. فقانون الذكاء الاصطناعي التاريخي للاتحاد الأوروبي، على سبيل المثال، يقترح متطلبات شفافية صارمة للأنظمة التي تُعتبر "عالية الخطورة". ويشير إلى أنه قد يُطلب من مزودي أنظمة الذكاء الاصطناعي المستخدمة في مجالات مثل التوظيف وإنفاذ القانون والبنية التحتية الحيوية تقديم وثائق واضحة حول كيفية عمل أنظمتهم والمنطق وراء قراراتها. والهدف هو فرض درجة من المساءلة، وإجبار المطورين على إعطاء الأولوية لقابلية التفسير إلى جانب الأداء. ومع ذلك، فإن تشريع الشفافية لتقنية غامضة بطبيعتها يمثل تحدياً هائلاً.
في نهاية المطاف، تجبرنا مشكلة الصندوق الأسود على مواجهة مقايضة أساسية. ففي سعينا للحصول على ذكاء اصطناعي أكثر قوة ودقة، أنشأنا أدوات تتجاوز قدرتنا على فهمها. وهذا يتطلب تحولاً في كيفية استخدامنا لهذه الأنظمة. فبالنسبة للقرارات عالية المخاطر التي تؤثر على حقوق الناس وأموالهم وسلامتهم، قد يكون نهج "وجود عنصر بشري في عملية صنع القرار" ضرورياً. وفي هذا النموذج، يعمل الذكاء الاصطناعي كمستشار قوي، حيث يكشف عن الأنماط ويقدم التوصيات، لكن الحكم النهائي الذي تترتب عليه المساءلة يظل في يد خبير بشري يمكنه تطبيق السياق والأخلاق والمنطق السليم.
إن حل هذه المشكلة ليس مجرد تمرين تقني لعلماء الكمبيوتر، بل هو ضرورة مجتمعية. فمع تزايد اندماج الذكاء الاصطناعي في نسيج حياتنا، ستعتمد قدرتنا على الثقة به على قدرتنا على فهمه. إن السعي لفتح الصندوق الأسود يتعلق بأكثر من مجرد إصلاح خلل في خوارزمية. إنه يتعلق بضمان أن العالم الآلي الذي نبنيه يظل متوافقاً مع القيم الإنسانية، وأن قراراته، بغض النظر عن مدى ذكائها، تظل خاضعة للمساءلة أمامنا.