يُزعم أن Claude Mythos وجدت ثغرة، لكنها كانت موجودة بالفعل في بيانات التدريب
روّجت Anthropic لهذا الزعم: Claude Mythos اكتشفت واستغلت “أول استغلال عن بُعد للنواة اكتشفه AI”. يبدو ذلك مثيرًا للإعجاب. لكن الباحثين دققوا ووجدوا مشكلة: كان خ

أثارت Anthropic ضجة في الصحافة معلنة أن نموذجها الأخير Claude Mythos اكتشف واستغل "أول برنامج استغلال kernel عن بعد يتم تحديده ونشره بواسطة الذكاء الاصطناعي". ادعاء جذاب انتشر بسرعة عبر خلاصات الأخبار. لكن عندما تعمق الباحثون في التفاصيل، اكتشفوا خيبة أمل: النموذج ببساطة استرجع ثغرة أمنية من بيانات تدريبه. كانت عبارة عن خطأ برمجي يعود لـ 20 سنة مضت وكان معروفاً لدى المتخصصين منذ فترة طويلة.
ما أعلنته Anthropic
في سياق الاهتمام المتزايد بقدرات نماذج اللغة المتقدمة في مجال الأمن السيبراني، ادعت Anthropic أنه خلال اختبار Claude Mythos، حدد النموذج بشكل مستقل CVE (Common Vulnerabilities and Exposures)—ثغرة أمنية في نواة النظام يمكن من الناحية النظرية استغلالها لتنفيذ التعليمات البرمجية عن بعد. وفقاً للشركة، كان هذا مثالاً مثيراً لـ كيف يمكن للذكاء الاصطناعي المتقدم أن يجد تهديدات حقيقية قد يغفل عنها البشر. بدت القصة كأنها نقطة تحول في أتمتة الأمن السيبراني وأثارت موجة من النقاش حول متى سيبدأ الذكاء الاصطناعي في اكتشاف الثغرات الأمنية بشكل مستقل.
ما اكتشفه الباحثون عند الفحص
اكتشفت مجموعة من الباحثين الذين حللوا وصف هذا الحدث حقيقة مؤسفة. الخطأ المشبوه هو ثغرة أمنية معروفة منذ فترة طويلة كانت موجودة بالفعل في المجال العام وكان من المحتمل أن تكون مدرجة في بيانات تدريب Mythos. بعبارة أخرى، النموذج لم يحقق أي اكتشاف مستقل—فقد استرجع ببساطة معلومات كان قد رآها خلال التدريب. يشبه الأمر التفاخر بأن طالباً اكتشف نظرية فيثاغورس بشكل مستقل عندما أعاد ببساطة صيغة الكتاب المدرسي.
تثير القصة عدة أسئلة حرجة:
- الحد الفاصل بين الحفظ والاكتشاف—كيف يمكن التمييز بين ما حفظه النموذج وما اكتشفه فعلاً بشكل مستقل؟
- غياب التحقق المستقل—كيف يمكننا التأكد من أن الادعاءات الكبيرة بشأن إنجازات الذكاء الاصطناعي ليست مبالغة فيها؟
- نقص الشفافية—لماذا لا تكشف الشركات عن كامل تفاصيل المنهجية للتحقق المستقل؟
الأهمية للصناعة
تسلط القصة الضوء على مشكلة أساسية: عندما يكون النموذج قد رأى البيانات خلال التدريب، فإن "إعادة اكتشافه" لهذه البيانات ما هو سوى تذكر، وليس اكتشاف حقيقي جديد. مع اعتماد الذكاء الاصطناعي كأداة في مجالات حرجة مثل الأمن، يجب أن تضع الصناعة معايير أكثر صرامة لتقييم النتائج. الادعاءات الكبيرة بدون منهجية شفافة والتحقق المستقل تقوض فقط الثقة في الصناعة وتخلق توقعات غير واقعية بشأن قدرات النماذج الحالية.