Google أوقفت أول zero-day طُوِّر بمساعدة AI
اكتشفت Google Threat Intelligence Group أول zero-day طوّره مجرمو الإنترنت بمساعدة AI. وكانت الثغرة تسمح بتجاوز المصادقة الثنائية في أدوات إدارة أنظمة الويب. وتظ

للمرة الأولى في التاريخ، اكتشفت جوجل ثغرة zero-day طورها مجرمون إلكترونيون بمساعدة الذكاء الاصطناعي. كانت التهديد موجهة لهجوم إلكتروني منسق على نطاق واسع، تم إيقافه قبل تنفيذه.
التهديد للمسؤولين
حدد فريق جوجل لخدمات الذكاء التهديدي (GTIG) تهديداً خطيراً من مجموعة من المجرمين الإلكترونيين الذين كانوا يخططون لاستخدام ثغرة zero-day للالتفاف حول المصادقة ثنائية العاملين. الهدف من الهجوم كان أداة مفتوحة لإدارة أنظمة الويب، تستخدم على نطاق واسع في القطاع الخاص. كانت الثغرة ستسمح بالوصول الكامل إلى أنظمة المسؤولين في عدد من المنظمات. كان المجرمون الإلكترونيون يحضرون هجوماً منسقاً يستهدف أهدافاً متعددة في نفس الوقت. لم تكن مجرد تطوير استغلال واحد، بل عملية كاملة موجهة للاستغلال على نطاق واسع. وفقاً لخطة المهاجمين، كان الالتفاف حول حماية المصادقة ثنائية العاملين سيفتح الباب لجميع أنظمة الإدارة في المنظمات المتضررة. كان مثل هذا السيناريو قد يؤدي إلى اختراق آلاف الشركات.
كيف اكتشفوا تورط الذكاء الاصطناعي
عثد باحثو جوجل على علامات صريحة في الكود المصدري للاستغلال تشير إلى أنه تم إنشاؤه بمساعدة شبكة عصبية. كشفت تحليل سكريبت بايثون عن عناصر غريبة نموذجية من المحتوى المُنشأ بواسطة نموذج اللغة الكبير:
- درجات CVSS الهلوسة — قيم غير صحيحة ومختلقة لشدة الثغرات لا تتوافق مع الخطر الفعلي
- التنسيق المنظم — تم تنسيق الكود بأسلوب الكتاب المدرسي، بانتظام غير معتاد لهذا نوع من الاستغلالات
- أسلوب الكتابة الغريب — مميز لنماذج اللغات الكبيرة في التعليقات وتسمية المتغيرات
- المنطق غير المعتاد — تحتوي أجزاء معينة من السكريبت على سلاسل غريبة من العمليات التي تعمل لكنها تبدو غير طبيعية
تظهر هذه العلامات عندما تُنشئ نماذج اللغة الكبيرة كوداً لمهام متخصصة دون فهم كامل للسياق الأمني ومتطلبات الاستغلال. يمكن للشبكات العصبية اتباع بنية الجملة، لكنها لا تدرك دائماً الدلالة.
"هذا يوضح تطوراً خطيراً في التهديدات الإلكترونية. إذا كانت الذكاء
الاصطناعي تساعد في الأساس على هجمات التصيد الاحتيالي الضخمة في السابق، فإنها الآن تساعد على إنشاء استغلالات موجهة وخطيرة جداً،" — يُلاحظ باحثو جوجل في تقريرهم.
خطر انخفاض حاجز الدخول
هذه أول حالة موثقة حيث تم استخدام الذكاء الاصطناعي التوليدي لتطوير استغلال zero-day. في السابق، تم تطبيق الذكاء الاصطناعي في الهجمات الإلكترونية، لكن في الأساس لأتمتة حملات التصيد الاحتيالي وإنشاء ملفات تعريف وهمية والهندسة الاجتماعية. استغلال zero-day هو مستوى خطر مختلف تماماً.
النتيجة الرئيسية لهذا الاكتشاف: ينخفض حاجز الدخول لتطوير تهديدات إلكترونية خطيرة بشكل كبير. الآن لا يحتاج المجرمون الإلكترونيون إلى توظيف مطورين متمرسين لديهم معرفة بهندسة تطبيقات الويب والثغرات. يمكنهم ببساطة طلب المساعدة من ChatGPT أو Claude أو نموذج لغة كبير آخر للحصول على كود الاستغلال. حتى لو احتوى الكود على أخطاء (مثل تلك درجات CVSS الهلوسة)، سيبقى الاستغلال فعالاً وخطيراً. هذا يعني أن عدد التهديدات الإلكترونية قد يزيد بشكل حاد لأن التطوير أصبح أكثر إمكانية الوصول.
ما يعنيه هذا للشركات
يشير اكتشاف جوجل إلى تسريع الدورة الكاملة لتطوير التهديدات الإلكترونية. تحتاج الشركات الآن إلى الاستجابة بسرعة أكبر للثغرات الجديدة وتطبيق التصحيحات على مستوى حرج. تأجيل تطبيق التصحيحات لمدة أسبوع قد يكون خطيراً. بالنسبة للمنظمات الكبيرة، يعني هذا الاستثمار ليس فقط في أمن المحيط بل أيضاً في مراقبة الحالات الشاذة والكشف السريع عن حركة المرور المريبة داخل الشبكة والاستعداد للحوادث. الاستغلالات المطورة بالذكاء الاصطناعي قد تكون أقل تعقيداً، لكن سيكون هناك المزيد منها، وستظهر بسرعة أكبر.