The Verge→ оригинал

أطلقت OpenAI Daybreak للبحث التلقائي عن الثغرات في الكود

أطلقت OpenAI Daybreak للبحث التلقائي عن الثغرات في الكود وإصلاحها. يحلل النظام كود الشركة، ويبني نموذجًا للهجمات المحتملة، ويؤتمت اكتشاف العيوب الحرجة بمساعدة و

أطلقت OpenAI Daybreak للبحث التلقائي عن الثغرات في الكود
المصدر: The Verge. Коллаж: Hamidun News.
◐ Слушать статью

أطلقت OpenAI مشروع Daybreak — مبادرة للكشف التلقائي عن الثغرات الأمنية في الأكواد وإصلاحها قبل هجمات المتسللين. وهذا رد مباشر على Claude Mythos من Anthropic، التي قدمت مؤخراً ذكاء اصطناعياً موجهاً نحو الأمان.

كيفية عمل

Daybreak يستخدم Daybreak وكيل الذكاء الاصطناعي Codex Security، الذي أطلقته OpenAI في شهر مارس من هذا العام. يقوم الوكيل بتحليل الكود المصدري للمنظمة وينشئ نموذج تهديد — تحليل مفصل لمسارات الهجوم المحتملة التي قد يستغلها المتسللون عند محاولة الاختراق أو الحصول على وصول غير مصرح. الميزة الرئيسية للنظام هي أنه لا يكتفي بتحديد الأخطاء من خلال المسح مثل أدوات SAST، بل يتحقق من خطورتها الحقيقية: فهو يتحقق ما إذا كان يمكن استغلال الثغرة الأمنية المحددة فعلاً في ظروف تطبيق وبنية تحتية محددة حقيقية. وهذا يقلل بشكل حاد من عدد الإنذارات الكاذبة، التي عادة ما تسبب إحباطاً للمهندسين. بعد التحقق، يقوم Daybreak بأتمتة كشف أخطر فئات الثغرات الأمنية ويساعد المهندسين على ترتيب أولويات الإصلاحات بناءً على مستوى المخاطر واحتمالية الاستغلال.

ما يتضمنه

Daybreak تحليل شامل للأكواد المصدرية وعمارة التطبيق بناء نماذج تهديد بناءً على مسارات الاستغلال النمطية التحقق من الثغرات الأمنية المكتشفة وفقاً لمعايير الاستغلال الفعلي الكشف التلقائي عن المشاكل الحرجة والعالية والمتوسطة المخاطر * التكامل في خط أنابيب CI/CD للتطوير ## المنافسة بين OpenAI و Anthropic يتزامن إطلاق Daybreak مع ظهور Claude Mythos من Anthropic — نموذج ذكاء اصطناعي موجه نحو الأمان يعتبره مبتكروه خطيراً جداً للإفراج العام والعرض العام. اختارت Anthropic عدم إطلاق النموذج للوصول المفتوح والواجهات البرمجية العامة، بل شاركته فقط مع شركاء مختارين كجزء من مبادرتها الخاصة Project Glasswing. وهذه لحظة حاسمة في تاريخ أمان الذكاء الاصطناعي.

استثمرت أكبر شركتي ذكاء اصطناعي تقريباً في نفس الوقت في حلول وأطر موجهة نحو الأمان. وهذا يشير إلى أن الأمن السيبراني للمؤسسات يصبح سوقاً استراتيجياً رئيسياً لشركات الذكاء الاصطناعي. تدرك كلا الجانبين الواقع: تحتاج الشركات بشكل عاجل إلى أدوات تكتشف الثغرات قبل أن يكتشفها المتسللون.

والفرق في الاستراتيجيات واضح: تسير OpenAI في اتجاه منتج عام تماماً مع وصول جميع مشتركي Pro، بينما اختارت Anthropic نموذجاً أكثر تحفظاً مع وصول محدود والشراكة العميقة فقط مع العملاء الكبار من المؤسسات.

ما يعنيه هذا بالنسبة للمطورين وفرق تكنولوجيا المعلومات في الشركات، هذا

يعني تغييرات أساسية في دورة التطوير. بدلاً من انتظار مراجعة الأكواد من الإنسان أو تشغيل اختبارات اختراق مكلفة قبل الإطلاق الإنتاجي، سيتمكن المهندسون من استخدام وكيل ذكاء اصطناعي للكشف المبكر عن الثغرات الحرجة مباشرة أثناء البرمجة. وهذا يجب أن يقلل بشكل حاد من احتمالية الهجمات الناجحة بعد الإطلاق والتوفير في تكاليف الاستجابة للحوادث. بالنسبة إلى OpenAI و Anthropic نفسهما، فهذه خطوة أخرى في هجرة نماذج الذكاء الاصطناعي من المختبرات البحثية إلى العمل العملي، حيث الأموال حقيقية والمحاطر عالية.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
ما رأيك؟
جارٍ تحميل التعليقات…