الباحث Russell يخشى سباق تسلح في تطوير AGI
أدلى خبير AI Stuart Russell بشهادته في قضية Musk ضد OpenAI. ويرى أنه من دون رقابة حكومية، يتنافس المطورون على الوصول إلى AGI بشكل أسرع، مع التضحية بالسلامة. ويق

ستيوارت راسل، خبير أمان الذكاء الاصطناعي البارز، أدلى بشهادته في المحكمة المتعلقة بدعوى إيلون ماسك ضد OpenAI. يعمل راسل كصوت تحذير—فهو يخشى أن تؤدي المنافسة على الريادة في تطوير AGI إلى سباق تسلح، حيث تضحي الشركات بالسلامة من أجل السرعة.
من هو راسل ولماذا تتمتع كلماته بالوزن
ستيوارت راسل هو أستاذ الذكاء الاصطناعي في جامعة كاليفورنيا في بيركلي. كتابه عن الذكاء الاصطناعي هو المعيار في الجامعات في جميع أنحاء العالم، وقد ركز خلال أكثر من 30 سنة ليس على الجانب التقني للذكاء الاصطناعي، بل على الأسئلة الفلسفية والأمان. راسل هو أحد الخبراء القلائل الذين يستمع إليهم العلماء والسياسيون وقادة الشركات. في ظل عدد كبير من الأصوات التي تحذر من أخطار AGI، يتميز راسل بصرامته الأكاديمية. يعكس مشاركته في إجراءات قانونية ضد OpenAI لحظة نادرة يتخذ فيها موقفاً سياسياً واضحاً.
سباق التسلح بدون تنظيم
في شهادته، يجادل راسل بأنه بدون رقابة حكومية، نشهد سيناريو سباق تسلح كلاسيكي. تخشى الشركات من التخلف عن منافسيها، لذا تقلل من نفقات فحوصات الأمان، وتخفض متطلبات التحقق من صحة النماذج، وتسرع عملية النشر.
هذا ليس مؤامرة، إنها مشكلة هيكلية في السوق، يقول راسل بشكل أساسي.
تتصرف كل شركة بطريقة عقلانية في مصالحها الخاصة، لكن النتيجة الجماعية خطيرة على الجميع.
يختلف سباق تسلح AGI عن النسخة الكلاسيكية في أن الرهانات أعلى—نحن نتحدث عن أنظمة قد تتجاوز الذكاء البشري. قد يكون الخطأ في نشر مثل هذا النظام غير قابل للعكس على الصعيد العالمي.
النقاط الرئيسية لراسل:
- تقلل الشركات من نفقات فحوصات الأمان
- يضغط المستثمرون والمساهمون على تسريع التطوير
- لا توجد اتفاقيات دولية بشأن المعايير
- يمكن لقائد السوق أن يفرض شروطاً دون خوف من العقوبات
كيف يرى راسل الحل
راسل لا ينتقد النضع الراهن فحسب. يقترح تدابير ملموسة: تراخيص حكومية لمطوري النماذج الحدودية (مثل التراخيص للمحطات النووية)، فحوصات أمان مستقلة قبل النشر، معايير دولية وشفافية إلزامية في طرق التدريب. يشبه هذا التنظيم في الطاقة النووية أو الصيدلة—المجالات التي تحتوي فيها الأخطاء على عواقب عالمية. يقترح راسل تطبيق الأدوات المثبتة من قطاعات أخرى عالية المخاطر على تطوير AGI.
ماذا يعني هذا
السؤال حول ما إذا كان يمكن للسوق أن ينظم نفسه بنفسه في تطوير AGI ليس أكاديمياً فحسب الآن—فهو يدخل قاعة المحكمة ويؤثر على السياسة. اتخذ راسل موقفاً مفاده أنه بدون تدخل، ستؤدي منطق المنافسة حتماً إلى أخطاء حرجة. ما إذا كانت المحكمة والسياسيون اللاحقون سيستمعون هو سؤال يتوقف عليه مستقبل الصناعة.