البنتاغون يخطط لفسخ العقد مع Anthropic بسبب قيود AI
يدرس البنتاغون إمكانية إنهاء تعاونه مع Anthropic، بحسب Axios. ويعود السبب الرئيسي للخلاف إلى القيود الصارمة التي فرضتها الشركة المطورة على استخدام نماذج Claude

يعتبر البنتاغون احتمالية فسخ عقده مع شركة Anthropic، وهي إحدى الشركات الرائدة في مجال الذكاء الاصطناعي. وفقاً لما تفيد به وسالة Axios، فإن السبب في هذه الخطوة يعود إلى القيود الصارمة التي فرضتها Anthropic على استخدام نماذجها المتقدمة للذكاء الاصطناعي، وخاصة Claude. أثبتت هذه القيود، الموجهة لضمان التطبيق الأخلاقي والآمن للتكنولوجيا، أنها غير مقبولة لاحتياجات وزارة الدفاع الأمريكية، مما يعرّض التنفيذ الكامل للابتكارات في أنظمة الدفاع للخطر.
يعكس الوضع المحيط بـ Anthropic والبنتاغون التوتر المتزايد بين رغبة شركات التكنولوجيا في تطوير الذكاء الاصطناعي بمسؤولية والمتطلبات البراغماتية للأمن القومي. بينما يسعى منشئو نماذج الذكاء الاصطناعي مثل Claude إلى منع استخدامها الخبيث والتقليل من المخاطر، فإن الجيش يرى هذه القيود عقبة في طريق تحقيق أهدافه الاستراتيجية. يبدو أن البنتاغون يعتقد أن بروتوكولات الأمان الحالية لـ Anthropic غير متوافقة مع الاحتياجات التشغيلية، حيث تكون السرعة والمرونة في تطبيق التكنولوجيا ذات أهمية قصوى. قد يؤدي العجز عن إيجاد حل وسط إلى تصنيف Anthropic كـ "خطر على سلسلة التوريد"، الأمر الذي سيترتب عليه عواقب وخيمة على التعاون المستقبلي.
يكشف التعمق العميق في جوهر المشكلة عن صراع أساسي. قامت Anthropic، التي أسسها موظفون سابقون في OpenAI، بالتركيز على نهج "دستوري" للذكاء الاصطناعي، حيث تسعى إلى إنشاء أنظمة تعمل وفقاً لمبادئ معينة للأمان والأخلاقيات. يشمل ذلك قيوداً على توليد محتوى معين، والامتناع عن تنفيذ تعليمات قد تكون خطرة، والمراقبة المستمرة لسلوك النموذج. بالنسبة للبنتاغون، الذي يهتم باستخدام الذكاء الاصطناعي في تحليل المعلومات الاستخباراتية، وإدارة الأنظمة بدون طيار، والأمن السيبراني والمهام الحرجة الأخرى، قد يُنظر إلى مثل هذه القيود على أنها تدخل غير مقبول في الوظيفة. يحتاج العسكريون إلى أدوات يمكنها العمل في ظروف معقدة وغير متوقعة، حيث قد تبدو المعايير الأخلاقية المطورة في أوقات السلم زائدة أو حتى معاكسة للإنتاجية.
قد تكون عواقب قرار البنتاغون كبيرة جداً. أولاً، قد تحدد سابقة لوكالات حكومية أخرى تعمل مع شركات الذكاء الاصطناعي، مما يوضح أن القيود الأخلاقية قد تترتب عليها تكاليف مالية وسمعة حقيقية. ثانياً، قد يؤدي تصنيف Anthropic كـ "خطر على سلسلة التوريد" إلى تصعيب أو جعل من المستحيل على الشركة الحصول على عقود حكومية أخرى، مما سيؤثر سلباً على نموها وتطورها. ثالثاً، قد يدفع هذا مقاولي الدفاع الآخرين وشركات التكنولوجيا إلى إعادة النظر في نهجها تجاه تطوير الذكاء الاصطناعي، ربما ينحازون نحو حلول أكثر براغماتية لكن أقل توجهاً نحو الأخلاقيات لتلبية متطلبات الجيش. قد يؤدي هذا أيضاً إلى تكثيف النقاشات حول التوازن بين الابتكار والأمان والأخلاقيات في مجال التكنولوجيا المتقدمة، خاصة عندما يتعلق الأمر بالتطبيقات في قطاع الدفاع.
في الختام، يمثل الفسخ المحتمل للعقد بين البنتاغون و Anthropic مثالاً صارخاً على الفجوة المتزايدة بين مثل تطوير الذكاء الاصطناعي بمسؤولية وواقع الأمن القومي. تسلط هذه الحالة الضوء على تعقيد دمج التكنولوجيات المتقدمة في الهياكل الدفاعية وتثير أسئلة مهمة حول كيف سينظم المجتمع واستخدام الأنظمة القوية للذكاء الاصطناعي في المستقبل. قد تؤثر التطورات المستقبلية حول Anthropic بشكل كبير على المشهد الحكومي للمشتريات في مجال الذكاء الاصطناعي وتحدد نبرة النقاشات المستقبلية بشأن الأخلاقيات وتطبيق الذكاء الاصطناعي في المجالات الحرجة.