موظفو Google DeepMind يصوتون لتأسيس نقابة ضد العقود العسكرية
يصوت موظفو Google DeepMind في المملكة المتحدة على تأسيس نقابة. ومطلبهم الأساسي هو حظر استخدام نماذج AI الخاصة بالشركة لأغراض عسكرية. وهذا جزء من حركة متنامية دا

موظفو Google DeepMind البريطانيون يصوتون لتشكيل نقابة عمالية. مطلبهم الرئيسي: ضمان عدم تطبيق الذكاء الاصطناعي المطور في المختبر لأغراض عسكرية.
تاريخ النزاع مع الذكاء الاصطناعي العسكري
معارضة موظفي Google للتطبيقات العسكرية للتكنولوجيا لها جذور عميقة. في عام 2018، أثار مشروع Maven — عقد البنتاغون لتحليل الفيديو للمركبات الجوية بدون طيار — احتجاجات داخلية ضخمة. وقّع أكثر من 3000 موظف في Google رسالة مفتوحة تطالب الشركة بالانسحاب من التعاون. اتفقت Google على حل وسط: وعدت بعدم تطوير تكنولوجيات للتطبيقات العسكرية لمرة واحدة. لكن الحدود بين الاستخدام "العسكري" و"المدني" للذكاء الاصطناعي تبقى غير واضحة.
ما يطالب به نقابة DeepMind
يسعى الموظفون إلى سياسات واضحة تحمي أبحاثهم من التطبيق غير المنضبط. المسألة ليست فقط حول العقود المباشرة مع الجيش، بل أيضاً حول كيفية استخدام نماذجهم بشكل غير مباشر — من خلال الشركاء أو الرخص أو التسريبات. المطالب الرئيسية:
- حظر كامل على العقود المرتبطة مباشرة بتطوير الأسلحة
- الشفافية في جميع الشراكات مع شركات الدفاع والتكنولوجيا
- صوت الموظفين في القرارات بشأن تطبيقات نماذج الذكاء الاصطناعي
- مراجعة أخلاقية إلزامية لكل مشروع كبير
متخصصو التكنولوجيا يطالبون بصوت
يتسع النزوح خارج Google. يطالب المهندسون والباحثون في Amazon و Microsoft و Meta وشركات أخرى أيضاً بالمشاركة في القرارات الأخلاقية. لم تكن النشاطات النقابية في قطاع التكنولوجيا بهذه الكثافة منذ أكثر من عقد. وهذا يعكس مشكلة أعمق: منشئو الذكاء الاصطناعي هم أشخاص لديهم معتقدات لا يريدون العمل في مشاريع تتعارض مع قيمهم.
يجب أن يكون لدى من ينشئون التكنولوجيات رأي في كيفية استخدام تلك التكنولوجيات.
ماذا يعني هذا للصناعة
هذا إشارة إلى نقطة تحول: الشركات التي لا تضع حدوداً أخلاقية خاصة بها ستواجه نشاطات نقابية ورحيل أفضل المتخصصين. بالنسبة إلى Google، هذا يعني أن تجاهل مطالب الموظفين أصبح مكلفاً بشكل متزايد.