Empleados de Google DeepMind votan por crear un sindicato contra los contratos militares
Los empleados de Google DeepMind en el Reino Unido votan por crear un sindicato. Su principal exigencia es prohibir el uso de los modelos de AI de la empresa co

Los empleados británicos del laboratorio de investigación Google DeepMind están votando para formar un sindicato. Su principal exigencia: garantizar que la inteligencia artificial desarrollada en el laboratorio no se aplique con fines militares.
Historia del Conflicto con IA Militar
La oposición de los empleados de Google a las aplicaciones militares de la tecnología tiene raíces profundas. En 2018, el Proyecto Maven — un contrato del Pentágono para análisis de vídeo para vehículos aéreos no tripulados — desencadenó masivas protestas internas. Más de 3.000 empleados de Google firmaron una carta abierta exigiendo que la empresa se retirara de la colaboración. Google hizo un compromiso: prometió no desarrollar tecnologías para aplicaciones militares puntuales. Pero la frontera entre el uso "militar" y "civil" de la IA sigue siendo borrosa.
Qué Exige el Sindicato de DeepMind
Los empleados buscan políticas claras que protejan su investigación de aplicaciones incontroladas. No se trata solo de contratos directos con el ejército, sino también de cómo sus modelos pueden usarse indirectamente — a través de socios, licencias o filtraciones. Demandas principales:
- Prohibición completa de contratos directamente relacionados con el desarrollo de armas
- Transparencia en todas las asociaciones con corporaciones de defensa y tecnología
- Voz de los empleados en las decisiones sobre aplicaciones de modelos de IA
- Revisión ética obligatoria de cada proyecto importante
Tech-workers Exigen Voz
El movimiento se extiende más allá de Google. Los ingenieros e investigadores en Amazon, Microsoft, Meta y otras empresas también exigen participación en las decisiones éticas. La actividad sindical en el sector tecnológico no ha sido tan intensa en más de una década. Esto refleja un problema más profundo: los creadores de IA son personas con convicciones que no quieren trabajar en proyectos que contradigan sus valores.
Quienes crean tecnologías deben tener voz en cómo se usarán esas tecnologías.
Qué Significa Esto para la Industria
Esta es una señal de un punto de inflexión: las empresas que no establezcan sus propios límites éticos enfrentarán actividad sindical y la salida de los mejores especialistas. Para Google, esto significa que ignorar las exigencias de los empleados se está volviendo cada vez más costoso.