The Verge→ оригинал

Google Employees Demand Sundar Pichai Ban Secret Military AI Use

A new military AI controversy erupted at Google: more than 600 employees demanded that Sundar Pichai ban the use of the company's models in classified Pentagon

Google Employees Demand Sundar Pichai Ban Secret Military AI Use
Источник: The Verge. Коллаж: Hamidun News.

В Google разгорается новый внутренний конфликт вокруг военного применения искусственного интеллекта: более 600 сотрудников потребовали от гендиректора Сундара Пичаи не допускать использования моделей компании в засекреченных проектах Пентагона. Речь не о публичных контрактах и не о формальных декларациях, а о самом чувствительном сценарии, при котором технологии могут использоваться внутри закрытых военных задач без прозрачности для самих разработчиков. Для компании, которая годами пытается балансировать между коммерческими интересами, государственными заказами и собственными обещаниями в области ответственного ИИ, это превращается в очередную проверку на то, где заканчивается допустимое сотрудничество с оборонным сектором.

По данным The Washington Post, сотрудники направили письмо лично Пичаи и потребовали заблокировать для Пентагона доступ к моделям Google в рамках засекреченных задач. Организаторы утверждают, что среди подписавшихся много сотрудников DeepMind — ключевой AI-лаборатории Google, а также более 20 сотрудников уровня principal, директоров и вице-президентов. Это важно не только из-за цифры в 600 подписей.

Внутренние письма такого масштаба редко появляются без заметного уровня напряжения, а когда к ним присоединяются люди с руководящими должностями, это показывает, что спор вышел далеко за рамки активизма отдельных инженеров и стал управленческой проблемой. Главный аргумент авторов письма сводится к контролю и репутационному риску. В пересказе Post они пишут, что единственный способ гарантировать, что Google не будет связан с потенциальным вредом, — это вообще отказаться от засекреченных задач.

Если такой запрет не установить, считают сотрудники, подобное применение может происходить без их ведома и без возможности повлиять на ситуацию. Для большой компании это болезненная формулировка: она указывает не просто на несогласие с конкретным заказчиком, а на недоверие к внутренним механизмам надзора. Когда разработчики не уверены, что смогут увидеть, куда именно уходит их технология, разговор о принципах ИИ быстро становится разговором о корпоративной подотчетности.

Отдельный слой конфликта связан со статусом DeepMind внутри Google. Именно там сосредоточена значительная часть исследовательской экспертизы компании, и если организаторы правы насчет числа подписантов из лаборатории, сигнал для руководства становится еще громче. DeepMind исторически ассоциируется с долгосрочными исследованиями, безопасностью ИИ и более осторожным отношением к рискам, чем это принято в обычном корпоративном цикле продаж.

Поэтому недовольство из этой среды воспринимается не как внешний шум, а как предупреждение от людей, которые непосредственно строят фундаментальные модели и лучше других понимают возможные сценарии их использования. На этом фоне любой ответ Пичаи будет рассматриваться не только как кадровое решение, но и как заявление о реальной политике Google в области оборонного ИИ. История вписывается в более широкий тренд: крупнейшие AI-компании все чаще оказываются между давлением государства, ожиданиями инвесторов и внутренними этическими ограничениями команд.

Военные и спецслужбы хотят получать доступ к передовым моделям, потому что они могут ускорять анализ данных, автоматизировать поиск закономерностей и повышать эффективность закрытых процессов. Но именно закрытый характер таких проектов и вызывает наибольшее сопротивление у сотрудников. Чем меньше прозрачности, тем сложнее проверить, где проходит граница между допустимой инфраструктурной поддержкой и участием в системах, которые могут использоваться для наблюдения, наведения или других чувствительных операций.

Даже если речь идет только о вычислениях или модели общего назначения, для части команды этого уже достаточно, чтобы требовать полного отказа от засекреченных применений. Для Google этот спор важен по двум причинам. Во-первых, он показывает, что эпоха, когда руководство могло просто подписать крупный государственный контракт и затем объяснить его постфактум, закончилась: сотрудники хотят права заранее влиять на такие решения.

Во-вторых, конфликт поднимает вопрос, смогут ли AI-компании вообще сохранить доверие собственных исследовательских команд, если начнут глубже входить в оборонный сектор. Если Пичаи проигнорирует письмо, компания рискует усилить внутренний раскол. Если пойдет на ограничение, задаст ориентир для всего рынка: доступ к сильным моделям может определяться не только законом и выручкой, но и тем, готовы ли разработчики отвечать за последствия их скрытого применения.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…