Les employés de Google demandent à Sundar Pichai de rejeter les projets militaires secrets d'IA
Un nouveau différend sur les limites de l'IA émerge chez Google : des centaines de chercheurs ont signé une lettre adressée à Sundar Pichai demandant que l'entr

Внутри Google вспыхнул новый спор о том, где для компании проходит граница допустимого применения искусственного интеллекта. По словам организаторов инициативы, сотни исследователей ИИ подписали письмо к главе Alphabet и Google Сундару Пичаи с просьбой не допускать системы компании к секретным задачам в интересах оборонных миссий США. Сам факт такого письма показывает, что вопрос уже вышел за рамки абстрактной этической дискуссии: часть команды опасается, что работа с закрытыми военными сценариями может изменить и сам продукт, и публичный образ компании.
Авторы обращения требуют от руководства занять более жесткую позицию заранее, а не после запуска возможных проектов. Речь идет не просто о сотрудничестве с государством как таковом, а именно о доступе ИИ-систем Google к засекреченным вычислительным задачам и миссиям, связанным с американским оборонным контуром. Именно поэтому письмо адресовано лично Пичаи, а не абстрактному комитету.
Для сотрудников это принципиальная разница: когда модель или облачная инфраструктура попадает в среду, где внешняя прозрачность минимальна, а решения принимаются в закрытом режиме, становится сложнее понимать реальные сценарии использования, масштабы внедрения и потенциальный вред от ошибок или злоупотреблений. Такие опасения понятны и с технической стороны. Современные ИИ-системы все чаще используются как инструменты анализа, поиска, классификации и поддержки принятия решений.
Даже если компания не разрабатывает автономное оружие, сама интеграция моделей в закрытую военную инфраструктуру ставит вопросы о контроле, ответственности и проверяемости результата. В засекреченной среде независимый аудит почти невозможен, а пользователи внутри системы могут применять одни и те же модели для задач с очень разным уровнем риска. Для исследователей, которые строят эти системы, это означает потерю видимости над тем, где заканчивается нейтральная технология и начинается участие в силовых операциях.
Для Google эта тема чувствительна не только из-за этики, но и из-за бизнеса. Крупные технологические компании одновременно борются за лидерство в ИИ и за крупные корпоративные и государственные контракты. Чем мощнее становятся модели, тем выше интерес со стороны оборонных структур, которым нужны безопасные вычисления, аналитика и работа с большими массивами данных.
Но вместе с этим растет и цена внутренних конфликтов: сотрудники хотят понимать, на какие рынки выходит компания, какие ограничения руководство готово зафиксировать публично и где проходит красная линия для коммерциализации ИИ. Письмо к Пичаи — это попытка повлиять на решение до того, как оно станет необратимым. История важна и для всей индустрии.
Почти каждый крупный разработчик ИИ сегодня сталкивается с одним и тем же выбором: ограничивать применение своих моделей в военном контуре, разрешать отдельные сценарии или строить полноценное сотрудничество с государством. Универсального ответа тут нет. Одни считают, что технологические компании обязаны помогать демократическим государствам и их оборонным структурам, особенно в вопросах кибербезопасности, разведаналитики и защиты инфраструктуры.
Другие напоминают, что закрытый характер таких проектов резко снижает общественный контроль и создает соблазн расширять первоначально узкие задачи далеко за пределы заявленных рамок. Поэтому спор внутри Google — это не частный корпоративный эпизод, а показатель более широкого раскола в индустрии ИИ. Если руководство Google прислушается к письму, компания может публично зафиксировать ограничения на участие в засекреченных военных задачах с ИИ и тем самым успокоить часть команды.
Если нет, конфликт рискует перейти в затяжную фазу и стать тестом на то, кто в эпоху генеративного ИИ реально определяет границы его применения: инженеры, менеджмент или государственный заказчик.