CNews AI→ оригинал

Сотрудники Google потребовали от гендиректора отказаться от секретных проектов Пентагона с ИИ

В Google вспыхнул новый внутренний спор из-за военных контрактов. Около 600 сотрудников попросили гендиректора не участвовать в секретных проектах Пентагона, ес

Сотрудники Google потребовали от гендиректора отказаться от секретных проектов Пентагона с ИИ
Источник: CNews AI. Коллаж: Hamidun News.

Google столкнулась с новым внутренним конфликтом вокруг военных контрактов. Около 600 сотрудников компании потребовали от гендиректора отказаться от участия в секретных проектах Пентагона, если те могут использовать ИИ для слежки и автономного оружия.

Письмо к руководству

Несколько сотен работников Google направили письмо главе компании с просьбой не втягивать бизнес в закрытые оборонные программы США. Главная претензия сотрудников касается сценариев, где технологии Google могут применяться для массового наблюдения или для создания систем, способных принимать летальные решения без прямого участия человека. Для части команды это не просто вопрос репутации, а граница, за которую компания не должна заходить даже ради крупных контрактов и стратегических отношений с государством.

Авторы письма напоминают, что похожий спор уже происходил внутри Google в 2018 году. Тогда протест сотрудников против участия компании в военном проекте стал настолько заметным, что руководство пообещало не разрабатывать ИИ, который нарушает принятые внутри компании принципы. Нынешнее обращение показывает, что доверие к этим обещаниям ослабло: сотрудники считают, что позиция менеджмента изменилась, а прежние ограничения больше не выглядят жесткими и однозначными.

Фактически они требуют заново подтвердить старые обязательства в более конкретной и проверяемой форме.

Почему спор вернулся Новый конфликт возник не на пустом месте.

За последние годы генеративный ИИ и системы компьютерного зрения стали намного мощнее, а интерес военных ведомств к таким технологиям резко вырос. Это означает, что даже универсальные облачные сервисы, модели анализа изображений и инструменты обработки данных могут использоваться в задачах, которые раньше казались далекими от гражданского бизнеса. Именно поэтому работники Google сейчас говорят не о гипотетическом риске, а о вполне реальных сценариях применения.

Сотрудников беспокоят не только общие слова о сотрудничестве с государством, а вполне конкретные классы задач и способов применения ИИ. Они опасаются, что внутренние правила компании могут трактоваться слишком широко, а решения о чувствительных контрактах будут приниматься без понятного объяснения для команды, внешней отчетности и независимой оценки последствий для общества и самой компании. В этом контексте в письме выделяются несколько ключевых рисков: использование ИИ Google в системах массового наблюдения применение моделей в секретных военных проектах без прозрачной отчетности участие компании в разработке автономных боевых систем размывание принципов, которые Google публично закрепляла после кризиса 2018 года Для Google это неудобный момент еще и потому, что весь рынок ИИ быстро сближается с государственным сектором.

Крупные технокомпании одновременно продают облака, модели и инфраструктуру бизнесу, госструктурам и оборонным заказчикам. На таком фоне провести четкую границу между «нейтральной платформой» и прямым участием в чувствительных программах становится все сложнее, а внутренняя этическая дискуссия перестает быть абстрактной. Поэтому этот спор уже выглядит не локальным конфликтом, а симптомом всей индустрии.

Что изменилось с 2018 года В 2018 году внутренний протест сотрудников

стал одним из самых громких примеров того, как команда технологической компании может повлиять на стратегические решения сверху. Тогда Google не просто столкнулась с волной недовольства, но и была вынуждена публично объяснять, где проходит предел допустимого для ее ИИ-разработок. После этого компания сформулировала принципы использования ИИ, которые должны были снизить тревогу внутри команды и вне ее. Сейчас ситуация выглядит иначе. Рынок ИИ стал гораздо более конкурентным, а государственные и оборонные контракты — более значимыми для поставщиков облачной и вычислительной инфраструктуры. Поэтому любой пересмотр прежних ограничений воспринимается сотрудниками болезненнее: он сигнализирует, что этические рамки могут отступать под давлением коммерческих интересов, геополитики и гонки за технологическое лидерство. Если компания не объяснит границы заново, каждый новый такой контракт будет запускать новый виток недоверия.

Что это значит

История с письмом 600 сотрудников показывает, что главный спор вокруг ИИ уже идет не только между компаниями и регуляторами, но и внутри самих корпораций. Для рынка это сигнал: чем глубже ИИ-платформы входят в оборонные и государственные задачи, тем острее будет конфликт между ростом бизнеса, вопросами прозрачности и границами допустимого применения технологии. Для Google это еще и проверка того, насколько публичные принципы действительно ограничивают реальную стратегию компании.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…