Anthropic подала заявку на конкурс Пентагона по управлению дронами-роями
Anthropic, известная как один из главных поборников безопасности ИИ, подала заявку на участие в конкурсе Пентагона стоимостью $100 млн. Задача — создать техноло

Компания, которая построила свою репутацию на принципах безопасного и ответственного искусственного интеллекта, тихо подала заявку на один из самых амбициозных военных проектов последних лет. По данным Bloomberg, Anthropic — создатель языковой модели Claude — вошла в число претендентов на призовой конкурс Пентагона стоимостью $100 миллионов. Цель проекта — разработка технологии голосового управления автономными роями дронов.
Сама по себе идея конкурса звучит как сценарий из научно-фантастического фильма: оператор отдаёт голосовую команду, и десятки или сотни беспилотников координируют свои действия без прямого управления каждым аппаратом. Это принципиально новый уровень автономности, где языковая модель должна не просто понимать команду, но и транслировать её в сложную координированную работу множества летательных аппаратов в реальном времени. Пентагон, очевидно, видит в больших языковых моделях ключ к интуитивному интерфейсу между человеком и боевыми системами будущего.
Для Anthropic этот шаг выглядит как минимум неоднозначно. Компания была основана в 2021 году бывшими сотрудниками OpenAI, включая Дарио и Даниэлу Амодеи, которые ушли именно из-за разногласий по вопросам безопасности. С тех пор Anthropic последовательно позиционировала себя как наиболее ответственного игрока в индустрии: публиковала исследования по выравниванию ИИ, внедряла конституционный подход к обучению моделей, открыто обсуждала риски. Военные контракты в эту картину вписывались с трудом, и компания долгое время держалась на расстоянии от оборонного сектора.
Однако контекст, в котором произошла подача заявки, делает ситуацию ещё более интригующей. Bloomberg указывает, что это случилось на фоне «вражды» Anthropic с Пентагоном — по всей видимости, речь идёт о разногласиях, связанных с условиями использования технологий компании и границами допустимого военного применения. Подача заявки на конкурс в разгар подобного конфликта может означать несколько вещей: либо Anthropic пытается восстановить отношения с Министерством обороны, либо внутри компании произошёл стратегический разворот, либо финансовое давление оказалось сильнее идеологических установок.
Последний вариант нельзя сбрасывать со счетов. Гонка в сфере ИИ требует колоссальных вложений в вычислительные мощности, исследования и таланты. Anthropic привлекла миллиарды долларов инвестиций, в том числе от Amazon и Google, но конкуренция с OpenAI, Google DeepMind и другими гигантами только усиливается. Оборонные контракты — это не просто деньги, это стабильный, долгосрочный и щедрый источник финансирования. Для сравнения, общий бюджет Пентагона на ИИ-проекты исчисляется миллиардами долларов ежегодно, и $100 миллионов за один конкурс — лишь верхушка айсберга.
Важно понимать и более широкий контекст. Индустрия ИИ в целом стремительно движется в сторону оборонного сектора. OpenAI, которая когда-то запрещала военное использование своих моделей, в 2024 году сняла этот запрет. Palantir, Anduril, Shield AI и десятки других компаний активно работают с Пентагоном. Даже в Кремниевой долине, где антивоенные настроения традиционно сильны, прагматизм берёт верх: если ты не будешь работать с военными, это сделает кто-то другой — возможно, с менее ответственным подходом к безопасности. Именно этот аргумент, вероятно, звучит и внутри Anthropic: лучше мы, с нашими принципами выравнивания и конституционным ИИ, чем компания, которая вообще не задумывается об этике.
Тем не менее для репутации Anthropic это серьёзное испытание. Компания годами строила бренд на идее, что безопасность важнее прибыли, что существуют красные линии, которые нельзя пересекать. Участие в конкурсе по созданию автономных боевых систем — пусть даже на этапе подачи заявки — неизбежно вызовет вопросы у части сотрудников, инвесторов и сообщества, следящего за безопасностью ИИ. Где проходит граница между оборонительным и наступательным применением? Кто контролирует, как именно будут использоваться автономные рои дронов? Достаточно ли голосовой команды одного человека для принятия решений, которые могут стоить жизней?
История с заявкой Anthropic на конкурс Пентагона — это не просто корпоративная новость. Это маркер фундаментального сдвига во всей индустрии искусственного интеллекта. Эпоха, когда ведущие ИИ-лаборатории могли позволить себе роскошь дистанцироваться от военных, подходит к концу. Вопрос теперь не в том, будут ли технологии ИИ использоваться в обороне, а в том, на каких условиях и с какими ограничениями. И ответ на этот вопрос во многом определит, каким будет мир, в котором автономные системы станут нормой, а не исключением.