Bloomberg Tech→ оригинал

Конфликт Anthropic и Пентагона пугает AI-рынок: в отрасли ждут эффект охлаждения

Спор Anthropic с Пентагоном выходит за рамки одного контракта. После отказа снять запреты на массовую слежку и полностью автономное оружие компания получила ста

Конфликт Anthropic и Пентагона пугает AI-рынок: в отрасли ждут эффект охлаждения
Источник: Bloomberg Tech. Коллаж: Hamidun News.

Конфликт Anthropic с Пентагоном из контрактного спора быстро превратился в тест для всей AI-отрасли. После того как американские военные потребовали снять часть ограничений на использование Claude, в индустрии заговорили не только о военных AI-сценариях, но и о том, как далеко государство готово зайти в давлении на поставщиков.

Из-за чего спор В конце февраля 2026 года

Anthropic и Пентагон не смогли согласовать новые условия контракта на использование Claude в военных системах. Военные настаивали на праве применять модель «для любых законных целей», а компания хотела сохранить две жёсткие оговорки: запрет на массовую внутреннюю слежку за гражданами США и запрет на полностью автономное оружие. 27 февраля Пентагон объявил о намерении присвоить Anthropic статус supply chain risk, 4 марта компания получила официальное письмо, а 9 марта подала иски в суд.

Anthropic утверждает, что речь шла не об отказе работать с государством, а о двух конкретных красных линиях. Компания подчёркивает, что уже помогала американским военным в задачах анализа разведданных, моделирования, операционного планирования и киберопераций. Позиция Пентагона обратная: частный поставщик не должен диктовать, как именно государство может использовать технологии в сфере нацбезопасности.

Поэтому спор быстро вышел за рамки одного контракта и затронул вопрос контроля над frontier AI.

Почему рынок нервничает

Главный страх в индустрии связан не только с Anthropic как таковой, а с прецедентом. Если механизм, обычно ассоциируемый с защитой от враждебных поставщиков, можно применять против американской AI-компании в рамках закупочного спора, это меняет восприятие госзаказа для всего рынка. Для стартапов и инвесторов это сигнал, что публично заявленные ограничения по безопасности могут обернуться не жёсткими переговорами, а фактическим наказанием.

  • Государство может попытаться пересмотреть уже обсуждавшиеся условия контракта в одностороннем порядке.
  • Подрядчики рискуют срочно переделывать свои продукты, если в них уже встроены модели спорного поставщика.
  • Основатели стартапов получают сигнал, что открыто спорить с заказчиком по чувствительным сценариям опасно.
  • Вся defence-AI категория становится менее предсказуемой для инвесторов и корпоративных партнёров.
«Наказание одной из ведущих AI-компаний США неизбежно ударит по научной и промышленной конкурентоспособности страны».

Именно поэтому отраслевые ассоциации и сотрудники крупных лабораторий говорят об эффекте охлаждения. Но полного консенсуса нет: часть наблюдателей считает, что кейс Anthropic слишком уникален, потому что компания находится под ярким политическим и медийным прожектором, а спор касается самых токсичных тем — автономного оружия и массовой слежки. Это может отпугнуть не всех игроков, но паузу для размышлений уже создаёт.

Кто встал на сторону

Anthropic К 11–12 марта вокруг Anthropic начала собираться заметная коалиция поддержки. Microsoft подала в суд amicus brief и предупредила, что резкое вытеснение Anthropic из существующих цепочек поставок может сорвать сроки, увеличить расходы подрядчиков и ударить по уже идущим оборонным проектам. Для рынка это важный сигнал: компанию поддерживают не только активисты или исследователи по AI-безопасности, но и один из самых глубоко встроенных подрядчиков самого государства.

Параллельно в поддержку Anthropic выступили отраслевые группы, представляющие интересы Google, OpenAI, Nvidia, Meta, Cloudflare, Adobe и других компаний. Их аргумент простой: у государства и так достаточно стандартных инструментов для закупочных споров, и превращать политический конфликт в клеймо «риска для цепочки поставок» опасно для всей технологической экосистемы. Даже те, кто не разделяет все подходы Anthropic к guardrails, не хотят жить в модели, где любой спор о границах использования AI может закончиться чёрной меткой.

Что это значит

Спор Anthropic с Пентагоном становится не просто историей о военном контракте, а проверкой правил игры для всего AI-рынка. Если давление через механизмы нацбезопасности станет нормой, frontier-компании будут осторожнее заходить в оборонные проекты и тише говорить о собственных красных линиях. Если Anthropic удастся отбиться, рынок получит сигнал, что даже в самой чувствительной сфере у поставщиков остаётся право спорить о пределах применения AI.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…