Anthropic против военной машины: принципы ценой миллиардного контракта
Anthropic оказалась перед выбором: принципы или деньги. Компания настаивает на запрете использования Claude в автономном оружии и государственной слежке, что мо

В мире больших языковых моделей принято говорить о безопасности AI как о приоритете. Но когда на кону стоят миллиардные военные контракты, красивые декларации проходят проверку реальностью. Anthropic — компания, построившая свою репутацию именно на ответственном подходе к искусственному интеллекту — столкнулась с ситуацией, в которой её принципы могут обойтись ей в очень конкретную сумму.
Согласно информации Wired, Anthropic жёстко настаивает на двух ограничениях для использования своей модели Claude: никакого применения в автономных системах вооружений и никакой интеграции в инструменты государственного наблюдения. Эти «красные линии» — не просто пункты в пользовательском соглашении. Они вписаны в саму архитектуру отношений компании с потенциальными государственными заказчиками. И именно они, по данным издания, могут стоить Anthropic крупного контракта с американским военным ведомством.
Чтобы понять масштаб происходящего, нужно посмотреть на контекст. За последние два года Пентагон и другие оборонные структуры США резко нарастили интерес к генеративному AI. Министерство обороны запустило ряд программ по интеграции больших языковых моделей в логистику, анализ разведданных, планирование операций и — что особенно чувствительно — в системы принятия решений на поле боя.
OpenAI, которая ещё в 2023 году декларировала отказ от военного сотрудничества, к 2025-му тихо пересмотрела свою позицию и начала работать с оборонными подрядчиками. Google через подразделение Google Public Sector активно продвигает Gemini для государственных нужд. Microsoft, стратегический партнёр OpenAI, давно и глубоко интегрирована в оборонную инфраструктуру через контракты Azure Government.
На этом фоне Anthropic остаётся едва ли не единственным крупным игроком, который публично проводит чёткую границу между допустимым и недопустимым военным применением.
Принципиальность Anthropic имеет корни в самой ДНК компании. Её основатели — Дарио и Даниэла Амодеи — ушли из OpenAI именно потому, что считали подход к безопасности недостаточно серьёзным. Anthropic позиционирует себя как «safety-first» компанию, и её исследования в области конституционного AI, интерпретируемости моделей и механизмов выравнивания действительно находятся на переднем крае отрасли. Но одно дело — публиковать научные работы о безопасности, и совсем другое — отказываться от контрактов, которые могут исчисляться сотнями миллионов долларов. Особенно когда ты частная компания, сжигающая колоссальные суммы на обучение моделей и нуждающаяся в стабильных источниках выручки.
Технически запрет на автономное оружие и слежку звучит просто, но на практике граница размыта до неузнаваемости. Что считать автономным оружием — дрон, самостоятельно выбирающий цель, или систему, которая анализирует спутниковые снимки и предлагает оператору список приоритетных объектов? Где заканчивается «анализ разведданных» и начинается «государственное наблюдение»? Военные заказчики, как правило, хотят максимально широких лицензий и минимальных ограничений. Компания, которая приходит с длинным списком оговорок, автоматически проигрывает конкуренту, готовому быть гибче. Именно это, судя по всему, и происходит: Пентагон рассматривает альтернативных поставщиков, не обременённых подобными этическими рамками.
Эта ситуация обнажает фундаментальный разлом в AI-индустрии. На протяжении нескольких лет ведущие лаборатории наперебой подписывали добровольные обязательства по безопасности, публиковали манифесты и создавали внутренние комитеты по этике. Но добровольные ограничения работают ровно до тех пор, пока они не начинают стоить реальных денег. OpenAI уже показала, как быстро можно переобуться: от категоричного «мы не работаем с военными» до партнёрства с оборонными структурами прошло менее двух лет. Если Anthropic потеряет крупный контракт из-за своих принципов, это станет мощным сигналом для всего рынка — и сигнал этот будет двояким. С одной стороны, он покажет, что этические ограничения имеют реальную цену. С другой — продемонстрирует, что рынок наказывает за принципиальность.
Для Anthropic ставки выходят далеко за рамки одного контракта. Компания привлекла миллиарды долларов инвестиций, в том числе от Amazon и Google, и её оценка приближается к отметке в 60 миллиардов долларов. Инвесторы ожидают роста выручки, а государственный сектор — один из самых перспективных и стабильных каналов монетизации для AI-компаний. Если Anthropic систематически будет проигрывать госконтракты из-за этических ограничений, давление со стороны акционеров неизбежно усилится. История технологической индустрии знает немало примеров, когда благородные принципы уступали место прагматизму по мере роста компании и её финансовых обязательств.
И всё же решение Anthropic заслуживает внимания не только как бизнес-кейс. Оно ставит перед всей отраслью вопрос, который рано или поздно придётся решать на уровне регулирования: должны ли существовать обязательные, а не добровольные ограничения на военное применение генеративного AI? Пока этот вопрос остаётся без ответа, судьба этических стандартов в AI будет зависеть от готовности отдельных компаний платить за свои убеждения. Anthropic пока платит. Вопрос в том, как долго она сможет себе это позволить.