Guardian: las empresas de AI que desarrollan sistemas para la guerra ya son contratistas de defensa de facto
El autor de la columna sostiene que las empresas que crean AI para tareas de combate ya no pueden ocultarse tras la etiqueta de "empresas tecnológicas". El text

Компании, разрабатывающие AI для боевых задач, пора называть не просто технологическими фирмами, а оборонными подрядчиками. Такой тезис проходит через колонку Guardian о том, что цена слабого регулирования AI-войны уже измеряется человеческими жизнями.
Жесткий тезис
Текст начинается с предельно прямой формулировки: от Газы до Ирана, пишет автор, повторяется один и тот же рисунок — высокоточное оружие, сознательная слепота и гибель детей. Главная претензия не к самой риторике точности, а к тому, как она работает на практике. Когда система обещает хирургическую аккуратность, политическая и юридическая ответственность часто размывается: ущерб можно списать на плохие данные, неполную картину или ошибку модели.
Именно это автор считает самым опасным эффектом нынешней гонки военных AI-инструментов. Заголовок статьи построен как обвинение: если компания создаёт модели и сервисы, которые участвуют в выборе целей, распознавании угроз или принятии решений о применении силы, её нельзя считать обычным поставщиком софта. По логике автора, это уже часть оборонной цепочки, а значит, для неё должны действовать более жёсткие правила прозрачности, контроля и ответственности.
Иначе технологический бренд превращается в удобный щит, за которым можно скрыть последствия боевого применения.
Логика тумана
Для объяснения этой мысли автор обращается к израильской «fog procedure» — неофициальному правилу, по которому солдаты на постах в условиях плохой видимости стреляют очередями в темноту, исходя из того, что в ней может скрываться угроза. В тексте эта практика описана не как случайная избыточная мера, а как принцип: сначала действует слепота, затем насилие, а уже потом появляется объяснение, почему это якобы было необходимо. AI, утверждает автор, не отменяет эту логику, а только делает её системнее.
Вместо человека, который стреляет в неизвестность, появляется модель, обученная работать на неполных сигналах и вероятностях. Формально решение выглядит более аккуратным, потому что его сопровождают интерфейсы, метки, классификация и язык «точности». Но суть, по версии колонки, не меняется: машина не устраняет моральную неопределённость, а упаковывает её в технологическую процедуру.
«Насилие, санкционированное слепотой».
Где нужна ответственность
Из этого тезиса вытекает не только моральный, но и вполне прикладной спор о регулировании. Если разработчики военного AI продолжают называть себя просто AI-фирмами, общественная дискуссия легко сводится к качеству моделей, скорости инференса и точности распознавания. Автор предлагает другой ракурс: обсуждать нужно не только технологию, но и режим её применения, цепочку одобрения, доступ к данным и пределы допустимой автоматизации в вопросах жизни и смерти. В этой рамке спор о названии перестаёт быть семантикой: термин определяет, какие законы включаются, кто обязан раскрывать риски и у кого общество вправе спрашивать за последствия.
- Как именно система участвует в выборе цели или оценке угрозы Кто несёт юридическую ответственность за ошибку модели в боевой операции Какие данные и допущения лежат в основе «точных» выводов системы Где проходит граница между рекомендацией AI и решением человека нажать на спуск Какие независимые проверки и ограничения обязаны проходить такие продукты до развёртывания ## Что это значит Если принять логику этой колонки, разговор об AI на войне должен сместиться с удобного образа «нейтральной модели» к вопросу о статусе разработчика. Когда продукт встроен в контур применения силы, он перестаёт быть просто программой. Для государств это аргумент в пользу прямого регулирования, для компаний — сигнал, что от ответственности за последствия уже не получится укрыться за словом «технологии».