Guardian: empresas de AI que desenvolvem sistemas para a guerra já se tornaram, de fato, contratadas de defesa
O autor da coluna afirma que empresas que criam AI para tarefas de combate não podem mais se esconder atrás do rótulo de "empresas de tecnologia". O texto compa

Компании, разрабатывающие AI для боевых задач, пора называть не просто технологическими фирмами, а оборонными подрядчиками. Такой тезис проходит через колонку Guardian о том, что цена слабого регулирования AI-войны уже измеряется человеческими жизнями.
Жесткий тезис
Текст начинается с предельно прямой формулировки: от Газы до Ирана, пишет автор, повторяется один и тот же рисунок — высокоточное оружие, сознательная слепота и гибель детей. Главная претензия не к самой риторике точности, а к тому, как она работает на практике. Когда система обещает хирургическую аккуратность, политическая и юридическая ответственность часто размывается: ущерб можно списать на плохие данные, неполную картину или ошибку модели.
Именно это автор считает самым опасным эффектом нынешней гонки военных AI-инструментов. Заголовок статьи построен как обвинение: если компания создаёт модели и сервисы, которые участвуют в выборе целей, распознавании угроз или принятии решений о применении силы, её нельзя считать обычным поставщиком софта. По логике автора, это уже часть оборонной цепочки, а значит, для неё должны действовать более жёсткие правила прозрачности, контроля и ответственности.
Иначе технологический бренд превращается в удобный щит, за которым можно скрыть последствия боевого применения.
Логика тумана
Для объяснения этой мысли автор обращается к израильской «fog procedure» — неофициальному правилу, по которому солдаты на постах в условиях плохой видимости стреляют очередями в темноту, исходя из того, что в ней может скрываться угроза. В тексте эта практика описана не как случайная избыточная мера, а как принцип: сначала действует слепота, затем насилие, а уже потом появляется объяснение, почему это якобы было необходимо. AI, утверждает автор, не отменяет эту логику, а только делает её системнее.
Вместо человека, который стреляет в неизвестность, появляется модель, обученная работать на неполных сигналах и вероятностях. Формально решение выглядит более аккуратным, потому что его сопровождают интерфейсы, метки, классификация и язык «точности». Но суть, по версии колонки, не меняется: машина не устраняет моральную неопределённость, а упаковывает её в технологическую процедуру.
«Насилие, санкционированное слепотой».
Где нужна ответственность
Из этого тезиса вытекает не только моральный, но и вполне прикладной спор о регулировании. Если разработчики военного AI продолжают называть себя просто AI-фирмами, общественная дискуссия легко сводится к качеству моделей, скорости инференса и точности распознавания. Автор предлагает другой ракурс: обсуждать нужно не только технологию, но и режим её применения, цепочку одобрения, доступ к данным и пределы допустимой автоматизации в вопросах жизни и смерти. В этой рамке спор о названии перестаёт быть семантикой: термин определяет, какие законы включаются, кто обязан раскрывать риски и у кого общество вправе спрашивать за последствия.
- Как именно система участвует в выборе цели или оценке угрозы Кто несёт юридическую ответственность за ошибку модели в боевой операции Какие данные и допущения лежат в основе «точных» выводов системы Где проходит граница между рекомендацией AI и решением человека нажать на спуск Какие независимые проверки и ограничения обязаны проходить такие продукты до развёртывания ## Что это значит Если принять логику этой колонки, разговор об AI на войне должен сместиться с удобного образа «нейтральной модели» к вопросу о статусе разработчика. Когда продукт встроен в контур применения силы, он перестаёт быть просто программой. Для государств это аргумент в пользу прямого регулирования, для компаний — сигнал, что от ответственности за последствия уже не получится укрыться за словом «технологии».