Bloomberg Tech→ оригинал

Алтман заявил сотрудникам: OpenAI не контролирует решения Пентагона

Глава OpenAI Сэм Алтман на внутренней встрече заявил сотрудникам, что компания не может и не должна решать, как Пентагон использует её ИИ-технологии. Алтман так

Алтман заявил сотрудникам: OpenAI не контролирует решения Пентагона
Источник: Bloomberg Tech. Коллаж: Hamidun News.

Сэм Алтман провёл черту, которую многие в индустрии искусственного интеллекта долго не решались даже обозначить. На внутренней встрече с сотрудниками глава OpenAI прямо заявил: компания не имеет права голоса в том, как Министерство обороны США распоряжается её программным обеспечением. Более того, он дал понять, что само желание контролировать действия Пентагона — это, возможно, ошибка, которую уже совершил главный конкурент, Anthropic.

Это заявление не возникло в вакууме. За последние два года отношения Кремниевой долины с военным ведомством США претерпели радикальную трансформацию. Если в 2018 году тысячи сотрудников Google подписывали петицию против проекта Maven — программы анализа дронового видео для Пентагона, — то к 2026 году настроения в отрасли изменились до неузнаваемости. OpenAI, которая ещё недавно позиционировала себя как организацию с миссией «безопасного ИИ для всего человечества», планомерно расширяет сотрудничество с оборонными структурами. Компания сняла запрет на военное применение своих технологий ещё в начале 2024 года, а затем заключила ряд контрактов с Министерством обороны.

Позиция Алтмана примечательна своей откровенностью. Он фактически артикулировал принцип, который можно сформулировать так: разработчик создаёт инструмент, а заказчик несёт ответственность за его применение. Это классическая логика оружейных компаний и оборонных подрядчиков, но для компании, выросшей из некоммерческой лаборатории с идеалистической миссией, такой подход знаменует фундаментальный сдвиг. OpenAI больше не пытается быть моральным арбитром — она становится поставщиком технологий, который передаёт этические решения клиенту.

Особенно интересен контекст, связанный с Anthropic. Компания, основанная бывшими сотрудниками OpenAI во главе с Дарио Амодеи, изначально строила свою идентичность вокруг безопасности ИИ. Anthropic разработала концепцию «конституционного ИИ» и публично декларировала приверженность ответственному развитию технологий. Однако, по словам Алтмана, именно попытки Anthropic сохранить контроль над тем, как военные используют её продукты, привели к напряжённости с Пентагоном. Если это действительно так, перед нами разворачивается показательная история о том, как принципиальность может обернуться коммерческим проигрышем в гонке за крупнейшими государственными контрактами.

Для Пентагона выбор между поставщиками, которые задают вопросы, и теми, которые просто поставляют технологии, очевиден. Министерство обороны не привыкло к тому, чтобы подрядчики диктовали условия применения закупленных систем. Lockheed Martin не спрашивает, куда полетит ракета. Raytheon не интересуется, какую цель выберет оператор. Алтман, по сути, говорит своим сотрудникам: мы играем по правилам этого мира, а не по правилам Кремниевой долины.

Но за прагматизмом этой позиции скрывается серьёзная проблема. Искусственный интеллект — это не ракета и не радар. Это технология общего назначения, способности которой стремительно растут и которая может быть применена способами, которые разработчики не предусматривали. Когда OpenAI передаёт свои модели Пентагону и снимает с себя ответственность за их использование, она создаёт прецедент, последствия которого выходят далеко за рамки одного контракта. Что произойдёт, когда модели станут ещё мощнее? Когда автономные системы на базе больших языковых моделей начнут принимать решения на поле боя? Вопрос ответственности не исчезнет — он только обострится.

Внутри самой OpenAI заявление Алтмана наверняка вызвало неоднозначную реакцию. Компания за последние годы потеряла немало ключевых сотрудников, несогласных с её стратегическим курсом. Уход Ильи Суцкевера, затем других исследователей из команды безопасности — всё это звенья одной цепи. Каждое такое заявление Алтмана проводит ещё одну линию отбора: те, кто согласен с новой реальностью, остаются; те, кто нет, уходят — нередко в ту самую Anthropic.

Происходящее отражает более масштабный процесс. Индустрия искусственного интеллекта окончательно вышла из периода идеализма и вступила в эпоху реальной политики. Компании, которые хотят оставаться на переднем крае, вынуждены работать с государством — а государство, особенно в лице военного ведомства, предъявляет свои требования. Алтман сделал ставку на то, что будущее OpenAI лежит не в роли морального авторитета, а в роли незаменимого технологического партнёра. Правильная ли это ставка — покажет время, но сам факт того, что глава компании произносит эти слова вслух перед собственными сотрудниками, говорит о том, что точка невозврата уже пройдена.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…