3DNews AI→ оригинал

OpenAI ищет тормоза: пост директора по готовности наконец занят

OpenAI официально назначила директора по готовности (Preparedness Director). Это не просто кадровое решение, а попытка успокоить регуляторов перед запуском новы

OpenAI ищет тормоза: пост директора по готовности наконец занят
Источник: 3DNews AI. Коллаж: Hamidun News.

OpenAI назначила директора по готовности, и это звучит как должность из голливудского триллера про восстание машин. Пока Сэм Альтман продает миру концепцию будущего, где ИИ решает все проблемы человечества, внутри компании явно понимают, что это будущее может наступить слишком быстро и не совсем так, как планировалось. Назначение человека на роль, отвечающую за безопасность и «готовность» к рискам, — это не просто бюрократическая формальность, а попытка выстроить систему сдержек и противовесов в организации, которую часто обвиняют в излишней спешке.

Контекст здесь важнее самого факта назначения. После того как Илья Суцкевер и его команда по «супервыравниванию» фактически исчезли с радаров после ноябрьского переворота в OpenAI, возник логичный вопрос: а кто теперь следит за тем, чтобы ИИ не научил школьника собирать бомбу в гараже? Ответ пришел в виде структуры Preparedness Framework.

Это внутренний регламент, который описывает, как компания будет оценивать свои модели по четырем категориям риска: кибербезопасность, химические и биологические угрозы, ядерная безопасность и, конечно, старое доброе «автономное поведение». Суть этой структуры проста: если модель получает оценку «Высокий риск» в любой из категорий, она не может быть выпущена для публичного использования. Директор по готовности становится тем самым человеком, который держит руку на рубильнике.

Ему придется балансировать между желанием инвесторов выпустить продукт как можно быстрее и необходимостью гарантировать, что этот продукт не обрушит финансовые рынки или не начнет манипулировать сознанием миллионов пользователей. Почему это происходит именно сейчас? Все просто: на горизонте маячит GPT-5.

Каждое новое поколение моделей демонстрирует экспоненциальный рост возможностей, и регуляторы в США и Европе уже не готовы верить OpenAI на слово. Им нужны конкретные люди, ответственные за конкретные процессы. Это также отличный PR-ход: показать, что компания взрослеет и готова играть по правилам, даже если эти правила она пишет для себя сама.

В реальности же мы видим попытку легитимизировать разработку сверхмощных систем. Если у вас есть «директор по готовности», значит, вы готовы к любым сценариям, верно? По крайней мере, так это должно выглядеть в глазах общественности.

Но остается открытым вопрос: сможет ли один человек, даже с самым грозным титулом, остановить многомиллиардную машину, если она вдруг решит, что правила ей больше не нужны. В индустрии, где скорость выпуска обновлений определяет выживание, безопасность часто становится досадной помехой, которую хочется объехать по обочине. Главное: OpenAI создает фасад ответственной корпорации перед запуском следующей большой модели.

Станет ли ИИ от этого безопаснее или это просто мастерская работа юристов и HR-отдела?

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…