The Verge→ оригинал

Google, Microsoft и xAI позволят США проверять AI модели перед релизом

Три крупнейших AI компании — Google, Microsoft и xAI — согласились позволить США проверять их новые модели перед публичным выпуском. Центр CAISI из министерства

Google, Microsoft и xAI позволят США проверять AI модели перед релизом
Источник: The Verge. Коллаж: Hamidun News.
◐ Слушать статью

Google DeepMind, Microsoft и xAI согласились позволить американскому правительству проверять новые AI модели перед их публичным выпуском. Это означает, что предварительная госпроверка переходит из экспериментальной программы в обязательный этап разработки для крупнейших компаний.

Как устроена проверка

Центр AI Standards and Innovation (CAISI) при министерстве торговли США проводит предварительные оценки новых AI моделей задолго до их публичного релиза. Организация анализирует способности систем на кодировании, математике, научных задачах, выявляет потенциальные риски и работает с компаниями над улучшением безопасности перед выходом модели в свет. Программа начала функционировать в 2024 году с участием OpenAI и Anthropic. За первые полтора года выполнено уже 40 проверок. Обе компании недавно переотговорили свои партнёрства в соответствии с новыми приоритетами администрации Трампа. Google DeepMind, Microsoft и xAI присоединяются на новых условиях — практически все ключевые разработчики передовых AI моделей теперь координируют свои релизы с государством.

Почему правительство контролирует AI

Администрация США ставит перед CAISI несколько задач: понять, на что действительно способны передовые AI системы; выявить потенциальные риски перед выходом на массовый рынок; контролировать экспорт AI технологий в интересах национальной безопасности. CCISI проводит целевые исследования рядом с компаниями, проверяя модели на готовность к выпуску. Это включает анализ способности системы работать с потенциально опасными сценариями и проверку того, какие новые возможности появились по сравнению с предыдущим поколением.

Приоритеты администрации в отношении AI разработки: Гарантии того, что системы остаются контролируемыми Полное понимание способностей передовых моделей Прозрачность перед регуляторами Защита национальной безопасности * Контроль над экспортом технологий ## Что это означает для индустрии Согласие крупнейших компаний на предварительную госпроверку означает, что выпускать новые передовые модели в США без координации с CAISI больше невозможно. Для компаний это замедление цикла разработки на несколько недель перед релизом. Для правительства — рычаги влияния на направление развития.

Для пользователей — потенциально выше стандарты безопасности моделей, которыми они пользуются каждый день.

Что это значит Эра полной свободы больших AI компаний в решениях о выпуске моделей подходит к концу.

Государство берёт более активную роль в governance крупнейших технологий, которые влияют на миллионы людей. Это может ускорить развитие стандартов безопасности, но замедлить темп инноваций.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Что вы думаете?
Загружаем комментарии…