TechCrunch→ оригинал

Исследователь Russell опасается гонки вооружений в разработке AGI

Эксперт по ИИ Stuart Russell дал показания в суде Маска против OpenAI. Он считает, что без государственного контроля разработчики конкурируют в скорости AGI, же

Исследователь Russell опасается гонки вооружений в разработке AGI
Источник: TechCrunch. Коллаж: Hamidun News.
◐ Слушать статью

Stuart Russell, ведущий специалист по безопасности ИИ, дал показания в суде по исковому заявлению Elon Musk против OpenAI. Russell выступает голосом предупреждения — он опасается, что конкуренция за лидерство в разработке AGI спровоцирует гонку вооружений, где компании пожертвуют безопасностью ради скорости.

Кто такой

Russell и почему его слова весят Stuart Russell — профессор искусственного интеллекта в Калифорнийском университете в Беркли. Его учебник по ИИ — стандарт в университетах по всему миру, и он уже более 30 лет занимается не технической стороной ИИ, а философскими и вопросами безопасности. Russell один из немногих экспертов, которого слушают и учёные, и политики, и корпоративные лидеры. На фоне множества голосов об опасности AGI, Russell выделяется своей академической аккуратностью. Его участие в судебном разбирательстве против OpenAI — это редкий момент, когда он занимает явно политическую позицию.

Гонка вооружений без регуляции В своих показаниях

Russell аргументирует, что без государственного контроля мы наблюдаем классическую ситуацию гонки вооружений. Компании боятся отстать от конкурентов, поэтому сокращают сроки проверок безопасности, снижают требования к валидации моделей и спешат с публикацией.

Это не заговор, это структурная проблема рынка, — по сути говорит Russell. — Каждая компания логично действует в своих интересах, но коллективный результат опасен для всех.

Гонка вооружений в AGI отличается от классической тем, что ставка выше — речь о системах, которые могут превзойти человеческий интеллект. Ошибка при развёртывании такой системы может быть необратима на глобальном уровне. Основные тезисы Russell: Компании срезают углы в проверках безопасности Инвесторы и акционеры давят на ускорение разработок Нет международных соглашений о стандартах Лидер рынка может диктовать условия без опасения санкций ## Как Russell видит решение Russell не просто критикует статус-кво.

Он предлагает конкретные меры: государственные лицензии для разработчиков фронтирных моделей (как лицензии для АЭС), независимые проверки безопасности перед публикацией, международные стандарты и обязательную прозрачность в методах обучения. Это напоминает регуляцию в атомной энергетике или фармацевтике — областях, где ошибка имеет глобальные последствия. Russell предлагает применить проверенные инструменты из других высокоризиковых сфер к разработке AGI.

Что это значит

Вопрос о том, может ли рынок саморегулироваться в разработке AGI, теперь не только академический — он попадает в суд и влияет на политику. Russell занял позицию, что без вмешательства логика конкуренции неизбежно приведёт к критическим ошибкам. Услышит ли его суд и последующие политики — вопрос, от которого зависит будущее индустрии.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Что вы думаете?
Загружаем комментарии…