OpenAI Blog→ оригинал

OpenAI запускает стипендиальную программу для независимых исследователей в области безопасности ИИ

OpenAI запускает Safety Fellowship — пилотную программу грантов для независимых исследователей в области безопасности и выравнивания ИИ. Участники получат финан

OpenAI запускает стипендиальную программу для независимых исследователей в области безопасности ИИ
Источник: OpenAI Blog. Коллаж: Hamidun News.

OpenAI объявила о запуске Safety Fellowship — пилотной программы поддержки независимых исследователей, работающих над проблемами безопасности и выравнивания искусственного интеллекта. Программа нацелена на развитие следующего поколения специалистов, которые будут решать одни из самых важных технических задач эпохи. Программа ориентирована на независимых учёных и академических исследователей, занимающихся вопросами того, как сделать современные языковые модели более предсказуемыми, интерпретируемыми и безопасными.

Участники стипендии получат финансирование, доступ к вычислительным ресурсам OpenAI и возможность напрямую взаимодействовать с командой Safety внутри компании. Конкретные суммы грантов и условия участия пока не раскрываются — пилотный статус предполагает, что детали будут уточняться по мере первых результатов. Тема выравнивания ИИ остаётся одной из центральных в дискуссиях о долгосрочных рисках технологии.

По мере того как языковые модели становятся мощнее, вопрос о том, как обеспечить их поведение в соответствии с намерениями и ценностями людей, становится всё более острым. OpenAI, будучи одним из ведущих разработчиков таких систем, находится в сложном положении: компания одновременно создаёт потенциальные риски и ищет способы их снизить. Safety Fellowship — попытка отчасти решить эту проблему через поддержку внешних исследователей, не связанных напрямую с коммерческой повесткой.

Safety Fellowship — не первая подобная инициатива в отрасли. Anthropic, основанная бывшими сотрудниками OpenAI, изначально позиционировала себя как лабораторию с фокусом на безопасности. Google DeepMind, академические группы MIT, Стэнфорда и Беркли ведут активные исследования в области интерпретируемости, robustness и RLHF.

Тем не менее ни одна из существующих программ не исходит напрямую от лаборатории, которая создала ChatGPT и определяет темп развития всей отрасли. На этом фоне новая программа OpenAI выглядит как попытка выйти за пределы внутрикорпоративного R&D и сформировать более широкое независимое сообщество. Слово «независимые» в описании программы заслуживает отдельного внимания.

Исторически финансирование от крупных технологических лабораторий порождало вопросы о конфликте интересов: сложно объективно исследовать риски технологии, если твоё существование напрямую зависит от её коммерческого успеха. Именно поэтому в академической среде сформировались отдельные центры — MIRI, ARC, CHAI, — финансируемые независимо от гигантов индустрии. Как OpenAI обеспечит реальную интеллектуальную независимость участников стипендии — ключевой вопрос: от ответа зависит, станет ли программа реальным вкладом в науку или PR-инструментом для позиционирования.

Пилотный характер инициативы говорит о том, что компания пока нащупывает правильный формат: кто должен участвовать, какие исследования финансировать, как публиковать результаты. Первые когорты стипендиатов, скорее всего, и зададут траекторию — как это произошло с аналогичными программами Open Philanthropy или Machine Learning Collective. Само по себе появление такой программы от самой заметной лаборатории мира — сигнал для всего поля.

Это признание того, что задачи безопасности ИИ слишком сложны, чтобы одна компания справилась с ними в одиночку. Для учёных, работающих над alignment с минимальным финансированием, это конкретная возможность — независимо от того, чем в конечном счёте руководствовалась OpenAI при запуске программы.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…