OpenAI Blog→ оригинал

OpenAI تطلق برنامج زمالات للباحثين المستقلين في سلامة AI

تطلق OpenAI برنامج Safety Fellowship، وهو برنامج منح تجريبي للباحثين المستقلين في سلامة AI ومواءمته. سيحصل المشاركون على تمويل، وإمكانية الوصول إلى موارد OpenAI

OpenAI تطلق برنامج زمالات للباحثين المستقلين في سلامة AI
Источник: OpenAI Blog. Коллаж: Hamidun News.
◐ Слушать статью

OpenAI объявила о запуске Safety Fellowship — пилотной программы поддержки независимых исследователей, работающих над проблемами безопасности и выравнивания искусственного интеллекта. Программа нацелена на развитие следующего поколения специалистов, которые будут решать одни из самых важных технических задач эпохи. Программа ориентирована на независимых учёных и академических исследователей, занимающихся вопросами того, как сделать современные языковые модели более предсказуемыми, интерпретируемыми и безопасными.

Участники стипендии получат финансирование, доступ к вычислительным ресурсам OpenAI и возможность напрямую взаимодействовать с командой Safety внутри компании. Конкретные суммы грантов и условия участия пока не раскрываются — пилотный статус предполагает, что детали будут уточняться по мере первых результатов. Тема выравнивания ИИ остаётся одной из центральных в дискуссиях о долгосрочных рисках технологии.

По мере того как языковые модели становятся мощнее, вопрос о том, как обеспечить их поведение в соответствии с намерениями и ценностями людей, становится всё более острым. OpenAI, будучи одним из ведущих разработчиков таких систем, находится в сложном положении: компания одновременно создаёт потенциальные риски и ищет способы их снизить. Safety Fellowship — попытка отчасти решить эту проблему через поддержку внешних исследователей, не связанных напрямую с коммерческой повесткой.

Safety Fellowship — не первая подобная инициатива в отрасли. Anthropic, основанная бывшими сотрудниками OpenAI, изначально позиционировала себя как лабораторию с фокусом на безопасности. Google DeepMind, академические группы MIT, Стэнфорда и Беркли ведут активные исследования в области интерпретируемости, robustness и RLHF.

Тем не менее ни одна из существующих программ не исходит напрямую от лаборатории, которая создала ChatGPT и определяет темп развития всей отрасли. На этом фоне новая программа OpenAI выглядит как попытка выйти за пределы внутрикорпоративного R&D и сформировать более широкое независимое сообщество. Слово «независимые» в описании программы заслуживает отдельного внимания.

Исторически финансирование от крупных технологических лабораторий порождало вопросы о конфликте интересов: сложно объективно исследовать риски технологии, если твоё существование напрямую зависит от её коммерческого успеха. Именно поэтому в академической среде сформировались отдельные центры — MIRI, ARC, CHAI, — финансируемые независимо от гигантов индустрии. Как OpenAI обеспечит реальную интеллектуальную независимость участников стипендии — ключевой вопрос: от ответа зависит, станет ли программа реальным вкладом в науку или PR-инструментом для позиционирования.

Пилотный характер инициативы говорит о том, что компания пока нащупывает правильный формат: кто должен участвовать, какие исследования финансировать, как публиковать результаты. Первые когорты стипендиатов, скорее всего, и зададут траекторию — как это произошло с аналогичными программами Open Philanthropy или Machine Learning Collective. Само по себе появление такой программы от самой заметной лаборатории мира — сигнал для всего поля.

Это признание того, что задачи безопасности ИИ слишком сложны, чтобы одна компания справилась с ними в одиночку. Для учёных, работающих над alignment с минимальным финансированием, это конкретная возможность — независимо от того, чем в конечном счёте руководствовалась OpenAI при запуске программы.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…