Jiqizhixin (机器之心)→ оригинал

FARS: 100 научных статей за 228 часов и 11,4 млрд токенов

Система FARS (Fully Automated Research System) поразила исследовательское сообщество: за 228 часов непрерывной работы агент самостоятельно сгенерировал 100 науч

FARS: 100 научных статей за 228 часов и 11,4 млрд токенов
Источник: Jiqizhixin (机器之心). Коллаж: Hamidun News.

Сто научных статей за девять с половиной дней. Именно такой результат показала система FARS — Fully Automated Research System, — не сделав при этом ни единой паузы на сон, кофе или научный спор с коллегами. Эксперимент, подробности которого всколыхнули исследовательское сообщество, ставит перед академическим миром вопрос, который больше нельзя откладывать: что происходит с наукой, когда машина пишет быстрее, чем человек успевает читать?

За 228 часов непрерывной работы FARS сгенерировал ровно 100 научных работ, израсходовав колоссальные 11,4 миллиарда токенов — примерно столько содержится в нескольких десятках тысяч научных книг. Цифры сами по себе производят впечатление, однако их истинный масштаб становится очевиден лишь в сравнении: опытный исследователь тратит на подготовку одной полноценной статьи от нескольких недель до нескольких месяцев. FARS уложился в среднем чуть больше чем в два часа на каждую работу. Это не ускорение процесса — это его качественная трансформация.

Появление подобных систем не случайно именно сейчас. Последние два года ознаменовались стремительным развитием автономных ИИ-агентов — программных систем, способных самостоятельно планировать задачи, искать информацию, формулировать гипотезы и оформлять результаты без постоянного участия человека. Если ранние языковые модели требовали детальных инструкций на каждом шагу, то современные агентные архитектуры умеют выстраивать длинные цепочки действий: от постановки исследовательского вопроса до финального редактирования текста. FARS представляет собой именно такую замкнутую систему, где исследовательский цикл полностью автоматизирован.

Техническая сторона эксперимента заслуживает отдельного внимания. 11,4 миллиарда токенов — это не просто мера потреблённых вычислительных ресурсов, это косвенный показатель глубины работы системы. Агент не просто перефразировал существующие тексты: он обрабатывал массивы данных, выстраивал аргументацию, формировал библиографические ссылки и структурировал материал по академическим стандартам. Столь высокое токен-потребление говорит о том, что система действительно проходила через многошаговые итерации, а не генерировала поверхностные резюме. Впрочем, именно здесь и начинаются вопросы, на которые пока нет однозначных ответов.

Центральная проблема автоматической научной генерации — качество и воспроизводимость результатов. Академическая статья — это не только оформленный текст, но и верифицированное знание: данные, которые можно проверить, методология, которую можно повторить, выводы, которые выдержат критику рецензентов. Ни один из организаторов эксперимента не утверждает, что все 100 работ прошли независимую экспертизу. Вопрос о том, насколько эти статьи соответствуют стандартам рецензируемых журналов, остаётся открытым — и это, пожалуй, самый важный вопрос во всей этой истории. Скорость без точности в науке не просто бесполезна — она опасна: ложные результаты, попавшие в академический оборот, способны годами дезориентировать целые направления исследований.

Тем не менее потенциал подобных систем трудно игнорировать. Существуют области, где скорость обработки данных критически важна, — эпидемиология, климатология, материаловедение, — где исследователи буквально не успевают анализировать потоки поступающей информации. Автономный агент, способный за сутки обработать и систематизировать массив данных, который у человеческой команды занял бы квартал, — это реальный инструмент ускорения знания, а не просто демонстрация вычислительной мощи. Ключевой вопрос в том, как встроить подобные системы в существующие механизмы верификации, не потеряв по дороге ни точность, ни научную добросовестность.

FARS — не финальная точка, а первая отметка на длинной шкале. Академическое сообщество, издательства и регуляторы стоят перед необходимостью выработать новые стандарты: как маркировать работы с высокой долей автоматической генерации, как адаптировать рецензирование к иному темпу производства текстов, как отличать машинное глубокое исследование от машинной имитации глубины. Эксперимент наглядно показал, что барьер скорости уже преодолён. Следующий барьер — доверие. И его высота измеряется не токенами.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…