Lina Bessonova presentó arquitectura cognitiva rusa como alternativa a los transformers
Lina Bessonova describió su propia 'arquitectura cognitiva rusa' como alternativa a los transformers. Según su concepto, el sistema se construye sobre modelos b

Разработчик Лина Бессонова представила концепцию «российской когнитивной архитектуры», которую предлагает рассматривать как альтернативу привычной гонке за большими языковыми моделями. Главная мысль текста проста: суверенный ИИ, по версии автора, начинается не с локального датасета и не с закупок дорогих ускорителей, а с попытки заново определить саму архитектуру системы. Вместо предсказания следующего токена Бессонова предлагает опереться на биомиметический подход, внутренние состояния и накопление опыта.
Текст построен как полемика с тем, что сегодня часто называют «суверенным ИИ» в России. Автор задает жесткие вопросы: достаточно ли русскоязычных данных, собственного бренда или доступа к дефицитным H100, чтобы считать модель действительно независимой? Ответ у нее отрицательный.
Если фундамент остается чужим, а базовая логика заимствована у американских моделей, то локализация, по ее мнению, не превращает продукт в самостоятельную технологическую школу. В этом смысле статья выглядит не как анонс готового массового сервиса, а как манифест о том, каким вообще должен быть национальный AI-стек. Практическую часть концепции Бессонова описывает через собственный стек на Python, NumPy и SciPy.
По ее словам, система не требует массивного обучения на огромных GPU-кластерах и может работать в реальном времени на локальной машине, вплоть до домашнего сервера или Mac Mini M4 Pro. Это важно не только как инженерное решение, но и как политико-экономический аргумент: чем меньше зависимость от санкционного и дефицитного железа, тем выше шансы на автономное развитие. Автор отдельно подчеркивает, что такая архитектура потенциально лучше подходит для edge-устройств, где критичны компактность, энергопотребление и возможность работать без облака.
Ключевая техническая идея статьи — биомиметика вместо статистического предсказания. Бессонова противопоставляет трансформерам систему, в которой поведение агента должно определяться не только вероятностями слов, но и динамикой внутренних переменных. Среди них она называет аналоги возбуждения, торможения, адаптации и ресурса, которые постоянно пересчитываются и влияют на реакцию модели.
По замыслу автора, это позволяет говорить не просто о генерации текста, а о более цельной когнитивной схеме, где ответ рождается из внутреннего состояния системы. В качестве научной опоры Бессонова ссылается на русскую физиологическую школу и имена Бехтерева, Чижевского и Павлова, подчеркивая, что ищет основу не в калифорнийской инженерной традиции, а в отечественной научной линии. Еще один важный элемент — обучение через «седиментацию опыта».
В отличие от моделей, которые сначала поглощают гигантские массивы интернет-данных, а затем донастраиваются, здесь предлагается иной путь: агент должен накапливать личный опыт из взаимодействия с пользователем и окружающей средой. Такая логика сближает систему скорее с развивающимся организмом, чем с привычной языковой моделью. Одновременно автор делает ставку на юридическую самостоятельность проекта: архитектуру, по ее словам, готовят к регистрации в Роспатенте как программу для ЭВМ, а затем и к патентной защите отдельных изобретательских решений.
Тем самым концепция подается как попытка создать не только новый техстек, но и формально независимый российский интеллектуальный актив. Самая резкая часть текста посвящена критике корпоративного мейнстрима. Бессонова считает, что модели крупных игроков, построенные на архитектуре Transformer, остаются зависимыми от чужих «чертежей», даже если интерфейс, язык и бренд у них локальные.
Отдельно достается RLHF — обучению с подкреплением на основе человеческой обратной связи. Автор трактует этот подход как механизм, который делает ассистентов безопасными и предсказуемыми, но одновременно сглаживает культурную остроту, спорность и интеллектуальную самобытность. В ее интерпретации проблема не только в идеологии, но и в инфраструктуре: если вся стратегия завязана на большие дата-центры и поставки редких чипов, то любой разговор о технологическом суверенитете оказывается уязвимым.
Вывод статьи сводится к смене самой рамки дискуссии. Вопрос, по сути, ставится так: национальный ИИ — это тот, кто быстрее догонит лидеров на их поле, или тот, кто предложит другую базовую модель мышления машины? Пока описанная архитектура выглядит скорее как исследовательская программа и мировоззренческое заявление, чем как продукт, готовый конкурировать с массовыми LLM.
Но сама постановка проблемы важна: автор призывает спорить не о количестве GPU и размере датасетов, а о том, кто задает исходные принципы будущих интеллектуальных систем.