Jiqizhixin (机器之心)→ оригинал

Implicit CoT: cómo las redes neuronales aprendieron a pensar sin abrir la boca

Эпоха «болтливого» ИИ может закончиться быстрее, чем мы думали. После выхода OpenAI o1 индустрия помешалась на цепочках рассуждений (Explicit CoT), когда модель

Implicit CoT: cómo las redes neuronales aprendieron a pensar sin abrir la boca
Источник: Jiqizhixin (机器之心). Коллаж: Hamidun News.

Когда OpenAI представила модель o1, мир впервые по-настоящему столкнулся с концепцией «цепочки мыслей» (Chain of Thought,). Мы привыкли, что нейросети выдают ответ мгновенно, но o1 заставила нас ждать, пока она «бормочет» себе под нос, перебирая варианты. Это выглядело как магия, но у этой магии была высокая цена: время ожидания и огромный расход токенов на внутренние рассуждения, которые пользователь в итоге мог даже не увидеть.

Это так называемое явное рассуждение (Explicit CoT), которое стало временным костылем для моделей, пытающихся имитировать человеческую логику. Однако новое исследование в области неявных рассуждений (Implicit CoT,) обещает избавить нас от этой избыточности. Исследователи задались вопросом: обязательно ли модели «проговаривать» каждый логический шаг, чтобы прийти к верному выводу?

Оказалось, что нет. Путем специального обучения и дистилляции знаний нейросеть можно научить скрывать эти промежуточные этапы внутри своих скрытых состояний (hidden states). Это фундаментально меняет парадигму: вместо того чтобы тратить вычислительные ресурсы на генерацию текста, который никто не читает, модель направляет их на прямое формирование правильного ответа.

Чтобы понять масштаб изменений, представьте разницу между школьником, который решает уравнение, записывая каждое действие, и профессором, который видит решение мгновенно. OpenAI o1 — это прилежный школьник. Технология Implicit CoT — это попытка вырастить из него профессора.

Перенос рассуждений из текстового вывода в область внутренних вычислений позволяет достичь той же точности в математических и логических задачах, но с колоссальной экономией ресурсов. Для индустрии это означает, что будущие модели станут не только умнее, но и значительно быстрее и дешевле в эксплуатации. Этот сдвиг также решает проблему «загрязнения» контекста.

Когда модель генерирует тысячи токенов рассуждений, она сама может запутаться в собственных словах. Скрытые рассуждения позволяют избежать этого шума. Исследователи использовали методы обучения с подкреплением, чтобы заставить модель «сжимать» свои мысли.

В результате нейросеть учится оперировать абстракциями более высокого порядка, не разбивая их на примитивные текстовые пояснения. Это фактически является шагом к созданию того, что Даниэль Канеман называл «Системой 1» — быстрым, автоматическим и интуитивным мышлением, которое при этом базируется на глубокой логической подготовке. Для разработчиков и бизнеса это сигнал о том, что гонка за количеством параметров может окончательно уступить место гонке за архитектурным изяществом.

Если раньше мы думали, что для решения сложных задач нам нужны гигантские контекстные окна и бесконечные вычисления на этапе вывода, то теперь становится ясно: эффективность кроется в способности модели интериоризировать свои знания. Мы стоим на пороге появления нового поколения LLM, которые будут обладать глубиной o1, но скоростью GPT-4o. Это не просто оптимизация, это взросление технологии, которая наконец-то учится думать про себя, прежде чем что-то сказать.

Главное: Эпоха «длинных мыслей» вслух была лишь переходным этапом. Смогут ли открытые модели освоить Implicit CoT быстрее, чем OpenAI закроет этот пробел в своих коммерческих продуктах?

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…