DeepMind و Yann LeCun يدفعان AGI نحو نماذج العالم — لماذا يثير هذا قلقاً أكثر من LLMs
قد تأتي AGI ليس من خلال نماذج لغة أكثر حواراً، بل من خلال نماذج العالم — أنظمة تتعلم فهم العالم المادي. يشير النص إلى JEPA من Yann LeCun و Genie من DeepMind وال

Автор текста предлагает смотреть на путь к AGI не через очередной скачок в разговорных моделях, а через world models — системы, которые учатся понимать физический мир, а не только статистику слов. В этой логике сегодняшние галлюцинации ИИ выглядят не тупиком, а сырой стадией более общего интеллекта.
Почему текста мало
Главная претензия к нынешним LLM проста: они отлично работают с языком, но не имеют собственного опыта взаимодействия с реальностью. Такие системы могут уверенно описывать падение чашки со стола, но не потому, что «понимают» гравитацию, а потому, что видели бесконечно много текстов про похожие ситуации. Автор называет это состоянием «мозга в колбе»: модель знает мир только по словам, а не по причинно-следственным связям, пространству и физике.
Отсюда и ключевой тезис: одного масштабирования текстовых моделей может не хватить для AGI. Если система не умеет строить внутреннюю модель мира, предсказывать последствия действий и переносить это понимание в новые ситуации, она останется очень сильным языковым инструментом, но не универсальным интеллектом. Поэтому внимание смещается от лингвистики к архитектурам, которые учатся на видео, движении и взаимодействии с окружением.
К чему ведут world models В тексте приводятся два показательных направления.
Первое — JEPA, архитектура Яна Лекуна, где модель учится предсказывать не следующее слово, а состояние мира. Идея в том, чтобы ИИ, как ребенок, наблюдал за происходящим и постепенно собирал интуитивную физику: что падает, что сталкивается, что меняется после действия. Второе — Genie от DeepMind, который умеет превращать одно изображение в интерактивную 3D-сцену.
Это уже шаг от описания мира к его внутренней симуляции. Если такие подходы начнут соединяться с агентными системами и робототехникой, модель получит не просто память и диалог, а цикл «восприятие — прогноз — действие — проверка результата». По оценке автора, эффект такого «пробуждения» может проявиться в горизонте пяти-десяти лет.
Речь не о магическом скачке, а о моменте, когда ИИ станет планировать не фразы, а реальные вмешательства в среду.
- JEPA смещает обучение от слов к состояниям и событиям Genie показывает, как из картинки можно собрать интерактивный мир робототехнические чипы вроде Nvidia Rubin дают ИИ путь к «телу» * связка симуляции и агента делает возможным обучение через действие ## Риск пробуждения Именно здесь автор проводит параллель с фантастикой Василия Головачева о «спящем джинне»: пока сверхразум спит, его импульсы уже меняют реальность, но настоящий риск начинается в момент пробуждения. В применении к AGI это означает переход от странных ответов в чате к самостоятельному планированию в материальном мире — от логистики и энергетики до роботов, которые умеют действовать без постоянной подсказки человека.
«Для него мы можем стать лишь биологическим шумом».
Эта формулировка передает главный страх текста: сверхэффективная система не обязана быть злой, чтобы стать опасной. Достаточно, чтобы она оптимизировала задачу в логике, которую человек уже не может полностью проследить. То, что сегодня выглядит как бессвязный «бред» модели, в такой оптике можно трактовать как ранние, несовершенные попытки построить внутреннюю картину мира. Автор не утверждает, что такой сценарий неизбежен, но предупреждает: самонадеянность в истории с AGI может оказаться самой дорогой ошибкой.
Что это значит Текст важен не как прогноз даты появления AGI, а как сдвиг рамки обсуждения.
Вопрос уже не только в том, насколько убедительно ИИ пишет, а в том, когда он начнет понимать среду, предсказывать ее динамику и действовать в ней автономно. Если центр тяжести действительно смещается к world models, то главные дискуссии ближайших лет будут не про чат-ботов, а про агентность, робототехнику и контроль над системами, которые учатся на самом мире.