Habr AI→ оригинал

Почему языковые модели никогда не станут AGI: урок Витгенштейна столетней давности

На Хабре вышел примечательный материал о философских границах LLM. Автор обращается к идеям Людвига Витгенштейна, который ещё в начале XX века сформулировал тез

Почему языковые модели никогда не станут AGI: урок Витгенштейна столетней давности
Источник: Habr AI. Коллаж: Hamidun News.

Более ста лет назад школьный учитель из Австро-Венгрии написал фразу, которая сегодня звучит как приговор всей индустрии больших языковых моделей. «Границы моего языка означают границы моего мира» — этот тезис Людвига Витгенштейна из «Логико-философского трактата» 1921 года неожиданно оказался самым точным диагнозом для технологии, в которую мир вложил сотни миллиардов долларов.

Чтобы понять, почему это важно именно сейчас, нужно вспомнить контекст. Ещё два-три года назад индустрия жила в состоянии эйфории. Каждая новая версия GPT, Claude или Gemini демонстрировала впечатляющий скачок в способностях. Модели научились писать код, анализировать изображения, решать олимпиадные задачи. Казалось, что до общего искусственного интеллекта — AGI — осталось совсем немного, нужно лишь больше данных, больше параметров, больше вычислительных мощностей. Инвесторы вливали деньги, корпорации перестраивали стратегии, а публичные спикеры соревновались в прогнозах о том, когда именно машина превзойдёт человека. Сегодня, в 2026 году, тональность разговора заметно изменилась. Всё чаще звучит слово «пузырь», а скептики получают всё больше аргументов в свою пользу.

Именно в этот момент стоит вернуться к Витгенштейну. Его центральная идея проста и радикальна одновременно: язык — это не просто инструмент описания реальности, а сама граница того, что мы способны помыслить. Всё, что существует за пределами языка, для языкового существа попросту не существует. Перенесите этот принцип на LLM — и вы получите не метафору, а буквальное описание архитектурного ограничения. Большая языковая модель оперирует токенами. Она предсказывает следующий фрагмент текста на основе статистических закономерностей, извлечённых из гигантского корпуса данных. Она не воспринимает мир напрямую — не видит, не слышит, не чувствует боли, не испытывает голода. Весь её «мир» — это текст. И границы этого текста действительно являются границами её мира.

Критики могут возразить: современные мультимодальные модели уже работают с изображениями, звуком и видео. Разве это не выход за пределы языка? Здесь важно понимать разницу между обработкой сигнала и подлинным восприятием. Когда модель «видит» фотографию, она преобразует пиксели в числовые представления и соотносит их с текстовыми описаниями из обучающей выборки. Это не зрение в человеческом смысле — это сложная система перекрёстных ссылок. Модель не понимает, что такое красный цвет, она знает лишь контексты, в которых слово «красный» встречается рядом с определёнными числовыми паттернами. Витгенштейн бы сказал, что модель играет в языковую игру, не имея доступа к тому, на что эта игра указывает.

Есть и второй аспект философии Витгенштейна, который бьёт точно в цель. В поздний период своего творчества он пришёл к идее «языковых игр» — представлению о том, что значение слова определяется его использованием в конкретной практике. Понимание — это не извлечение абстрактного смысла из словаря, а способность действовать в мире определённым образом. Когда мы говорим «я понимаю, что такое молоток», мы имеем в виду не знание определения, а опыт забивания гвоздей, вес инструмента в руке, мышечную память замаха. LLM может безупречно описать молоток, перечислить его виды, процитировать инструкцию по применению — но у неё нет и не может быть опыта забивания гвоздя. Её «понимание» — это симуляция, лишённая телесного основания.

Это не значит, что языковые модели бесполезны — напротив, они невероятно полезны именно в пределах своей языковой вселенной. Они блестяще справляются с задачами, которые целиком укладываются в текстовое пространство: редактирование, перевод, генерация кода, суммаризация, поиск закономерностей в данных. Проблема не в самих моделях, а в завышенных ожиданиях, которые на них возложили. Когда руководители технологических компаний обещают AGI через два-три года, они либо не понимают природу ограничений, либо сознательно подпитывают инвестиционный ажиотаж.

Путь к общему искусственному интеллекту, если он вообще существует, почти наверняка лежит за пределами чисто языковой парадигмы. Он потребует систем, способных к воплощённому познанию — к взаимодействию с физическим миром, к формированию внутренних моделей реальности через опыт, а не через чтение текстов об опыте. Робототехника, нейроморфные вычисления, гибридные архитектуры, объединяющие символьные и коннекционистские подходы, — всё это потенциальные направления, но ни одно из них пока не приблизилось к решению фундаментальной проблемы.

Витгенштейн умер в 1951 году, не подозревая о компьютерах, нейросетях и токенизации. Но его интуиция о природе языка и понимания оказалась пророческой. Границы языка — это действительно границы мира. И пока мы строим интеллект, замкнутый в языке, мы строим нечто впечатляющее, но принципиально ограниченное. Признание этого ограничения — не пессимизм, а необходимый шаг к честному разговору о том, куда на самом деле движется индустрия искусственного интеллекта.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…