Habr AI→ оригинал

Pourquoi les modèles de langage n’atteindront jamais l’AGI : la leçon centenaire de Wittgenstein

Un article remarqué sur Habr explore les limites philosophiques des LLM. L’auteur s’appuie sur les idées de Ludwig Wittgenstein, qui, dès le début du XXe siècle

Pourquoi les modèles de langage n’atteindront jamais l’AGI : la leçon centenaire de Wittgenstein
Источник: Habr AI. Коллаж: Hamidun News.
◐ Слушать статью

Более ста лет назад школьный учитель из Австро-Венгрии написал фразу, которая сегодня звучит как приговор всей индустрии больших языковых моделей. «Границы моего языка означают границы моего мира» — этот тезис Людвига Витгенштейна из «Логико-философского трактата» 1921 года неожиданно оказался самым точным диагнозом для технологии, в которую мир вложил сотни миллиардов долларов.

Чтобы понять, почему это важно именно сейчас, нужно вспомнить контекст. Ещё два-три года назад индустрия жила в состоянии эйфории. Каждая новая версия GPT, Claude или Gemini демонстрировала впечатляющий скачок в способностях. Модели научились писать код, анализировать изображения, решать олимпиадные задачи. Казалось, что до общего искусственного интеллекта — AGI — осталось совсем немного, нужно лишь больше данных, больше параметров, больше вычислительных мощностей. Инвесторы вливали деньги, корпорации перестраивали стратегии, а публичные спикеры соревновались в прогнозах о том, когда именно машина превзойдёт человека. Сегодня, в 2026 году, тональность разговора заметно изменилась. Всё чаще звучит слово «пузырь», а скептики получают всё больше аргументов в свою пользу.

Именно в этот момент стоит вернуться к Витгенштейну. Его центральная идея проста и радикальна одновременно: язык — это не просто инструмент описания реальности, а сама граница того, что мы способны помыслить. Всё, что существует за пределами языка, для языкового существа попросту не существует. Перенесите этот принцип на LLM — и вы получите не метафору, а буквальное описание архитектурного ограничения. Большая языковая модель оперирует токенами. Она предсказывает следующий фрагмент текста на основе статистических закономерностей, извлечённых из гигантского корпуса данных. Она не воспринимает мир напрямую — не видит, не слышит, не чувствует боли, не испытывает голода. Весь её «мир» — это текст. И границы этого текста действительно являются границами её мира.

Критики могут возразить: современные мультимодальные модели уже работают с изображениями, звуком и видео. Разве это не выход за пределы языка? Здесь важно понимать разницу между обработкой сигнала и подлинным восприятием. Когда модель «видит» фотографию, она преобразует пиксели в числовые представления и соотносит их с текстовыми описаниями из обучающей выборки. Это не зрение в человеческом смысле — это сложная система перекрёстных ссылок. Модель не понимает, что такое красный цвет, она знает лишь контексты, в которых слово «красный» встречается рядом с определёнными числовыми паттернами. Витгенштейн бы сказал, что модель играет в языковую игру, не имея доступа к тому, на что эта игра указывает.

Есть и второй аспект философии Витгенштейна, который бьёт точно в цель. В поздний период своего творчества он пришёл к идее «языковых игр» — представлению о том, что значение слова определяется его использованием в конкретной практике. Понимание — это не извлечение абстрактного смысла из словаря, а способность действовать в мире определённым образом. Когда мы говорим «я понимаю, что такое молоток», мы имеем в виду не знание определения, а опыт забивания гвоздей, вес инструмента в руке, мышечную память замаха. LLM может безупречно описать молоток, перечислить его виды, процитировать инструкцию по применению — но у неё нет и не может быть опыта забивания гвоздя. Её «понимание» — это симуляция, лишённая телесного основания.

Это не значит, что языковые модели бесполезны — напротив, они невероятно полезны именно в пределах своей языковой вселенной. Они блестяще справляются с задачами, которые целиком укладываются в текстовое пространство: редактирование, перевод, генерация кода, суммаризация, поиск закономерностей в данных. Проблема не в самих моделях, а в завышенных ожиданиях, которые на них возложили. Когда руководители технологических компаний обещают AGI через два-три года, они либо не понимают природу ограничений, либо сознательно подпитывают инвестиционный ажиотаж.

Путь к общему искусственному интеллекту, если он вообще существует, почти наверняка лежит за пределами чисто языковой парадигмы. Он потребует систем, способных к воплощённому познанию — к взаимодействию с физическим миром, к формированию внутренних моделей реальности через опыт, а не через чтение текстов об опыте. Робототехника, нейроморфные вычисления, гибридные архитектуры, объединяющие символьные и коннекционистские подходы, — всё это потенциальные направления, но ни одно из них пока не приблизилось к решению фундаментальной проблемы.

Витгенштейн умер в 1951 году, не подозревая о компьютерах, нейросетях и токенизации. Но его интуиция о природе языка и понимания оказалась пророческой. Границы языка — это действительно границы мира. И пока мы строим интеллект, замкнутый в языке, мы строим нечто впечатляющее, но принципиально ограниченное. Признание этого ограничения — не пессимизм, а необходимый шаг к честному разговору о том, куда на самом деле движется индустрия искусственного интеллекта.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…