أين تقع حدود قدرات AI الحديث
بلغ سباق LLM نطاقًا دوليًا: إذ تُقارَن القدرة الحاسوبية اللازمة لتدريب النماذج بالمخزونات النووية الاستراتيجية. لكن هل لدى AI حد نظري؟ وفق تصنيف ألتشولر، تنقسم

Вычислительные мощности для обучения языковых моделей сегодня обсуждают на уровне глав государств, а не только советов директоров технологических корпораций. Гонка за лидерство в области ИИ стала геополитическим фактором, сопоставимым по значению с контролем над ядерными технологиями. Но за этим ажиотажем скрывается фундаментальный вопрос, который индустрия предпочитает не замечать: существует ли принципиальный потолок того, что искусственный интеллект в его нынешнем виде способен сделать?
Чтобы ответить на этот вопрос, нужно сначала разобраться с терминологией. Советский изобретатель и методолог Генрих Альтшуллер, создатель теории решения изобретательских задач (ТРИЗ), проводил принципиальное разграничение между двумя типами задач. Первый — рутинные задачи. Они могут быть невероятно сложными с точки зрения вычислений, требовать терабайтов данных и месяцев работы суперкомпьютеров, но их решение целиком лежит внутри уже существующей системы знаний. По сути, это задачи на поиск и комбинирование того, что человечество уже знает. И именно здесь современные языковые модели демонстрируют впечатляющие результаты — они перебирают, синтезируют и адаптируют существующие знания с такой скоростью и в таком масштабе, которые недоступны человеческому разуму.
Второй тип — изобретательские задачи. Это территория, где требуется не просто найти ответ в пространстве известного, а выйти за его пределы. Создать новую абстракцию, обнаружить закономерность, которую никто прежде не формулировал, или предложить решение, противоречащее общепринятым представлениям. Именно здесь начинается самое интересное — и самое тревожное для тех, кто верит в неизбежность появления «сильного» ИИ.
Современные большие языковые модели, при всей их впечатляющей производительности, работают по принципу статистического обобщения паттернов из обучающих данных. Они не «понимают» в том смысле, в каком понимает человек, — они распознают структуры и воспроизводят их с вариациями. Это делает их блестящими инструментами для рутинных задач любой сложности: от написания кода по известным шаблонам до диагностики заболеваний на основе накопленных медицинских данных. Но когда речь заходит о подлинном открытии — о том, чтобы увидеть то, чего нет в данных, — модель оказывается в эпистемологическом тупике. Она не может выйти за границы того пространства знаний, на котором была обучена.
Разумеется, можно возразить, что модели иногда выдают неожиданные и даже «креативные» результаты. Это правда, но такая «креативность» — это комбинаторика, а не изобретательство. Модель способна соединить две далёкие области знаний неочевидным образом, и результат может выглядеть как озарение. Однако принципиально новое знание — то, которое не является рекомбинацией существующего, — требует иного когнитивного механизма. Какого именно — вопрос, на который не может ответить ни нейронаука, ни философия сознания.
Практические последствия этого разграничения огромны. Компании и правительства, инвестирующие миллиарды в развитие ИИ, должны трезво оценивать, какие задачи им предстоит решать. Если речь идёт об автоматизации, оптимизации, масштабировании существующих процессов — языковые модели справятся, и с каждым годом всё лучше. Если же ставка делается на то, что ИИ совершит фундаментальный научный прорыв или создаст принципиально новую технологию без человеческого участия, — ожидания, вероятно, завышены. По крайней мере при нынешней архитектуре моделей.
Есть и более глубокий уровень проблемы. Гонка LLM на межгосударственном уровне создаёт опасную иллюзию: кто первым построит самую мощную модель, тот получит стратегическое преимущество во всём. Но если эпистемологический потолок существует, то наращивание мощностей даёт лишь количественный прирост в решении рутинных задач, а не качественный скачок к машинному сверхразуму. Это не отменяет важности ИИ — автоматизация рутины сама по себе трансформирует экономику и общество. Но это означает, что человеческий интеллект, способный к подлинному изобретательству, остаётся незаменимым ресурсом.
Вопрос о пределах ИИ — это не приговор технологии, а приглашение к честному разговору о её природе. Чем лучше мы понимаем, что машины могут, а чего не могут, тем эффективнее сможем выстроить симбиоз человеческого и машинного интеллекта. И, возможно, именно этот симбиоз — а не гонка за всемогущей моделью — станет настоящим прорывом ближайшего десятилетия.