TechCrunch a publié un guide sur le jargon de l'IA : que sont les LLMs, les hallucinations et RAG
L'intelligence artificielle a apporté une avalanche de nouveaux termes : LLM, RAG, hallucinations, fine-tuning, tokens, agents. TechCrunch a publié un glossaire

ИИ-бум 2024–2026 годов принёс не только новые продукты и возможности, но и целый слой профессионального жаргона, в котором легко запутаться. LLM, RAG, галлюцинации, токены, файнтюнинг, промпты — эти слова всё чаще звучат в новостях, презентациях и деловых переговорах, а понимание у большинства остаётся размытым. TechCrunch опубликовал подробный глоссарий с объяснением ключевых понятий эпохи ИИ — от базовой архитектуры до прикладных техник работы с моделями.
В основе большинства современных ИИ-систем лежат большие языковые модели — LLM (Large Language Model). Это нейронные сети, обученные на огромных массивах текста. Они не «понимают» язык в человеческом смысле, но умеют генерировать статистически правдоподобные ответы на любые запросы.
Базовая единица, с которой работает LLM, — токен: примерно три-четыре символа, часть слова или знак препинания. GPT-4o обрабатывает до 128 000 токенов за раз — это порядка 300 страниц текста. Чем больше контекстное окно (context window), тем больше информации модель способна учесть при формировании ответа.
Один из главных изъянов LLM — галлюцинации (hallucinations). Так называют ситуации, когда модель уверенно выдаёт фактически неверную информацию: выдуманные цитаты, несуществующие источники, ложные даты. Это не «ложь» в этическом смысле — просто модель генерирует правдоподобно звучащий текст, не имея встроенного механизма проверки фактов.
Для борьбы с галлюцинациями был разработан метод RAG (Retrieval-Augmented Generation): перед генерацией ответа система ищет релевантные фрагменты в реальной базе данных и опирается на них. По этому принципу сегодня работают многие корпоративные ИИ-ассистенты и поисковые системы нового поколения. Когда базовой модели нужна специализация — её дообучают на узких данных.
Этот процесс называется файнтюнинг (fine-tuning): модель учится отвечать в нужном стиле, на специализированную тематику или в рамках определённого формата. Более доступный подход — промпт-инжиниринг (prompt engineering): грамотная формулировка запросов, позволяющая добиться нужного результата без переобучения модели. Отдельный и быстро растущий класс систем — ИИ-агенты (AI agents): они не просто отвечают на вопросы, а планируют и выполняют цепочки действий — ищут информацию в интернете, запускают код, управляют файлами и браузером.
Наиболее известные примеры — Claude Computer Use и OpenAI Operator. Среди других ключевых терминов: параметры (parameters) — числовые «веса» нейронной сети, определяющие её поведение (оценочный объём GPT-4 превышает триллион параметров); инференс (inference) — процесс получения ответа от обученной модели в режиме реального времени, именно он определяет скорость и стоимость ИИ-сервисов; эмбеддинги (embeddings) — числовые представления слов и текстов, позволяющие измерять смысловую близость понятий. Мультимодальность (multimodality) означает способность модели работать одновременно с несколькими типами данных: текстом, изображениями, аудио и видео.
Понимание базового словаря ИИ перестаёт быть уделом только разработчиков — оно становится необходимостью для менеджеров, инвесторов, журналистов и всех, кто работает рядом с этой технологией. Жаргон продолжает пополняться: каждый новый класс моделей приносит свои термины — мультиагентные системы, синтетические данные, стриминговый инференс. Но освоив ядро — LLM, токены, галлюцинации, RAG, файнтюнинг и агентов — можно уверенно ориентироваться в большинстве публикаций и разговоров об ИИ.