Глоссарий популярных AI-терминов: что означают галлюцинации, токены и промпты
TechCrunch опубликовал обновленный и подробный глоссарий основных AI-терминов и популярного сленга, который собирает вместе все ключевые понятия, появившиеся с

TechCrunch опубликовал обновленный глоссарий терминов искусственного интеллекта. С взрывным ростом AI вокруг нас появились десятки новых слов и сленга, которые могут запутать даже опытных пользователей.
Основные AI-термины
Когда говорят о машинном обучении и нейросетях, часто всплывают такие слова как «обучение», «параметры» и «векторы». Но есть ряд специфических терминов, которые встречаются особенно часто в контексте больших языковых моделей. * Hallucinations (галлюцинации) — когда LLM уверенно генерирует ложную информацию, выдавая её за факты.
Типичный пример: ChatGPT придумывает несуществующие статьи или приписывает людям поступки, которых они не совершали. * Prompt engineering (промпт-инжиниринг) — искусство формулировки инструкций для AI. Правильный промпт может увеличить качество ответа в разы, а неправильный — свести результат на нет.
Fine-tuning (файн-тюнинг) — адаптация предобученной модели под специфичные задачи и данные. Компании берут GPT-4 и обучают её на своих корпоративных документах. Embeddings (векторные представления) — числовые коды, которыми AI кодирует смысл слов и документов.
Это основа для поиска, кластеризации и семантического анализа. * Token (токен) — минимальная единица текста (слово или часть слова), которую обрабатывает модель. ChatGPT обсчитывает стоимость по токенам, поэтому «токен» = деньги в контексте API.
Архитектура и методы
За последние годы сформировался стандартный набор техник для работы с моделями. Трансформер — архитектура, на которой стоят все современные LLM типа GPT и BERT. Именно трансформер позволил нейросетям обрабатывать последовательности данных параллельно, революционизировав скорость обучения. RAG (retrieval-augmented generation) — техника, когда модель сначала ищет релевантные документы из внешних источников, а потом генерирует ответ на основе них. Это позволяет LLM работать с актуальной информацией без переобучения и снижает галлюцинации. Ещё один ключевой термин — RLHF (reinforcement learning from human feedback). Именно через RLHF OpenAI заставила ChatGPT быть вежливым, полезным и безопасным. Человеческие оценки помогают модели учиться не только на статистических закономерностях в данных, но и на предпочтениях людей, что меняет само поведение модели.
Почему это важно Понимание базовых терминов помогает критически воспринимать новости об AI.
Если вы узнаете про «галлюцинации», поймёте, почему модели иногда врут. Зная про «токены», сможете оптимизировать расходы на API. Осознание того, что существует «промпт-инжиниринг», убедит вас не спешить — правильная формулировка вопроса стоит внимания. Глоссарий TechCrunch не претендует на полноту, но он даёт lingua franca — общий язык, на котором можно обсуждать AI как с техническим специалистом, так и с журналистом или менеджером.
Что это значит Стандартизация терминологии — первый шаг к грамотному обсуждению технологии.
По мере развития AI язык профессионалов и публики должны сойтись, иначе останется ощущение, что обсуждают разные вещи. Когда все говорят на одном языке, проще найти истину и избежать паники. Если вы работаете с AI-инструментами или просто следите за новостями, глоссарий экономит часы на поиск определений и примеров. Вместо блуждания по много источникам — один справочник, который можно открыть в любой момент.