
AprielGuard: Новый рубеж защиты LLM от угроз и атак
Представлена AprielGuard, инновационная система защиты больших языковых моделей (LLM) от уязвимостей и атак. Разбираемся, как она работает и почему это важно.

ChemEval: Новый эталон для оценки химических больших языковых моделей
Команда из Китайского научно-технического университета и iFlytek представила ChemEval, комплексный набор тестов для оценки способностей больших языковых моделей в области химии.

Безопасны ли передовые большие языковые модели? Новый отчет.
Фуданьский университет и Шанхайский институт креативного интеллекта опубликовали отчет о безопасности шести ведущих больших языковых моделей. Подробности в статье.

ICLR 2026: UIUC нашла способ остановить «чрезмерное обдумывание» LLM одной строкой кода
Исследователи из UIUC (University of Illinois Urbana-Champaign) предложили метод, позволяющий значительно повысить эффективность работы больших языковых моделей (LLM), сократив избыточное потребление вычислительных ресур

Годовщина R1: DeepSeek Model 1 незаметно появляется на горизонте
DeepSeek отмечает годовщину R1 выпуском Model 1. Что это значит для конкуренции в сфере больших языковых моделей? Краткий обзор.

Почему ИИ уязвим для атак с внедрением запросов
Как обмануть большую языковую модель? Атака через внедрение запросов позволяет заставить ИИ делать то, что ему запрещено. Разбираемся, почему это работает и как с этим бороться.

MLflow для LLM: версионирование промптов и регрессионное тестирование
Как обеспечить стабильность больших языковых моделей? MLflow предлагает решение для версионирования промптов и автоматического регрессионного тестирования. Подробности – в статье.

Идеальная сортировка данных в LLM: алгоритмы против наивности
Как заставить LLM эффективно сортировать данные? Сравнение пяти методов на 164 постах Telegram-канала. Результат удивит!

Open-source LLM для юристов: эксперимент Рег.облака и Raft
Как open-source LLM справляются с юридическими документами? Эксперимент Рег.облака и Raft раскрывает ограничения и инженерные решения.

Зарубежные против отечественных: как выбрать LLM для реального бизнеса
Выбор языковой модели для продакшена — это не только цифры в бенчмарках. Разбираемся, что важнее: качество генерации или стабильность инфраструктуры.

Новый LLM меняет правила подготовки данных и возглавляет Hugging Face
Инновационный LLM-подход к подготовке данных для обучения нейросетей произвел фурор в сообществе, заняв первое место в рейтинге самых популярных исследований на Hugging Face. Что это значит для будущего AI?

Как Just AI помогла банку пробить потолок автоматизации с помощью LLM-агентов
Сотни веток NLU-сценария — и процент автоматизации всё равно стоит. Just AI перевела поддержку банка на LLM-агентов и добавила агента-судью против галлюцинаций.

Anthropic увеличила годовую выручку более чем вдвое до $9 млрд
Разработчик Claude, компания Anthropic, сообщает о значительном росте годовой выручки, которая превысила 9 миллиардов долларов. Компания также планирует привлечь 25 миллиардов долларов инвестиций.

TruLens: как перестать доверять LLM вслепую и начать измерять качество
Языковые модели всё ещё остаются чёрными ящиками для большинства разработчиков. TruLens предлагает инструментарий, который делает каждый шаг работы LLM прозрачным и измеримым — от входных данных до финального ответа.

OpenGrall представил архитектуру для роботов с ИИ, где языковая модель отвечает за стратегию
Фреймворк OpenGrall предлагает разделить мышление и управление: LLM отвечает за стратегию, а TinyML — за исполнение и безопасность, снижая задержки даже на слабом железе.

Лемана Тех показала, как объединила LLM, RAG и классический ML в техподдержке
Компания описала гибридную схему поддержки: быстрые ML-классификаторы обрабатывают массовые тикеты, а LLM с RAG подключают там, где нужны ответы по Wiki и умная эскалация.

llm-checker: утилита покажет, какие LLM потянет ваше железо
Новый CLI-инструмент сканирует GPU, RAM и процессор вашего компьютера, а затем честно говорит, какие из 35+ языковых моделей вы сможете запустить локально через Ollama — и насколько комфортно.

Habr AI объяснил, почему LLM не считают, не учатся в диалоге и зависят от инструментов
Habr AI объясняет, что языковые модели сами по себе умеют только работать с текстом, а память, расчеты, поиск, агенты и «цифровые сотрудники» появляются за счет внешних инструментов.

Ян ЛеКун против LLM: ставка на другой подход к ИИ
Основатель сверточных нейросетей Ян ЛеКун критикует LLM и предлагает альтернативный путь развития ИИ. Почему его мнение важно и что он предлагает?

Regex из локальной LLM: опыт Bitrix24 без дообучения
Как Mac Mini и локальная языковая модель помогли Bitrix24 автоматизировать создание Regex для анализа логов, сэкономив сотни часов ручной отладки. Подробности в статье.

Архитектура как код: как LLM ускоряют проектирование систем
Команда БКС показала, как перенести архитектурную документацию в код и доверить рутину LLM-ассистентам. Цикл согласования, который раньше занимал недели, теперь укладывается в дни.

Python: 10 библиотек для создания LLM-приложений — от RAG до агентных систем
Подборка из 10 Python-библиотек показывает, из каких слоёв сегодня собирают LLM-приложения: модели, RAG, агентные workflow, продакшен-сервинг и оценку качества.

Флаг Софт: бенчмарк «Испытание Дали» помог выбрать LLM по качеству, скорости и цене
Бенчмарк «Испытание Дали» сравнил LLM по трём критериям, которые важны для внедрения в продукт: качеству ответов, скорости работы и итоговой стоимости.

Habr AI: LLM смогут забрать рутину в бизнес-исследованиях, но не стратегию
Автор Habr AI делит продуктовые и маркетинговые исследования на три уровня и считает, что LLM быстро автоматизируют рутину и часть аналитики, но не пересборку самой исследовательской рамки.

MCP LLM-агент в Fusion360: первый тест vibe-design на деревянной лестнице
В Fusion360 выкатили MCP LLM-ассистент — автор Хабра сразу проверил его на деревянной лестнице, которую раньше создавал вручную больше 60 раз.

Java-разработчикам показали, как guardrails для LLM блокируют инъекции и токсичные ответы
Разбор о том, почему одного system prompt недостаточно для защиты LLM, и как guardrails в Java перехватывают опасные входы и фильтруют токсичный или нежелательный вывод модели.

LLM в разработке: какие 4 подхода используют команды и чем они отличаются
LLM уже используют не только как автодополнение: материал разбирает четыре режима AI-разработки по двум осям — сколько кода контролирует человек и как команда проверяет результат.

Почему LLM создают иллюзию творчества и не гарантируют настоящую новизну идей
LLM помогают быстро развивать замысел и доводить его до финальной формы, но их уверенный стиль легко маскирует вторичность, компиляцию и отсутствие реальной новизны.

Сравнение LLM Embeddings, TF-IDF и Bag-of-Words в Scikit-learn
Разбираемся, какой метод векторизации текста — от классического TF-IDF до современных эмбеддингов — лучше всего подходит для алгоритмов машинного обучения в Scikit-learn.

ClawRouter снизил расходы на LLM API с $47 до $1.80 за неделю — обзор умного роутера
Роутер ClawRouter анализирует каждый промпт по 15 параметрам и направляет к наиболее дешёвой подходящей модели — это снизило недельные расходы на LLM API с $47 до $1.80.