
AprielGuard: uma nova fronteira na proteção de LLMs contra ameaças e ataques
Представлена AprielGuard, инновационная система защиты больших языковых моделей (LLM) от уязвимостей и атак. Разбираемся, как она работает и почему это важно.

ChemEval: Новый эталон для оценки химических больших языковых моделей
Команда из Китайского научно-технического университета и iFlytek представила ChemEval, комплексный набор тестов для оценки способностей больших языковых моделей в области химии.

Безопасны ли передовые большие языковые модели? Новый отчет.
Фуданьский университет и Шанхайский институт креативного интеллекта опубликовали отчет о безопасности шести ведущих больших языковых моделей. Подробности в статье.

ICLR 2026: UIUC нашла способ остановить «чрезмерное обдумывание» LLM одной строкой кода
Исследователи из UIUC (University of Illinois Urbana-Champaign) предложили метод, позволяющий значительно повысить эффективность работы больших языковых моделей (LLM), сократив избыточное потребление вычислительных ресур

Aniversário do R1: DeepSeek Model 1 surge discretamente no horizonte
DeepSeek marca o aniversário do R1 com o lançamento do Model 1. O que isso significa para a concorrência no campo dos grandes modelos de linguagem? Uma breve análise.

Por que a IA é vulnerável a ataques de injeção de prompt
Как обмануть большую языковую модель? Атака через внедрение запросов позволяет заставить ИИ делать то, что ему запрещено. Разбираемся, почему это работает и как с этим бороться.

MLflow для LLM: версионирование промптов и регрессионное тестирование
Как обеспечить стабильность больших языковых моделей? MLflow предлагает решение для версионирования промптов и автоматического регрессионного тестирования. Подробности – в статье.

Ordenação perfeita de dados em LLM: algoritmos versus ingenuidade
Como fazer um LLM ordenar dados de forma eficiente? Comparação de cinco métodos em 164 posts de um canal do Telegram. O resultado vai surpreender!

LLM de código aberto para juristas: o experimento do Reg.cloud e Raft
Как open-source LLM справляются с юридическими документами? Эксперимент Рег.облака и Raft раскрывает ограничения и инженерные решения.

Зарубежные против отечественных: как выбрать LLM для реального бизнеса
Выбор языковой модели для продакшена — это не только цифры в бенчмарках. Разбираемся, что важнее: качество генерации или стабильность инфраструктуры.

Новый LLM меняет правила подготовки данных и возглавляет Hugging Face
Инновационный LLM-подход к подготовке данных для обучения нейросетей произвел фурор в сообществе, заняв первое место в рейтинге самых популярных исследований на Hugging Face. Что это значит для будущего AI?

Como a Just AI Ajudou um Banco a Quebrar o Teto da Automação com Agentes LLM
Centenas de ramos de cenários NLU — e a taxa de automação ainda assim estagnou. Just AI migrou o suporte do banco para agentes LLM e adicionou um agente-juiz contra alucinações.

Anthropic mais que dobrou sua receita anual para US$ 9 bilhões
A desenvolvedora do Claude, a empresa Anthropic, relata um crescimento significativo na receita anual, que ultrapassou 9 bilhões de dólares. A empresa também planeja captar 25 bilhões de dólares em investimentos.

TruLens: как перестать доверять LLM вслепую и начать измерять качество
Языковые модели всё ещё остаются чёрными ящиками для большинства разработчиков. TruLens предлагает инструментарий, который делает каждый шаг работы LLM прозрачным и измеримым — от входных данных до финального ответа.

OpenGrall Apresentou Arquitetura para Robôs com IA onde o Modelo de Linguagem Lida com Estratégia
O framework OpenGrall propõe dividir cognição e controle: o modelo de linguagem lida com estratégia, enquanto TinyML lida com execução e segurança, reduzindo latência mesmo em hardware com recursos limitados.

Lemana Tech mostrou como combinou LLM, RAG e ML tradicional no suporte técnico
A empresa descreveu um esquema híbrido de suporte: classificadores rápidos de ML processam tickets em alto volume, enquanto LLMs com RAG são usados onde são necessárias respostas baseadas na Wiki e escalonamento intelige

llm-checker: утилита покажет, какие LLM потянет ваше железо
Новый CLI-инструмент сканирует GPU, RAM и процессор вашего компьютера, а затем честно говорит, какие из 35+ языковых моделей вы сможете запустить локально через Ollama — и насколько комфортно.

Habr AI Explica Por Que LLMs Não Calculam, Não Aprendem no Diálogo e Dependem de Ferramentas
Habr AI explica que modelos de linguagem conseguem apenas trabalhar com texto por conta própria, enquanto memória, cálculos, busca, agentes e 'funcionários digitais' surgem por meio de ferramentas externas.

Yann LeCun contra LLM: apostando em uma abordagem diferente de IA
Основатель сверточных нейросетей Ян ЛеКун критикует LLM и предлагает альтернативный путь развития ИИ. Почему его мнение важно и что он предлагает?

Regex из локальной LLM: опыт Bitrix24 без дообучения
Как Mac Mini и локальная языковая модель помогли Bitrix24 автоматизировать создание Regex для анализа логов, сэкономив сотни часов ручной отладки. Подробности в статье.

Архитектура как код: как LLM ускоряют проектирование систем
Команда БКС показала, как перенести архитектурную документацию в код и доверить рутину LLM-ассистентам. Цикл согласования, который раньше занимал недели, теперь укладывается в дни.

Python: 10 Bibliotecas para Construir Aplicações LLM — de RAG a Sistemas Agentes
Uma coletânea de 10 bibliotecas Python mostra quais camadas são usadas atualmente para construir aplicações LLM: modelos, RAG, workflows agentes, serving em produção e avaliação de qualidade.

Flag Soft: benchmark "Dali Trial" ajudou a escolher LLMs por qualidade, velocidade e custo
O benchmark "Dali Trial" comparou LLMs em três critérios importantes para a implementação de produto: qualidade das respostas, velocidade de processamento e custo total.

Habr AI: LLMs podem assumir a rotina em pesquisas empresariais, mas não a estratégia
Um autor do Habr AI divide pesquisas de produto e marketing em três níveis e acredita que LLMs automatizarão rapidamente tarefas rotineiras e parte da análise, mas não a reestruturação do próprio framework de pesquisa.

Agente MCP LLM no Fusion360: primeiro teste de vibe-design em uma escada de madeira
O Fusion360 lançou um assistente MCP LLM — um autor do Habr testou imediatamente em uma escada de madeira que havia criado manualmente mais de 60 vezes.

Como guardrails para LLM em Java bloqueiam injeções e respostas tóxicas
Uma análise de por que um único system prompt é insuficiente para proteger LLMs, e como guardrails em Java interceptam entradas perigosas e filtram saídas tóxicas ou indesejadas do modelo.

LLM no desenvolvimento: quais 4 abordagens as equipes usam e em que elas diferem
LLMs já são usados não só como autocompletar: o texto analisa quatro modos de desenvolvimento assistido por AI em dois eixos — quanto código fica sob controle humano e como a equipe verifica o resultado.

Por que LLMs criam uma ilusão de criatividade e não garantem verdadeira novidade de ideias
LLMs ajudam a desenvolver rapidamente uma ideia e levá-la à forma final, mas seu estilo confiante mascara facilmente secundariedade, compilação e ausência de verdadeira novidade.

Сравнение LLM Embeddings, TF-IDF и Bag-of-Words в Scikit-learn
Разбираемся, какой метод векторизации текста — от классического TF-IDF до современных эмбеддингов — лучше всего подходит для алгоритмов машинного обучения в Scikit-learn.

ClawRouter reduziu custos de LLM API de $47 para $1.80 por semana — análise do roteador inteligente
O ClawRouter analisa cada prompt em 15 parâmetros e o roteia para o modelo mais adequado e econômico — reduzindo despesas semanais com LLM API de $47 para $1.80.