AtScale: corporate AI agents for analytics need guardrails, not larger models
AtScale warns: in corporate analytics, increasing model size does not fix the main problem — chaos in data and business definitions. If AI agents work with diff

AtScale утверждает, что главный риск корпоративных AI-агентов в аналитике связан не с размером модели, а с качеством контекста, в котором она работает. Если агент обращается к разрозненным данным без единых бизнес-правил, он может быстро выдать правдоподобный, но неправильный ответ.
Почему размер не спасает В больших компаниях часто надеются, что
следующая, более крупная модель сама исправит ошибки предыдущей: лучше рассудит, точнее интерпретирует запрос и аккуратнее сведёт цифры. Но у модели нет магического способа понять, какое именно определение gross margin или revenue принято внутри конкретной компании. Она не устраняет старые противоречия между дашбордами, не восстанавливает историю происхождения метрик и не создаёт audit trail просто потому, что параметров стало больше.
AtScale ссылается и на исследование TDWI, где почти половина респондентов назвали свои инициативы по AI governance незрелыми или очень незрелыми. Логика здесь простая: если исходные данные и определения хаотичны, увеличение вычислительной мощности не уменьшает ошибку, а делает её масштабируемой. Агент начинает отвечать быстрее, увереннее и на большем числе задач, но структурные проблемы остаются теми же.
В результате компания получает не надёжную аналитику, а более убедительную форму старого бардака.
Где ломается аналитика
Наибольший риск возникает там, где несколько систем и команд работают с одними и теми же показателями, но понимают их по-разному. Один агент берёт данные из финансового хранилища, другой — из CRM или BI-инструмента, и оба вроде бы отвечают на один вопрос. Если между ними нет общего контекста, расхождение превращается не в редкую ошибку, а в нормальный режим работы.
Именно поэтому в статье звучит короткая формула, хорошо описывающая проблему: > «Уверенно. Чисто. Неправильно.»
По версии AtScale, типовые поломки здесь вполне предсказуемы. Агент может опереться на источник, где один и тот же показатель трактуется иначе, чем у соседней команды. Может выдать результат без понятного объяснения, как он к нему пришёл.
Может построить вывод на данных, к которым вообще не должен был обращаться. А когда ответ нельзя связать с контролируемым source of record, компания теряет возможность быстро проверить ошибку, назначить ответственность и откатить неверное решение без ручной сверки.
Какие нужны guardrails
AtScale предлагает смотреть на guardrails не как на тормоз для AI, а как на инфраструктуру, которая вообще делает автономию возможной. В аналитике, по их версии, модель должна работать не напрямую с «сырыми» таблицами и разными локальными правилами команд, а через общий семантический слой. Такой слой не копирует данные и не меняет их физически, но задаёт единый смысл бизнес-терминов, правила расчёта и границы доступа для всех приложений и агентов.
- Единые определения revenue, churn, margin и других ключевых метрик Ограничения на бизнес-логику расчётов вне зависимости от инструмента Видимость lineage: откуда взялся ответ и какие данные в него вошли Контроль доступа: какие наборы данных агент вообще может запрашивать Стандартизация метрик между отделами и платформами Смысл такого подхода в том, что производительность модели и ответственность системы — это разные задачи. Модель отвечает за рассуждение, а governance-слой задаёт, над чем именно она рассуждает и как можно проверить результат. Если этот слой собран нормально, несколько агентов в разных системах начинают говорить на одном бизнес-языке. Если нет, каждая новая интеграция, процесс и дополнительный AI-инструмент лишь увеличивают стоимость ошибок, ручных проверок и повторной аналитики.
Что это значит
Корпоративный AI всё меньше упирается в гонку параметров и всё больше — в архитектуру данных. Для компаний это плохая новость, если они рассчитывали «докупить умнее модель» и закрыть проблему, и хорошая — если готовы инвестировать в семантический слой, governance и прослеживаемость. Именно эти элементы, а не размер модели сам по себе, определят, можно ли доверять AI-аналитике в реальных бизнес-процессах.