McKinsey aponta quatro passos para escalar agentic AI com dados de qualidade
A McKinsey publicou um plano prático para empresas que querem levar o agentic AI de pilotos para escala operacional. Segundo a consultoria, menos de 10% dessas

McKinsey выпустила рекомендации для компаний, которые пытаются масштабировать agentic AI и упираются не в модели, а в данные. Главный тезис простой: без общей data-основы, понятных workflow и жесткого governance агенты не выходят из пилотов в реальный бизнес-процесс.
Почему пилоты буксуют
По оценке McKinsey, почти две трети компаний уже экспериментировали с AI-агентами, но меньше 10% смогли довести их до масштаба, который дает заметную бизнес-ценность. В восьми случаях из десяти барьером оказываются данные: они лежат в разрозненных системах, имеют разный контекст, не проходят единые проверки качества и плохо подходят для автономных решений. Пока человек вручную склеивает источники и перепроверяет результат, пилот еще может работать.
Когда те же действия нужно делать постоянно и в реальном времени, конструкция начинает сыпаться. Проблема становится острее по мере роста автономности. Один агент может последовательно ходить в несколько систем и принимать решения на основе фрагментированной информации, а группа специализированных агентов — еще и передавать ошибки друг другу.
Поэтому McKinsey ставит в центр не саму модель, а способность компании дать агентам стабильный доступ к данным, понятным определениям, трассируемости и правилам доступа. Иначе автоматизация выглядит эффектно на демо, но ломается при первом серьезном объеме операций.
Четыре первых шага
McKinsey предлагает не перестраивать всю компанию разом, а начать с четырех связанных шагов, которые соединяют стратегию, архитектуру и операционную модель. Логика такая: сначала выбрать процессы, где автономность реально окупается, затем подготовить инфраструктуру и только после этого увеличивать масштаб. Такой подход нужен, чтобы не тратить месяцы на дорогие пилоты без повторяемого эффекта и не тащить старые проблемы с данными в новую агентную обвязку.
- Выбрать 1-2 high-impact workflow и оценить их по ценности, реализуемости и стратегическому эффекту Обновить слои data-архитектуры так, чтобы агенты могли безопасно обмениваться контекстом Перейти от разовых чисток к непрерывному контролю качества структурированных и неструктурированных данных * Ввести operating model и governance: роли, права доступа, логи, политики и точки human approval Отдельный акцент — на том, что все четыре шага надо делать согласованно. Если компания выбрала правильный кейс, но оставила старую архитектуру, агент упрется в несовместимые системы. Если архитектура уже современная, но нет правил доступа и журналирования действий, масштабирование быстро превратится в риск для безопасности, комплаенса и качества бизнес-решений. McKinsey также советует проверять подход на таргетированных пилотах с четкими метриками и сразу искать данные, которые потом можно переиспользовать в соседних workflow.
Какой фундамент нужен
Под agent-ready архитектурой McKinsey понимает не новый монолит, а набор модульных слоев. Данные должны один раз попадать в компанию и затем использоваться и для аналитики, и для machine learning, и для generative AI, без отдельных параллельных конвейеров под каждую задачу. Важную роль играет semantic layer: он описывает, что означает каждая сущность, как объекты связаны между собой и какие бизнес-правила действуют.
На практике это ведет к онтологиям, knowledge graph и data products с понятным владельцем, качеством и интерфейсами доступа. Отдельно McKinsey подчеркивает работу с неструктурированными данными — документами, изображениями, перепиской, историей обращений. Чтобы агенты могли надежно использовать такой контент, его нужно тегировать, классифицировать, индексировать через embeddings и связывать с остальной корпоративной моделью данных.
Для структурированных данных приоритет другой: не периодическая ручная чистка, а постоянный мониторинг качества, автоматическая валидация, поиск аномалий и хранение lineage. Те же стандарты должны применяться и к данным, которые создают сами агенты. Последний слой — governance вокруг жизненного цикла агентов.
Компания должна заранее определить, что агенту разрешено делать, к каким данным он имеет доступ, где нужно подтверждение человека и кто отвечает за результат. Это включает выдачу учетных данных, telemetry, логи действий, контроль производительности и автоматические проверки на соответствие политикам. В такой схеме бизнес-команды отвечают за свои workflow и предметную модель, а центральные data- и AI-команды — за общие платформы, guardrails и надзор.
Что это значит
Рынок постепенно смещается от вопроса «какую модель выбрать» к вопросу «на каких данных и процессах она будет действовать». Для компаний это плохая новость для быстрых демо, но хорошая для тех, кто готов строить agentic AI как часть операционной системы бизнеса, а не как изолированный эксперимент.