حددت McKinsey أربع خطوات لتوسيع agentic AI بالاعتماد على بيانات عالية الجودة
أصدرت McKinsey خطة عملية للشركات التي تريد نقل agentic AI من مرحلة التجارب إلى نطاق تشغيلي فعلي. وبحسب تقدير الشركة، يصل أقل من 10% من هذه المبادرات إلى الإنتاج

McKinsey выпустила рекомендации для компаний, которые пытаются масштабировать agentic AI и упираются не в модели, а в данные. Главный тезис простой: без общей data-основы, понятных workflow и жесткого governance агенты не выходят из пилотов в реальный бизнес-процесс.
Почему пилоты буксуют
По оценке McKinsey, почти две трети компаний уже экспериментировали с AI-агентами, но меньше 10% смогли довести их до масштаба, который дает заметную бизнес-ценность. В восьми случаях из десяти барьером оказываются данные: они лежат в разрозненных системах, имеют разный контекст, не проходят единые проверки качества и плохо подходят для автономных решений. Пока человек вручную склеивает источники и перепроверяет результат, пилот еще может работать.
Когда те же действия нужно делать постоянно и в реальном времени, конструкция начинает сыпаться. Проблема становится острее по мере роста автономности. Один агент может последовательно ходить в несколько систем и принимать решения на основе фрагментированной информации, а группа специализированных агентов — еще и передавать ошибки друг другу.
Поэтому McKinsey ставит в центр не саму модель, а способность компании дать агентам стабильный доступ к данным, понятным определениям, трассируемости и правилам доступа. Иначе автоматизация выглядит эффектно на демо, но ломается при первом серьезном объеме операций.
Четыре первых шага
McKinsey предлагает не перестраивать всю компанию разом, а начать с четырех связанных шагов, которые соединяют стратегию, архитектуру и операционную модель. Логика такая: сначала выбрать процессы, где автономность реально окупается, затем подготовить инфраструктуру и только после этого увеличивать масштаб. Такой подход нужен, чтобы не тратить месяцы на дорогие пилоты без повторяемого эффекта и не тащить старые проблемы с данными в новую агентную обвязку.
- Выбрать 1-2 high-impact workflow и оценить их по ценности, реализуемости и стратегическому эффекту Обновить слои data-архитектуры так, чтобы агенты могли безопасно обмениваться контекстом Перейти от разовых чисток к непрерывному контролю качества структурированных и неструктурированных данных * Ввести operating model и governance: роли, права доступа, логи, политики и точки human approval Отдельный акцент — на том, что все четыре шага надо делать согласованно. Если компания выбрала правильный кейс, но оставила старую архитектуру, агент упрется в несовместимые системы. Если архитектура уже современная, но нет правил доступа и журналирования действий, масштабирование быстро превратится в риск для безопасности, комплаенса и качества бизнес-решений. McKinsey также советует проверять подход на таргетированных пилотах с четкими метриками и сразу искать данные, которые потом можно переиспользовать в соседних workflow.
Какой фундамент нужен
Под agent-ready архитектурой McKinsey понимает не новый монолит, а набор модульных слоев. Данные должны один раз попадать в компанию и затем использоваться и для аналитики, и для machine learning, и для generative AI, без отдельных параллельных конвейеров под каждую задачу. Важную роль играет semantic layer: он описывает, что означает каждая сущность, как объекты связаны между собой и какие бизнес-правила действуют.
На практике это ведет к онтологиям, knowledge graph и data products с понятным владельцем, качеством и интерфейсами доступа. Отдельно McKinsey подчеркивает работу с неструктурированными данными — документами, изображениями, перепиской, историей обращений. Чтобы агенты могли надежно использовать такой контент, его нужно тегировать, классифицировать, индексировать через embeddings и связывать с остальной корпоративной моделью данных.
Для структурированных данных приоритет другой: не периодическая ручная чистка, а постоянный мониторинг качества, автоматическая валидация, поиск аномалий и хранение lineage. Те же стандарты должны применяться и к данным, которые создают сами агенты. Последний слой — governance вокруг жизненного цикла агентов.
Компания должна заранее определить, что агенту разрешено делать, к каким данным он имеет доступ, где нужно подтверждение человека и кто отвечает за результат. Это включает выдачу учетных данных, telemetry, логи действий, контроль производительности и автоматические проверки на соответствие политикам. В такой схеме бизнес-команды отвечают за свои workflow и предметную модель, а центральные data- и AI-команды — за общие платформы, guardrails и надзор.
Что это значит
Рынок постепенно смещается от вопроса «какую модель выбрать» к вопросу «на каких данных и процессах она будет действовать». Для компаний это плохая новость для быстрых демо, но хорошая для тех, кто готов строить agentic AI как часть операционной системы бизнеса, а не как изолированный эксперимент.