ZDNet AI→ оригинал

McKinsey señala cuatro pasos para escalar agentic AI con datos de calidad

McKinsey publicó un plan práctico para las empresas que quieren llevar el agentic AI de los pilotos a una escala operativa. Según la firma, menos del 10% de est

McKinsey señala cuatro pasos para escalar agentic AI con datos de calidad
Источник: ZDNet AI. Коллаж: Hamidun News.
◐ Слушать статью

McKinsey выпустила рекомендации для компаний, которые пытаются масштабировать agentic AI и упираются не в модели, а в данные. Главный тезис простой: без общей data-основы, понятных workflow и жесткого governance агенты не выходят из пилотов в реальный бизнес-процесс.

Почему пилоты буксуют

По оценке McKinsey, почти две трети компаний уже экспериментировали с AI-агентами, но меньше 10% смогли довести их до масштаба, который дает заметную бизнес-ценность. В восьми случаях из десяти барьером оказываются данные: они лежат в разрозненных системах, имеют разный контекст, не проходят единые проверки качества и плохо подходят для автономных решений. Пока человек вручную склеивает источники и перепроверяет результат, пилот еще может работать.

Когда те же действия нужно делать постоянно и в реальном времени, конструкция начинает сыпаться. Проблема становится острее по мере роста автономности. Один агент может последовательно ходить в несколько систем и принимать решения на основе фрагментированной информации, а группа специализированных агентов — еще и передавать ошибки друг другу.

Поэтому McKinsey ставит в центр не саму модель, а способность компании дать агентам стабильный доступ к данным, понятным определениям, трассируемости и правилам доступа. Иначе автоматизация выглядит эффектно на демо, но ломается при первом серьезном объеме операций.

Четыре первых шага

McKinsey предлагает не перестраивать всю компанию разом, а начать с четырех связанных шагов, которые соединяют стратегию, архитектуру и операционную модель. Логика такая: сначала выбрать процессы, где автономность реально окупается, затем подготовить инфраструктуру и только после этого увеличивать масштаб. Такой подход нужен, чтобы не тратить месяцы на дорогие пилоты без повторяемого эффекта и не тащить старые проблемы с данными в новую агентную обвязку.

  • Выбрать 1-2 high-impact workflow и оценить их по ценности, реализуемости и стратегическому эффекту Обновить слои data-архитектуры так, чтобы агенты могли безопасно обмениваться контекстом Перейти от разовых чисток к непрерывному контролю качества структурированных и неструктурированных данных * Ввести operating model и governance: роли, права доступа, логи, политики и точки human approval Отдельный акцент — на том, что все четыре шага надо делать согласованно. Если компания выбрала правильный кейс, но оставила старую архитектуру, агент упрется в несовместимые системы. Если архитектура уже современная, но нет правил доступа и журналирования действий, масштабирование быстро превратится в риск для безопасности, комплаенса и качества бизнес-решений. McKinsey также советует проверять подход на таргетированных пилотах с четкими метриками и сразу искать данные, которые потом можно переиспользовать в соседних workflow.

Какой фундамент нужен

Под agent-ready архитектурой McKinsey понимает не новый монолит, а набор модульных слоев. Данные должны один раз попадать в компанию и затем использоваться и для аналитики, и для machine learning, и для generative AI, без отдельных параллельных конвейеров под каждую задачу. Важную роль играет semantic layer: он описывает, что означает каждая сущность, как объекты связаны между собой и какие бизнес-правила действуют.

На практике это ведет к онтологиям, knowledge graph и data products с понятным владельцем, качеством и интерфейсами доступа. Отдельно McKinsey подчеркивает работу с неструктурированными данными — документами, изображениями, перепиской, историей обращений. Чтобы агенты могли надежно использовать такой контент, его нужно тегировать, классифицировать, индексировать через embeddings и связывать с остальной корпоративной моделью данных.

Для структурированных данных приоритет другой: не периодическая ручная чистка, а постоянный мониторинг качества, автоматическая валидация, поиск аномалий и хранение lineage. Те же стандарты должны применяться и к данным, которые создают сами агенты. Последний слой — governance вокруг жизненного цикла агентов.

Компания должна заранее определить, что агенту разрешено делать, к каким данным он имеет доступ, где нужно подтверждение человека и кто отвечает за результат. Это включает выдачу учетных данных, telemetry, логи действий, контроль производительности и автоматические проверки на соответствие политикам. В такой схеме бизнес-команды отвечают за свои workflow и предметную модель, а центральные data- и AI-команды — за общие платформы, guardrails и надзор.

Что это значит

Рынок постепенно смещается от вопроса «какую модель выбрать» к вопросу «на каких данных и процессах она будет действовать». Для компаний это плохая новость для быстрых демо, но хорошая для тех, кто готов строить agentic AI как часть операционной системы бизнеса, а не как изолированный эксперимент.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…