MIT Technology Review→ оригинал

MIT Technology Review : L'avantage de l'IA d'entreprise vient non du modèle, mais de la couche opérationnelle

En IA d'entreprise, le gagnant n'est pas celui qui a le modèle de base le plus puissant, mais celui qui contrôle la couche entre le modèle et les opérations rée

MIT Technology Review : L'avantage de l'IA d'entreprise vient non du modèle, mais de la couche opérationnelle
Источник: MIT Technology Review. Коллаж: Hamidun News.

В корпоративном AI долгосрочное преимущество даёт не сама модель, а контроль над слоем, через который интеллект попадает в реальные бизнес-процессы. Именно там решается, какие данные видит система, кто подтверждает спорные решения, как учитываются исправления людей и превращаются ли единичные удачные ответы в устойчивую операционную практику. В материале для MIT Technology Review этот слой описывается как связка workflow-софта, сбора данных, контуров обратной связи и правил управления, расположенная между моделью и реальной работой.

Публичная дискуссия по-прежнему крутится вокруг сравнений GPT, Gemini и других foundation-моделей, но для крупных компаний это уже не главный вопрос. Если интеллект вызывается по API как разовая услуга, он может быть очень сильным, но остаётся слабо связанным с ежедневной операционной средой и почти не накапливает состояние от кейса к кейсу. Куда важнее другое: обнуляется ли знание на каждом новом запросе или система действительно учится в ходе работы.

Отсюда и ключевое различие между двумя подходами. Первый рассматривает AI как сервис по запросу: есть задача, есть вызов модели, есть ответ. Второй встраивает AI в операционный слой компании, где каждое исключение, исправление, согласование и спорное решение становятся сигналом для обучения и поводом уточнить правила.

В такой архитектуре ценность создаётся не только качеством модели, но и тем, насколько глубоко компания умеет инструментировать собственные процессы, собирать данные о ходе работы и превращать решения сотрудников в повторно используемую политику. На этом фоне авторы спорят с популярным тезисом о том, что AI-native стартапы неизбежно обгонят incumbents. Если считать AI чисто модельной гонкой, такой сценарий выглядит правдоподобно.

Но в enterprise-среде задача чаще оказывается системной: интеграции, права доступа, оценка качества, управление изменениями, SLA, контроль затрат и соответствие требованиям. Здесь преимущество получают не те, кто просто быстрее подключил новую модель, а те, кто уже встроен в высокообъёмные и высокорисковые процессы и способен превратить эту позицию в контур постоянного обучения. Из этого вытекает и инверсия привычной логики работы.

Традиционно экспертные сервисные компании устроены так: человек использует софт, чтобы выполнить сложную работу, а технология служит лишь средой. AI-native платформа работает наоборот: она принимает кейс, применяет накопленное доменное знание, автономно выполняет то, в чём уверена, а человеку отдаёт только узкие подзадачи, где всё ещё требуется суждение, контекст или ответственность. По сути, AI исполняет, а люди арбитражируют.

Особенно важен тезис о трёх активах, которые у крупных действующих компаний уже есть. Это проприетарные операционные данные, большая группа доменных экспертов, ежедневно производящих сигналы для обучения, и накопленное неявное знание о том, как работа реально делается в сложных условиях. Но сами по себе эти активы ещё не создают защитный ров.

Они начинают работать только тогда, когда компания умеет переводить разрозненные решения, исключения и эвристики в машиночитаемые сигналы, а затем возвращать результат обратно в операционную систему. В качестве примера приводится управление доходным циклом в здравоохранении. Подход Ensemble состоит в том, чтобы сначала заполнить систему явным доменным знанием, затем через ежедневное взаимодействие с операторами выявлять пробелы, задавать точечные вопросы и сверять ответы нескольких экспертов, чтобы зафиксировать не только общий консенсус, но и нюансы на краевых случаях.

Так формируется живая база знаний, отражающая не просто итоговое решение, а логику, стоящую за экспертным действием. Когда система становится достаточно ограниченной и управляемой, каждое решение опытного сотрудника превращается в потенциально размеченный пример для дальнейшего улучшения. Практический вывод для CIO, CPO и руководителей платформ довольно жёсткий: спор о том, у кого лучше базовая модель, всё меньше определяет исход enterprise-гонки.

Главный вопрос теперь в том, кто владеет операционным слоем AI внутри компании — кто контролирует данные, права, стоимость, маршрутизацию, аудит и контуры обучения. Устойчивое преимущество получат организации, которые сумеют превратить свои знания, решения и повседневную экспертизу в инфраструктуру, улучшающуюся по мере использования.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…