Microsoft enseñó a Copilot Researcher a verificar respuestas de GPT y Claude en un único proceso
Microsoft ha comenzado a implementar el modo Critique en Copilot Researcher: ahora una respuesta de investigación puede ser preparada por GPT, con Claude verifi

Microsoft начала внедрять в Copilot Researcher режим Critique, в котором над одним исследовательским ответом работают сразу две модели — OpenAI GPT и Anthropic Claude. Параллельно компания запустила развёртывание нового AI-агента Copilot Cowork, показывая, что Copilot всё сильнее превращается из одиночного ассистента в набор координируемых помощников.
Как работает
Critique Сценарий Critique устроен просто: одна модель сначала готовит черновой ответ на запрос пользователя, а вторая затем проверяет его на точность. На первом этапе GPT отвечает, а Claude выступает в роли внутреннего ревьюера. Для исследовательского помощника это важнее, чем кажется: в задачах поиска, сводки и аналитики проблема обычно не в том, чтобы быстро написать текст, а в том, чтобы отловить слабые места, неточности формулировок и спорные выводы до того, как результат увидит человек.
Microsoft уже говорит и о следующем шаге: процесс хотят сделать двунаправленным, чтобы модели могли меняться ролями. То есть не только Claude будет критиковать ответ GPT, но и GPT сможет проверять черновики Claude. По сути, компания собирает внутри одного рабочего процесса мини-редактуру, где генерация и верификация разделены.
Это заметный сдвиг для корпоративного ИИ: ставка делается не только на силу отдельной модели, но и на то, как они спорят, проверяют друг друга и повышают надёжность финального ответа.
Зачем это
Microsoft Для Microsoft это ещё и способ превратить наличие моделей от разных поставщиков в прикладное преимущество, а не просто в длинный список совместимостей. Раньше мульти-модельность часто звучала как формальный плюс: клиенту дают выбор между несколькими движками, но каждая задача всё равно выполняется одним из них. Здесь логика другая — модели начинают работать в связке и закрывать слабости друг друга прямо внутри одного сценария. Такой подход особенно хорошо ложится на Microsoft 365, где от Copilot ждут не эксперимента, а предсказуемого результата в реальных документах, таблицах и исследованиях. На практике такой подход даёт несколько ощутимых плюсов.
«Клиенты должны получать не набор моделей, а выгоду от их совместной работы», — так
Microsoft описывает идею нового режима. более аккуратные ответы на исследовательские запросы за счёт отдельного этапа проверки меньше зависимости от сильных и слабых сторон одной конкретной модели более понятный рабочий процесс, где генерация и критика разведены по ролям базу для будущих сценариев, в которых несколько моделей спорят между собой до выдачи результата Пока Microsoft не обещает магического исчезновения ошибок, и это правильная позиция. Проверка одной моделью другой не гарантирует истину автоматически: обе системы могут ошибаться, соглашаться с неверной предпосылкой или пропускать проблемные места. Но даже такая схема уже лучше одиночного ответа без внутреннего контроля, особенно в продуктах, где итог потом уходит в рабочую переписку, презентации или аналитические заметки в рабочих процессах компаний.
Параллельно выходит
Cowork Одновременно Microsoft начала развёртывать Copilot Cowork — ещё одного AI-агента в экосистеме Copilot. В исходной заметке деталей о его функциях немного, но сам тайминг важен: компания показывает не одну локальную фичу, а более широкий переход к набору специализированных агентов и режимов работы. Researcher отвечает за исследовательские сценарии, Cowork расширяет линейку, а связка разных моделей внутри одного процесса намекает, куда будет двигаться Copilot дальше.
Если раньше корпоративный ассистент в основном воспринимался как единый чат-бот, то теперь архитектура становится модульной. Один агент может собирать материал, другой проверять, третий помогать с совместной работой команды. Для Microsoft это удобный способ масштабировать Copilot без обещаний универсального сверхагента, который одинаково хорош во всём.
Вместо этого компания собирает более практичную систему: отдельные роли, отдельные процессы и больше контроля над качеством результата на каждом этапе.
Что это значит
Microsoft двигает Copilot в сторону многошаговой AI-системы, где качество ответа повышается не только за счёт более сильной модели, но и за счёт внутренней проверки. Для рынка это важный сигнал: следующая конкуренция в корпоративном ИИ будет идти не только между GPT, Claude и другими моделями, а между целыми рабочими процессами, в которых эти модели взаимодействуют.