Microsoft в условиях использования описала Copilot как «только для развлечений»
Microsoft прописала в условиях использования Copilot неожиданную формулировку: ИИ-ассистент предназначен «только для развлечений». Компания не одна — OpenAI, Go

Microsoft прописала в условиях использования Copilot формулировку, которая удивила многих: ИИ-ассистент описывается как предназначенный «только для развлечений». Но скептики по отношению к ИИ — не единственные, кто предупреждает о рисках слепого доверия моделям. Сами компании делают это в своих пользовательских соглашениях, хотя и мелким шрифтом.
Microsoft — далеко не исключение на этом рынке. OpenAI предупреждает в ToS об известной склонности ChatGPT к «галлюцинациям» — уверенному изложению ложных фактов. Google прямо указывает, что ответы Gemini не следует воспринимать как медицинские, юридические или финансовые рекомендации.
Meta включает аналогичные ограничения ответственности для всех своих языковых моделей. Все эти оговорки решают одну задачу: юридически защитить разработчика в случае, если пользователь последует ошибочному совету ИИ и понесёт убытки. Доверился медицинскому совету чат-бота — читай ToS.
Принял бизнес-решение на основе неверных данных — твои риски. Парадокс заключается в следующем: те же самые компании одновременно агрессивно продвигают свои ИИ-инструменты как надёжных рабочих ассистентов. Microsoft предлагает корпоративным клиентам Microsoft 365 Copilot за 30 долларов в месяц на пользователя, делая акцент на автоматизации, анализе данных и повышении продуктивности.
Рекламные материалы изображают ИИ незаменимым помощником в медицине, праве, финансах и стратегическом планировании. Но в пользовательских соглашениях — совсем другая картина. Маркетинг обещает надёжного помощника, юридический отдел — «только развлечение».
Это противоречие особенно опасно в контексте того, как работают современные языковые модели. ИИ-системы нередко отвечают с высокой степенью уверенности даже тогда, когда ошибаются: модели не говорят «я не знаю», они генерируют правдоподобно звучащий текст, создающий иллюзию достоверности. Большинство пользователей не читают ToS — и человек, использующий Copilot для юридического анализа контракта или расчёта налоговых рисков, может просто не подозревать, что сам производитель юридически описывает продукт как развлекательный.
Ситуация разворачивается на фоне усиления регуляторного давления на всю отрасль. Европейский Закон об ИИ поэтапно вводит строгие требования к прозрачности и ответственности разработчиков систем высокого риска. В США FTC и профильные комитеты Конгресса всё активнее задают вопрос о том, не вводят ли компании потребителей в заблуждение, преувеличивая надёжность своих ИИ-продуктов.
Защитные оговорки в ToS — по всей видимости, часть юридической подготовки к этим проверкам и потенциальным искам. Формулировка «только для развлечений» в условиях использования Copilot — это не случайная деталь и не повод для иронии. Это симптом структурного разрыва, который пока не преодолела вся индустрия: между тем, как ИИ продаётся, и тем, каковы его реальные возможности и ограничения.
Пока маркетинг рисует одну картину, юридический отдел формирует принципиально другую. Пользователю в итоге приходится самому решать, кому верить — рекламному обещанию или мелкому шрифту пользовательского соглашения.