Les entreprises russes se poursuivent en justice pour l'utilisation d'IA par les employés, mais les tribunaux les favorisent rarement
Les entreprises russes discutent de plus en plus avec les employés et les sous-traitants qui soumettent des travaux générés par l'IA sans examen approprié. Les

Российские компании всё чаще пытаются взыскать убытки с сотрудников и подрядчиков, которые используют нейросети как быстрый заменитель экспертизы. Но первые споры показывают: сам по себе факт работы с ИИ ещё не делает человека виноватым, а работодателю приходится доказывать не технологию, а конкретный ущерб и нарушение условий.
Почему дошло до судов
Повод для конфликтов один и тот же: бизнес ждал ускорения, а получил переделки, простои и новые расходы. В одном случае продакт-менеджер настраивал облачный сервис по подсказкам чат-бота и после неудачных действий удалил почти все данные на серверах компании. Вместо экономии фирма на несколько дней потеряла нормальную работу и была вынуждена отдельно оплачивать восстановление из резервных копий.
И это уже не единичный сбой, а симптом новой практики. Похожая история возникает и в более «офисных» задачах. Консультанты сдают объёмные отчёты, которые выглядят солидно, но не учитывают данные заказчика, отвечают не на те вопросы и выдают машинный стиль.
В маркетинге и дизайне к этому добавляются ошибки в анализе конкурентов, слабая аргументация и риск претензий по авторскому праву, если генерация копирует узнаваемую манеру конкретных художников или фотографов. Из-за этого проект формально закрыт, а по факту его приходится собирать заново.
Что видят суды
Судебная логика пока довольно прагматична: оценивается не то, пользовался ли человек ИИ, а то, что именно он сдал и какие обязанности были закреплены на бумаге. Если трудовой договор, должностная инструкция или конкретное задание не запрещали нейросети, а результат был принят, работодателю заметно сложнее оспорить оплату, взыскать деньги или доказать грубое нарушение. Для суда важнее качество результата, чем объём «ручного» труда.
«Заказчик платит за результат, а не за количество ручного труда исполнителя».
Проблема для компаний в том, что Трудовой кодекс пока отдельно не регулирует работу с ИИ. Поэтому многие приходят в процесс с расплывчатыми правилами, где не описано, когда нейросеть допустима, кто отвечает за проверку фактов и как фиксируется ущерб. На таком фоне работник может утверждать, что использовал обычный рабочий инструмент, а не нарушал запрет, которого формально не существовало. Именно на этом работодатели чаще всего и проигрывают.
Где бизнес теряет деньги Нейросети уже стали массовым рабочим инструментом.
По приведённым в материале оценкам, 45 % россиян используют ИИ в работе точечно, ещё 36 % — очень активно, а внутри корпоративного контура работают лишь 15 %. Это объясняет, почему проблема быстро вышла за пределы экспериментов и превратилась в управленческий вопрос: сотрудники делегируют ИИ тексты, поиск данных, дизайн, презентации и даже юридические документы, но контроль качества часто остаётся формальностью.
- Ошибки в коде, аналитике и маркетинговых материалах приходится перепроверять вручную Юридические документы могут содержать выдуманные нормы, дела и ссылки Споры по авторскому праву возможны из-за генерации «в стиле» конкретных авторов Разбор некачественного ИИ-контента от коллег отнимает часы у команды Использование публичных моделей повышает риск работы вне защищённого внутреннего контура Особенно опасной зоной называют юридические и регуляторные тексты. Попытка заменить специалиста чат-ботом может привести к документу, который звучит убедительно, но опирается на несуществующие законы или не относящиеся к делу прецеденты. В итоге бизнес платит дважды: сначала за быстрый, но слабый черновик, потом — за полноценную проверку и переписывание. По оценкам экспертов, около 40 % сотрудников уже сталкивались с плохими материалами коллег, созданными через ИИ, и на разбор одного такого случая в среднем уходит почти два часа.
Что это значит Самая вероятная линия для бизнеса — не запрет ИИ, а его формализация.
Компании будут закреплять правила в договорах и заданиях, переводить сотрудников на внутренние модели и требовать обязательной проверки результата человеком. Для работников это плохая новость только в одном случае: если нейросеть используется как способ сдать сырой черновик под видом готовой экспертизы. Тогда спор уже будет не про ИИ, а про качество работы и ответственность.