Le gouvernement russe a proposé d'entraîner l'AI sur des contenus protégés par le droit d'auteur sans consentement
Le gouvernement russe a intégré à son projet de loi sur l'AI une disposition controversée : les développeurs pourraient être autorisés à entraîner des modèles s

Правительство России включило в проект закона об ИИ норму, которая может резко изменить правила игры для российских разработчиков моделей. Кабмин предлагает разрешить обучение нейросетей на защищённых авторским правом материалах без согласия правообладателей, но только в рамках ещё не принятого законопроекта.
Что предлагают власти
Суть инициативы в том, что компании смогут использовать для обучения ИИ статьи, книги, фильмы, изображения и другие объекты авторского права без отдельного разрешения автора. Важная оговорка: пользователь конечного сервиса не должен видеть исходное содержание таких материалов. То есть государство пытается легализовать сам процесс обучения модели, не открывая ей путь к прямой раздаче чужого контента в интерфейсе продукта.
Для рынка это одна из самых чувствительных регуляторных поправок за последнее время. В проекте закона есть и вторая принципиальная норма: права на результат работы ИИ хотят закрепить за пользователем, если он не просто ввёл запрос, а действительно внёс творческий вклад — сформулировал промпт, обработал ответ и доработал итог. Это попытка заранее определить, кому принадлежит ценность на выходе, пока рынок спорит о том, где заканчивается автоматическая генерация и начинается авторская работа человека.
Иными словами, законодатели пытаются зафиксировать роль человека в финальном результате.
Где проходят границы
По данным публикации, речь идёт прежде всего о тех массивах данных, которые особенно важны для обучения сильных моделей, но плохо доступны российским командам: научных текстах, образовательных материалах, архивных документах. Логика властей проста: внутренний рынок данных меньше, чем у глобальных игроков, а без расширения доступа к контенту российские сервисы будут проигрывать в качестве и скорости развития. Особенно это касается команд, которые строят большие языковые и мультимодальные модели.
- Статьи, книги, фильмы и изображения хотят допустить к обучению без отдельного согласия автора Пользователь не должен видеть защищённый исходный контент Права на итоговый результат планируют отдавать человеку, а не модели Персональные данные, частная переписка и налоговые сведения под послабления не подпадают Финальная версия закона ещё не опубликована При этом послабление не выглядит безусловным. Представители правительства уже подчёркивали, что финальной версии документа пока нет, а любая технология должна применяться с соблюдением прав и интересов граждан. Это значит, что вокруг механики доступа к данным, исключений и будущей ответственности ещё будет торг: между разработчиками, правообладателями, отраслевыми ассоциациями и государством. Самые жёсткие споры почти наверняка начнутся на этапе конкретных формулировок и исключений.
Почему это спорно С юридической точки зрения главный конфликт никуда не исчезает.
Юристы напоминают: само обучение модели может трактоваться как анализ, а не воспроизведение произведения, но хранение материалов для последующего обучения уже требует согласия автора, если закон не вводит отдельное исключение. Именно поэтому нынешняя инициатива важна не как техническая деталь, а как попытка переписать базовую развилку между интересами ИИ-компаний и владельцев контента. И именно на этой границе обычно возникают самые дорогие судебные споры.
На мировом рынке этот спор уже дошёл до громких исков против Anthropic и OpenAI, а авторские объединения в Европе и США всё жёстче атакуют разработчиков генеративных моделей. В России же власти скорее ищут компромисс в пользу роста отрасли, считая, что слишком жёсткие ограничения оставят местные команды без данных и без шансов на конкуренцию с американскими и китайскими платформами. Эту логику власти уже озвучивали и раньше, когда говорили о регулировании ИИ в целом.
«Важно не “задушить” технологию правилами».
Но для правообладателей такая формула звучит тревожно: если модель обучается на произведениях без согласия автора, а пользователь потом получает права на результат, то риск размывания границ авторства только растёт. Отдельный вопрос — как доказывать нарушение, если сам пользователь не знает, на каких данных обучалась модель и откуда взялись отдельные фрагменты ответа. Именно здесь, вероятно, и появятся самые жёсткие споры после публикации финальной версии документа. И именно здесь решится, насколько новая норма окажется рабочей на практике.
Что это значит
Если норма дойдёт до финального закона, российский рынок ИИ получит более широкий доступ к данным и, вероятно, ускорит обучение локальных моделей. Но одновременно вырастет напряжение вокруг авторских прав: чем проще обучать нейросети на чужом контенте, тем острее станет вопрос, где заканчивается анализ и начинается использование чужого произведения. Для стартапов это шанс ускориться, а для авторов и издателей — повод готовиться к новой серии споров о границах допустимого.