Habr AI→ оригинал

Россия готовит первый большой закон об ИИ: что меняется для сервисов, моделей и платформ

В России появился проект рамочного закона об ИИ, который задаёт первые системные правила для рынка. Он не запрещает чат-ботов и иностранные модели напрямую, но

◐ Слушать статью

В России появился проект первого большого рамочного закона об искусственном интеллекте. Документ не запрещает чат-ботов и зарубежные модели прямо сейчас, но задаёт правила: когда гражданин сможет потребовать человека вместо алгоритма, какие системы допустят в госинфраструктуру и кто ответит за вред от ИИ.

Право отказаться

Проект федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации» вынесли на общественное обсуждение 18 марта 2026 года, а само обсуждение завершилось 15 апреля. Если документ примут, он должен вступить в силу 1 сентября 2027 года. Самая заметная норма для обычных пользователей — возможность получить услугу без автономного ИИ, если человек откажется от такого формата.

Но это не универсальное право «всегда переключить на оператора»: конкретные случаи позже должно определить правительство. Документ одновременно вводит обязанность предупреждать, если товар или услуга продаются с применением ИИ без участия человека. Отдельно гражданина должны уведомлять, когда автономное решение затрагивает его права, обязанности или законные интересы.

Ещё важнее две процессуальные гарантии: досудебное обжалование решений госорганов, региональных властей и компаний с госучастием, если в них использовался ИИ, а также право требовать компенсацию вреда при неправомерном применении таких систем.

Какие модели разрешат Проект делит модели на суверенные, национальные и доверенные.

Суверенные и национальные модели жёстко привязаны к российскому происхождению: их должны разрабатывать и обучать в России, силами российских граждан и юрлиц, на данных, сформированных в стране. Для этой категории предусмотрены господдержка и отдельный регуляторный режим. Это попытка не просто описать рынок, а заранее выделить сегмент, который государство считает стратегическим.

Отдельный класс — доверенные модели, которые смогут работать в государственных информационных системах и на значимых объектах критической информационной инфраструктуры. Для них предлагается реестр, требования по безопасности, обработка данных только на территории России и обязательная проверка качества по правилам властей. Параллельно вводится понятие трансграничных ИИ-технологий: такие решения могут ограничить или запретить в отдельных случаях.

Это создаёт правовой механизм для будущих решений по зарубежным сервисам, хотя прямого запрета ChatGPT, Gemini или Claude в проекте нет.

Маркировка и ответственность Ещё один крупный блок касается синтетического контента.

Владельцы ИИ-сервисов должны будут явно помечать аудио, видео и другие материалы, созданные с помощью ИИ, причём так, чтобы маркировку понимал и человек, и машина. Для крупных платформ с аудиторией более 100 тысяч пользователей в сутки в России требования жёстче: если маркировки нет, сервису придётся добавить её самостоятельно или удалить материал.

  • Пользователя нужно предупреждать о взаимодействии с ИИ и об автономных решениях, влияющих на его права Платформы обязаны следить за маркировкой синтетического контента Разработчики, операторы и владельцы сервисов отвечают за противоправный результат, если знали или должны были знать о риске Пользователь отвечает, если нарушение стало следствием его умышленных действий Защита может распространяться и на оригинальные результаты, созданные с помощью ИИ Самым спорным выглядит блок об интеллектуальной собственности. Проект предлагает охранять результаты, созданные с помощью ИИ, по правилам Гражданского кодекса и прямо допускает, что оригинальные творения могут возникать не только при участии человека, но и в автоматизированной системе. Одновременно извлечение данных из объектов, защищённых авторским или патентным правом, для обучения ИИ не считается нарушением, если использован правомерный экземпляр или материал уже был законно опубликован и доступен для анализа. Для правообладателей и AI-компаний это, вероятно, станет одной из главных точек спора.

Что это значит Россия переходит от общих разговоров об ИИ к сборке полноценной правовой рамки.

Если документ примут в близком к текущему виде, рынок получит не только новые ограничения, но и более понятные правила игры: где нужен человек, какие модели считаются доверенными, как маркировать контент и по кому ударит ответственность в случае ошибки алгоритма.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…