Linus Torvalds aprobó reglas para el código de AI en Linux: la responsabilidad recae en la persona
Linux fijó por primera vez reglas para el código de AI en el kernel: se puede usar Copilot, Claude y otras herramientas, pero solo con revisión manual completa

Линус Торвальдс и мейнтейнеры Linux закрепили первые официальные правила для кода, написанного с помощью AI. Политика не запрещает Copilot, Claude и другие инструменты, но делает человека полностью ответственным за каждую строку, баг и лицензионный риск.
Что изменилось В документации ядра появился отдельный раздел AI Coding Assistants.
В нем команда Linux формально признает: разработчики все равно будут использовать генеративные инструменты, поэтому проекту важнее не устраивать символические запреты, а зафиксировать понятные правила игры. Базовый принцип простой: AI считается инструментом, а не автором. Значит, любой патч, который попадает в ядро, по-прежнему должен проходить обычный процесс ревью, обсуждения и ручной проверки. Новые правила требуют, чтобы весь код оставался совместимым с лицензией GPL-2.0-only, а в файлах использовались корректные SPDX-идентификаторы. Отдельно прописано, что AI-агент не имеет права ставить Signed-off-by: этот тег связан с Developer Certificate of Origin и означает юридическое подтверждение от человека. Подписать такой патч может только живой разработчик, и именно он берет на себя полную ответственность за вклад.
Как теперь отправлять патчи
Практически для разработчиков это означает не революцию, а дополнительный слой прозрачности. Сам по себе факт использования AI теперь не считается нарушением, если человек может объяснить, что именно делал инструмент и как был проверен результат. Проще говоря, модель может помочь написать патч или описание, но не может заменить автора, который понимает код, тестирует его и готов защищать изменения перед мейнтейнерами.
- Проверить весь сгенерированный код вручную, а не полагаться на вывод модели Убедиться, что фрагменты не нарушают лицензионные требования ядра Добавить собственный Signed-off-by, подтверждая DCO от имени человека Указать Assisted-by с названием инструмента и версией модели Не выдавать за AI-вклад обычные инструменты вроде git, gcc, make или редактора Такой подход вырос не на пустом месте. Поводом для жесткой фиксации правил стали месяцы споров вокруг «AI slop» и качества патчей, которые отправляют люди с минимальным пониманием того, что именно сгенерировала модель. Отдельный резонанс вызвали случаи, когда AI-участие не раскрывалось сразу: формально патч выглядел как обычная работа опытного разработчика, но позже выяснялось, что значительная часть текста и кода была написана LLM.
Главная нерешенная проблема
При всей практичности новая политика не снимает самый неприятный вопрос: происхождение кода. Документация требует от человека проверить лицензионную чистоту AI-вывода, но сама по себе не дает способа доказать, откуда именно взялась конкретная строка. Если модель сгенерировала фрагмент, слишком похожий на чужой код с несовместимыми условиями, тег Assisted-by проблему не решит.
Ответственным все равно останется отправитель патча, даже если он физически не может проследить весь путь обучения модели. Есть и вторая дыра: политика почти не помогает в борьбе с недобросовестными авторами. Торвальдс прямо говорил, что документация пишется для добросовестных участников, а люди, которые шлют мусорный код, не станут честно маркировать его как AI-сгенерированный.
Иначе говоря, Linux выбрал не путь запрета, а путь персональной ответственности: если код хороший, его рассмотрят; если это галлюцинация, регрессия или плохо понятый патч, отвечать придется тому, кто нажал send.
«Документация нужна для добросовестных участников», — так
Торвальдс объяснил свой подход к AI-патчам.
Что это значит Linux не стал объявлять войну AI-инструментам и не стал делать вид, что проблемы нет.
Проект выбрал взрослую модель: использовать можно, скрывать нельзя, подписывать за модель нельзя, а юридические и технические последствия несет человек. Для всей open source-индустрии это важный сигнал: следующий большой спор будет не о том, разрешать ли AI, а о том, как доказывать происхождение и качество сгенерированного кода.