ZDNet AI→ оригинал

Linus Torvalds a validé les règles du code AI pour Linux : la responsabilité incombe à l'humain

Linux a pour la première fois fixé des règles pour le code AI dans le noyau : l'usage de Copilot, Claude et d'autres outils est autorisé, mais uniquement avec u

Linus Torvalds a validé les règles du code AI pour Linux : la responsabilité incombe à l'humain
Источник: ZDNet AI. Коллаж: Hamidun News.
◐ Слушать статью

Линус Торвальдс и мейнтейнеры Linux закрепили первые официальные правила для кода, написанного с помощью AI. Политика не запрещает Copilot, Claude и другие инструменты, но делает человека полностью ответственным за каждую строку, баг и лицензионный риск.

Что изменилось В документации ядра появился отдельный раздел AI Coding Assistants.

В нем команда Linux формально признает: разработчики все равно будут использовать генеративные инструменты, поэтому проекту важнее не устраивать символические запреты, а зафиксировать понятные правила игры. Базовый принцип простой: AI считается инструментом, а не автором. Значит, любой патч, который попадает в ядро, по-прежнему должен проходить обычный процесс ревью, обсуждения и ручной проверки. Новые правила требуют, чтобы весь код оставался совместимым с лицензией GPL-2.0-only, а в файлах использовались корректные SPDX-идентификаторы. Отдельно прописано, что AI-агент не имеет права ставить Signed-off-by: этот тег связан с Developer Certificate of Origin и означает юридическое подтверждение от человека. Подписать такой патч может только живой разработчик, и именно он берет на себя полную ответственность за вклад.

Как теперь отправлять патчи

Практически для разработчиков это означает не революцию, а дополнительный слой прозрачности. Сам по себе факт использования AI теперь не считается нарушением, если человек может объяснить, что именно делал инструмент и как был проверен результат. Проще говоря, модель может помочь написать патч или описание, но не может заменить автора, который понимает код, тестирует его и готов защищать изменения перед мейнтейнерами.

  • Проверить весь сгенерированный код вручную, а не полагаться на вывод модели Убедиться, что фрагменты не нарушают лицензионные требования ядра Добавить собственный Signed-off-by, подтверждая DCO от имени человека Указать Assisted-by с названием инструмента и версией модели Не выдавать за AI-вклад обычные инструменты вроде git, gcc, make или редактора Такой подход вырос не на пустом месте. Поводом для жесткой фиксации правил стали месяцы споров вокруг «AI slop» и качества патчей, которые отправляют люди с минимальным пониманием того, что именно сгенерировала модель. Отдельный резонанс вызвали случаи, когда AI-участие не раскрывалось сразу: формально патч выглядел как обычная работа опытного разработчика, но позже выяснялось, что значительная часть текста и кода была написана LLM.

Главная нерешенная проблема

При всей практичности новая политика не снимает самый неприятный вопрос: происхождение кода. Документация требует от человека проверить лицензионную чистоту AI-вывода, но сама по себе не дает способа доказать, откуда именно взялась конкретная строка. Если модель сгенерировала фрагмент, слишком похожий на чужой код с несовместимыми условиями, тег Assisted-by проблему не решит.

Ответственным все равно останется отправитель патча, даже если он физически не может проследить весь путь обучения модели. Есть и вторая дыра: политика почти не помогает в борьбе с недобросовестными авторами. Торвальдс прямо говорил, что документация пишется для добросовестных участников, а люди, которые шлют мусорный код, не станут честно маркировать его как AI-сгенерированный.

Иначе говоря, Linux выбрал не путь запрета, а путь персональной ответственности: если код хороший, его рассмотрят; если это галлюцинация, регрессия или плохо понятый патч, отвечать придется тому, кто нажал send.

«Документация нужна для добросовестных участников», — так

Торвальдс объяснил свой подход к AI-патчам.

Что это значит Linux не стал объявлять войну AI-инструментам и не стал делать вид, что проблемы нет.

Проект выбрал взрослую модель: использовать можно, скрывать нельзя, подписывать за модель нельзя, а юридические и технические последствия несет человек. Для всей open source-индустрии это важный сигнал: следующий большой спор будет не о том, разрешать ли AI, а о том, как доказывать происхождение и качество сгенерированного кода.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…