Добавить в корзинуПозвонить
Найти в Дзене

Linux разрешил ИИ-код в ядре, но ответственность оставил людям

Проект Linux закрепил правила для кода, написанного с помощью генеративного ИИ: использовать ассистентов можно, но всю ответственность за вклад несёт человек. Речь про качество, безопасность и лицензии — «автопилот» тут не прокатит. Эти требования оформили после месяцев внутренних обсуждений. Подход прагматичный: ИИ рассматривают как инструмент в руках разработчика, а не как «автора» патча. Linux прямо говорит: генеративный ИИ допустим как помощь при разработке, включая инструменты уровня Microsoft Copilot. Но финальный контроль остаётся за контрибьютором. Он проверяет код, отвечает за последствия и подтверждает, что всё соответствует правилам проекта. ❗️ ПОДПИСЫВАЙСЯ НА НАШ КАНАЛ В ДЗЕНЕ И ЧИТАЙ КРУТЫЕ СТАТЬИ БЕСПЛАТНО Отдельно зафиксировали принцип, который многие и так соблюдали в здравом уме: ИИ не может «подписывать» изменения. Подтверждать вклад по Developer Certificate of Origin (DCO) могут только люди. То есть Linux не запрещает «подсказки» и генерацию фрагментов. Запрещает пер
Оглавление

Проект Linux закрепил правила для кода, написанного с помощью генеративного ИИ: использовать ассистентов можно, но всю ответственность за вклад несёт человек. Речь про качество, безопасность и лицензии — «автопилот» тут не прокатит.

Эти требования оформили после месяцев внутренних обсуждений. Подход прагматичный: ИИ рассматривают как инструмент в руках разработчика, а не как «автора» патча.

ИИ-ассистенты в Linux: можно, но без подписи «агента»

Linux прямо говорит: генеративный ИИ допустим как помощь при разработке, включая инструменты уровня Microsoft Copilot. Но финальный контроль остаётся за контрибьютором. Он проверяет код, отвечает за последствия и подтверждает, что всё соответствует правилам проекта.

❗️ ПОДПИСЫВАЙСЯ НА НАШ КАНАЛ В ДЗЕНЕ И ЧИТАЙ КРУТЫЕ СТАТЬИ БЕСПЛАТНО

Отдельно зафиксировали принцип, который многие и так соблюдали в здравом уме: ИИ не может «подписывать» изменения. Подтверждать вклад по Developer Certificate of Origin (DCO) могут только люди.

То есть Linux не запрещает «подсказки» и генерацию фрагментов. Запрещает перекладывать ответственность на модель, как на отдельного участника процесса.

Прозрачность станет обязательнее: появится тег Assisted-by

В правила добавили механизм раскрытия использования ИИ. Для этого вводят новый тег Assisted-by. Он нужен, чтобы отмечать участие ИИ-инструментов и указывать, какая модель и какие инструменты использовались.

Логика простая: если в коде всплывёт проблема, проекту нужно понимать, как именно он появился. На странице документации Linux это объясняют так: «When AI tools contribute to kernel development, proper attribution helps track the evolving role of AI in the development process».

Технически это ещё и попытка не допустить «AI slop» в ядре: когда в дерево попадает невыверенная генерация, которую никто нормально не прочитал.

Лицензии и идентификаторы: ИИ-код не освобождает от GPL

В правилах отдельно подчёркивают требования к лицензированию. Код для ядра должен быть совместим с GPL-2.0-only. А в самих файлах должны быть корректные SPDX identifiers.

И это тот момент, который многие недооценивают. ИИ может «нагенерить» кусок, похожий на чужой код, или смешать фрагменты с разными лицензиями. В Linux ответственность за такие риски не размазывают по инструментам и платформам. Её оставляют на конкретном человеке, который отправил патч.

Полный текст правил опубликован в репозитории Linux: Documentation/process/coding-assistants.rst.

❗️ ПОДПИСЫВАЙСЯ НА НАШ КАНАЛ В ДЗЕНЕ И ЧИТАЙ КРУТЫЕ СТАТЬИ БЕСПЛАТНО

Подписывайтесь на наши каналы в Telegram и Дзен, чтобы узнавать больше. И делитесь своим мнением и опытом в нашем чате.

Linux разрешил ИИ-код в ядре, но ответственность оставил людям ⚡️