
Pour comprendre l’importance du sujet, rappelons que le noyau Linux est le cœur du système d’exploitation Linux, chargé de gérer la mémoire, les processus, les pilotes matériels et la sécurité. Ce noyau équipe non seulement des millions de serveurs, mais aussi Android, les routeurs, les objets connectés, les supercalculateurs et une bonne partie du cloud mondial. Sa stabilité et sa sécurité sont donc cruciales : une faille dans Linux peut affecter la planète entière.
L’arrivée discrète de l’IA via AUTOSEL
Depuis des années, le processus de stabilisation du noyau Linux repose sur des mainteneurs expérimentés qui décident quels correctifs appliquer aux branches dites stables. Pour les aider, un outil baptisé AUTOSEL a été développé. Sa mission : sélectionner automatiquement des correctifs pertinents en se basant sur des modèles statistiques.
Dans un discours prononcé lors du sommet Open Source Summit 2025 en Amérique du Nord, Sasha Levin, hacker du noyau Linux et ingénieur émérite chez Nvidia, a cité l'exemple d'un petit correctif en amont apporté à git-resolve dans le noyau Linux 6.16. Cet outil résout les problèmes liés aux identifiants de commit incomplets ou incorrects, un problème mineur mais gênant pour les principaux responsables de la maintenance. Levin a utilisé l'IA pour écrire l'intégralité de la routine : « La seule chose que j'ai faite, c'est de revoir le code et de le tester pour m'assurer qu'il fonctionnait. »
Cependant, il a averti : « C'est un excellent exemple de ce que font actuellement les LLM. Vous leur confiez une petite tâche bien définie, et ils s'en chargent. Et vous remarquez que ce patch n'est pas du genre "Hé, LLM, va m'écrire un pilote pour mon nouveau matériel". Au contraire, il est très spécifique : "convertis ce hachage particulier pour utiliser notre API standard". »
Levin a déclaré qu'un autre avantage de l'IA est que « pour ceux d'entre nous qui ne sont pas de langue maternelle anglaise, elle aide également à rédiger un bon message de commit. C'est un problème courant dans le monde du noyau, où il est parfois plus difficile de rédiger le message de commit que d'écrire le changement de code, et cela aide vraiment à surmonter les barrières linguistiques. »
Pour l'avenir, Levin a suggéré que les LLM pourraient être formés pour devenir de bons assistants des mainteneurs Linux : « Nous pouvons enseigner à l'IA les modèles spécifiques au noyau. Nous montrons des exemples tirés de notre base de code pour expliquer comment les choses sont faites. Cela signifie également qu'en l'ancrant dans notre base de code du noyau, nous pouvons faire en sorte que l'IA explique chaque décision et nous pouvons la retracer à partir d'exemples historiques. »
En outre, il a déclaré que les LLM peuvent être connectés directement à l'arborescence Git du noyau Linux, de sorte que « l'IA peut aller de l'avant et essayer d'apprendre des choses sur le dépôt Git toute seule ».
L'IA pour les ingénieurs noyau : intervention de Sacha Levin
C'est là qu'intervient la dernière version de l'outil AUTOSEL du noyau Linux
Mais récemment, AUTOSEL a évolué. Il s’appuie désormais sur des techniques d’IA avancées, notamment les embeddings, qui permettent d’analyser le sens du code et des commentaires. L’idée est séduisante : accélérer la sélection de correctifs en laissant l’IA repérer ceux qui semblent les plus utiles et les plus sûrs.

Les avantages mis en avant
La dernière version de l'outil AUTOSEL pour le noyau Linux, basé sur l'IA, analyse donc automatiquement les commits du noyau Linux afin de déterminer s'ils doivent être rétroportés vers des arborescences de noyau stables. L'outil examine les messages de commit, les modifications de code et les modèles historiques de rétroportage afin de formuler des recommandations intelligentes.
James Bottomley, responsable senior de la maintenance du noyau Linux et ingénieur émérite chez IBM Research, a expliqué pourquoi cette approche constitue une bonne utilisation de l'IA dans un message publié sur la liste de diffusion Linux Kernel Mailing List : « Si vous y réfléchissez bien, l'historique git contient le chemin d'accès exact entre l'endroit où le correctif a été appliqué et l'endroit où vous souhaitez l'appliquer. Il s'agit d'un ensemble de données fini avec lequel les LLM peuvent être formés pour fonctionner correctement. »
Il a poursuivi : « Les humains ne regardent pas le chemin du patch (ou utilisent quelque chose de général comme un scan de plage). L'IA peut être suffisamment patiente pour tout passer en revue. »
De plus, AUTOSEL est désormais utilisé pour repérer les modifications de code qui corrigent les failles de sécurité CVE (Common Vulnerabilities and Exposures) de Linux. Étant donné que dans Linux, presque tous les bogues peuvent constituer une faille de sécurité, le suivi de ces commits peut être un travail fastidieux. Pour suivre ces commits, les responsables de la maintenance du noyau utilisaient de nombreux « scripts Bash hacky ». Aujourd'hui, les LLM utilisent la génération augmentée par récupération (RAG) pour récupérer les dépôts Git et la documentation du noyau, apprendre l'historique des correctifs et réduire les hallucinations.
Avant de pointer les dangers, il faut reconnaître les bénéfices potentiels :
- Gain de temps pour les mainteneurs : avec des milliers de correctifs proposés chaque mois, une aide automatisée permet de réduire la charge de travail.
- Capacité d’analyse élargie : l’IA peut repérer des motifs ou des similarités dans le code que l’œil humain manquerait.
- Ouverture à de nouveaux contributeurs : des développeurs moins expérimentés peuvent s’appuyer sur l’IA pour proposer des correctifs valides.
- Réduction des oublis : certains correctifs importants passent parfois entre les mailles du filet humain. Une IA peut aider à éviter cela.
En théorie, tout cela semble bénéfique. Mais en pratique, les inquiétudes s’accumulent.
Les inquiétudes : code fragile, surcharge humaine et opacité
Du code qui « a l’air correct »… mais ne l’est pas forcément
Les modèles d’IA sont experts pour produire du code qui semble logique et bien formaté. Mais ce vernis cache souvent des erreurs subtiles, difficiles à détecter en revue. Dans un environnement aussi sensible que le noyau Linux, une petite erreur peut avoir des conséquences colossales, allant du bogue à la faille de sécurité exploitable.
La surcharge des mainteneurs
Si l’IA permet de générer ou de recommander des correctifs plus rapidement, cela signifie aussi que le volume global augmente. Résultat : les mainteneurs doivent passer plus de temps à examiner des propositions, dont certaines sont de mauvaise qualité (AI slop). Autrement dit, l’IA risque de transformer un problème de rareté (pas assez d’yeux humains) en problème d’abondance toxique (trop de propositions inutiles).
Le manque de compréhension humaine
Un point crucial : dans l’open source, l’auteur d’un correctif doit être capable d’expliquer pourquoi il a écrit ce code. Or, si un développeur se contente de soumettre ce que ChatGPT ou un modèle similaire lui a fourni, il n’a parfois aucune idée de la logique sous-jacente. Cela remet en cause un principe de base de la communauté Linux : la transparence et la responsabilité de chaque contribution.
Sécurité : un nouveau talon d’Achille
Des études récentes montrent que le code généré par IA comporte davantage de vulnérabilités que celui écrit par des humains, en raison d’un raisonnement parfois superficiel. Intégrer de tels correctifs sans garde-fous reviendrait à ouvrir une porte dérobée potentielle dans l’un des systèmes les plus utilisés au monde.
Vers une politique officielle de l’IA dans Linux
Face à ces risques, plusieurs voix dans la communauté appellent à la mise en place d’une politique claire et officielle concernant l’usage de l’IA.
Parmi les pistes évoquées :
- Étiquetage obligatoire : tout correctif assisté ou généré par IA doit être signalé comme tel.
- Revue renforcée : ces correctifs doivent passer par un processus de vérification plus strict, avec davantage de tests automatisés.
- Quota ou filtrage : limiter les soumissions pour éviter la saturation par du « bruit » généré par IA.
- Responsabilisation : l’auteur doit rester capable d’expliquer la logique du correctif, même s’il s’est appuyé sur une machine.
Ces mesures ne visent pas à bannir l’IA, mais à l’encadrer intelligemment, pour protéger l’intégrité du noyau.
Jiří Kosina, développeur Linux en chef chez SUSE, a proposé sur la liste de diffusion LKML que les développeurs du noyau s'accordent sur une méthode permettant d'indiquer quel LLM...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.