Le 29 avril dernier, la première édition de la conférence LlamaCon, organisée par Meta, a marqué une étape dans l’ouverture de l’écosystème Llama aux développeurs. Avec l’annonce de l’API Llama, Meta entend faciliter l’exploration, la personnalisation et l’intégration de ses modèles d’IA générative. Mais c’est une autre déclaration, venue du PDG de Microsoft, Satya Nadella, qui a retenu l’attention : jusqu’à 30 % du code produit en interne chez Microsoft serait désormais généré par des outils d’IA.
 
Sur scène, Satya Nadella et Mark Zuckerberg (PDG de Meta) ont échangé sur l’impact de ces technologies sur le développement logiciel. Interrogé par le PDG de Meta sur la proportion de code généré par l'IA au sein de son entreprise, Satya Nadella a répondu qu'elle allait de 20 à 30 %, en fonction des projets et du langage de programmation, précisant que l'IA était particulièrement performante en langage Python, mais nettement moins en C++. Kevin Scott, directeur technique de Microsoft, a par ailleurs déclaré que d’ici 2030, jusqu'à 95 % du code de l’entreprise pourrait être rédigé par l’intelligence artificielle.

Mark Zuckerberg a, quant à lui, déclaré ne pas disposer de métriques pour Meta, tout en anticipant une trajectoire rapide : selon lui, la part de code générée par IA pourrait atteindre 50 % en 2026, et continuer ensuite à progresser. Une tendance confirmée par un autre GAMAM puisque le taux de code produit par logiciel chez Google est passé de 25 à 30 % depuis octobre dernier, selon Sundar Pichai.

Au-delà de ces pourcentages, une réalité se dessine : la production logicielle est en train de basculer vers un régime de coécriture algorithmique à grande échelle. Ce tournant soulève une question : l’industrialisation du code par l’IA aboutira-t-elle à une simple automatisation de tâches routinières, laissant aux programmeurs le rôle central, comme l'affirme Kevin Scott, ou à une refondation complète de la chaîne de production logicielle ?  L’IA va-t-elle simplement assister les développeurs ou bouleverser complètement le métier ? 

Gouvernance, qualité et sécurité du code généré par IA

Alors que l'IA prend une place croissante dans la production logicielle, une autre question devient incontournable : celle de la gouvernance du code généré. Si l’IA produit, qui est responsable ? Et selon quelles normes doit-on évaluer la qualité, la sécurité ou la robustesse de ce code ?

En matière de cybersécurité, les enjeux sont tout aussi sensibles. Plusieurs études récentes ont montré que le code généré par IA peut introduire des vulnérabilités, souvent dues au fait que le LLM reproduit des pratiques courantes, mais peu sûres, présentes dans ses données d’entraînement : l’IA, censée améliorer la qualité du code, pourrait dans certains cas renforcer des failles existantes. 

Au plan réglementaire, l’arrivée massive de code généré pose également de nouveaux défis. Comment garantir la conformité au RGPD, au Digital Operational Resilience Act (DORA), ou à l'AI Act, si les sources du code ne sont pas totalement explicites ? Des discussions émergent autour de l’obligation de marquage ou de documentation du code généré, mais ces initiatives restent fragmentaires.

Pour mieux comprendre (assisté par l'IA)

Qu'est-ce que le Digital Operational Resilience Act (DORA) et comment s'applique-t-il au code généré par IA ?

Le DORA est un règlement européen visant à renforcer la résilience opérationnelle numérique des institutions financières. Pour le code généré par IA, cela implique de garantir que les systèmes intégrant ce code soient suffisamment robustes pour résister à des cyberattaques ou autres disruptions numériques.

Pourquoi l'IA est-elle plus performante en Python qu'en C++ pour la génération de code ?

L'IA est plus performante en Python car ce langage est conçu pour être lisible et facile à comprendre, ce qui simplifie l'apprentissage automatique. Les bibliothèques et frameworks d'apprentissage automatique sont également majoritairement développés en Python, ce qui optimise la production de code à travers les modèles de langage.