C’est dans la foulée de l’annonce la semaine dernière du lancement de l’AI Alliance pour soutenir une IA ouverte et responsable que Meta a dévoilé Purple Llama, qu’il présente comme “un projet parapluie proposant des outils et des évaluations de confiance et de sécurité ouverts pour aider les développeurs à construire de manière responsable avec des modèles d’IA générative ouverts”.
Purple Llama vise à fournir des solutions pour construire avec les modèles d’IA générative de manière responsable, en adoptant une approche collaborative et basée sur les standards de l’industrie.
Avec ce projet, Meta entend renforcer la confiance des développeurs dans l’utilisation de son modèle Llama, dont la seconde version, publiée elle aussi en open source, est gratuite à la fois pour la recherche et un usage commercial. Le modèle a été téléchargé plus de 100 millions de fois à ce jour.
Pourquoi “Purple” Llama ?
Les équipes rouges sont souvent évoquées, les équipes violettes, combinant l’efficacité des équipes rouges et bleues, le sont beaucoup moins.
Meta explique :
“En empruntant un concept au monde de la cybersécurité, nous pensons que pour vraiment atténuer les défis que présente l’IA générative, nous devons adopter à la fois des postures d’attaque (équipe rouge) et défensives (équipe bleue). L’équipe violette, composée des responsabilités de l’équipe rouge et de l’équipe bleue, est une approche collaborative d’évaluation et d’atténuation des risques potentiels”.
Les premiers pas de Purple Llama
Purple Llama comprend pour l’instant deux composantes principales : des outils et des évaluations pour la cybersécurité et des outils pour filtrer les entrées et les sorties potentiellement risquées des modèles d’IA générative. Ils feront l’objet d’une licence permissive, ce qui permettra à la fois la recherche et l’utilisation commerciale, tout comme les composants à venir.
Les outils et les évaluations pour la cybersécurité sont basés sur les recommandations de la Maison Blanche et visent à réduire la fréquence des suggestions de code non sécurisées ou malveillantes générées par les modèles d’IA générative. Ces outils permettent également d’évaluer la résistance des modèles face aux tentatives d’attaque ou d’exploitation par des cyber-adversaires.
Les outils pour filtrer les entrées et les sorties potentiellement risquées sont basés sur le modèle Llama Guard, un modèle ouvert qui permet de détecter les types courants de contenu potentiellement dangereux ou violant les règles d’utilisation. Ce modèle a été entraîné sur un mélange de jeux de données publiques et peut être personnalisé par les développeurs en fonction de leurs besoins et de leurs cas d’usage.
Purple Llama s’inscrit dans la vision de Meta de créer un écosystème ouvert et transparent pour l’IA générative, en favorisant la recherche, la science ouverte et la collaboration entre les acteurs du domaine. Le projet Purple Llama compte déjà plus de 100 partenaires, parmi lesquels des entreprises, des organisations et des institutions de premier plan, tels qu’AI Alliance, AMD, Anyscale, AWS, Bain, CloudFlare, Databricks, Dell Technologies, Dropbox, Google Cloud, Hugging Face, IBM, Intel, Microsoft, MLCommons, Nvidia, Oracle, Orange, Scale AI, Together.AI et bien d’autres.