Actualité IBM lance en open source sa boite à outils Adversarial Robustness pour...

Pour approfondir le sujet

Des chercheurs NVIDIA mettent au point un GAN exploitant le transfert de style pour un contrôle fin du résultat

Les réseaux GANs permettent de réaliser des images plus vraies que nature, les exemples de génération de visages avec des GANs se multiplient sur...

Meetup “Transfert de style et Generative Adversarial Networks” le 1er février prochain / Toulouse Data Science

Le transfert de style est une tâche à part entière : comprendre et extraire le style d'une œuvre d'art pour l'appliquer à une photo...

Le CRI organise ‘No Human Left Behind’, un Hackathon Intelligence artificielle pour une éducation inclusive

Du 11 au 13 mai prochain le Centre de Recherches Interdisciplinaires (CRI) organise No Human Left Behind, le Hackathon Intelligence artificielle pour une éducation inclusive....

Des chercheurs proposent une solution de détection d’images générées en deep learning

Dans un article publié sur Arxiv, les chercheurs Haodong Li, Bin Li, Shunquan Tan, Jiwu Huang de l'Université de Shenzhen ont dévoilé une méthode...

IBM lance en open source sa boite à outils Adversarial Robustness pour améliorer la sécurité de l’IA

Les performances de l’intelligence artificielle ne cessent de progresser, il est toutefois encore très facile de l’induire volontairement en erreur, au moyen de ce que l’on appelle une attaque adverse (adversial attack).  Le nouvel outil open source que vient de lancer le laboratoire de recherche d’IBM : L’Adversarial Robustness Toolbox a été pensé de façon à permettre aux développeurs et chercheurs en intelligence artificielle d’analyser les méthodes d’attaque adverse et mettre au point des stratégies de défense.

Proposé sur GitHub depuis quelques jours, le code contient des outils pour que les développeurs et chercheurs puissent tester leurs réseaux de neurones profonds (deep learning) et les sécuriser. Il inclut pour cela une implémentation des méthodes d’attaque et de défense les plus courantes. Comme l’ont indiqué Maria-Irina Nicolae et Mathieu Sinn de l’équipe de recherche d’IBM :

“Les Réseaux de neurones profonds sont des modèles complexes de machine learning présentant une certaine similitude avec les neurones interconnectés du cerveau humain. ILS sont capables de traiter des ENTRées de grande dimension (des millions de pixels dans des images haute résolution par exemple ), représentant dans ces ENTREES des motifs de différents niveaux d’abstraction, et reliant ces représentations à des concepts sémantiques de haut niveau.

Une propriété intrigante des réseaux de neurones profonds est que, bien qu’ils soient normalement très précis, ils sont vulnérables à des exemples dites “adverses” (adversarial). Ces attaques adverses se manifestent sous la forme d’entrées (disons des images) qui ont été délibérément modifiées pour produire une réponse souhaitée par un réseau de neurones”.

Ce type d’attaque adverse (adversarial) constitue une difficulté certaine quant au déploiement de systèmes basés sur l’intelligence artificielle, à cause des risques pour la sécurité. Des altérations d’images, de voix ou encore de vidéos peuvent être développées, sans même connaître l’architecture du réseau de neurones utilisé ou avoir accès à ses paramètres, pour tromper les algorithmes. La bibliothèque open-source proposée par IBM propose donc aux développeurs et aux chercheurs des outils pour se défendre contre ces attaques.

“La boîte à outils Adversarial Robustness est conçue pour aider les chercheurs et les développeurs à concevoir de nouvelles techniques de défense, ainsi qu’à déployer des défenses pratiques des systèmes d’IA. Les chercheurs peuvent utiliser l’Adversarial Robustness Toolbox pour évaluer les nouvelles défenses en comparaison à l’état de l’art. Pour les développeurs, la bibliothèque propose des interfaces qui prennent en charge la composition de systèmes de défense complets en utilisant des méthodes individuelles.

La bibliothèque est écrite en Python, le langage de programmation le plus couramment utilisé pour développer, tester et déployer des réseaux de neurones profonds. Il comprend des algorithmes de pointe pour créer des exemples adversarial ainsi que des méthodes pour défendre les réseaux de neurones contre ces derniers”.

Illustration officielle proposée par IBM Security :

IBM

Johanna Diaz

Partager l'article

Astek et Craft AI présentent leur solution de machine learning dans le domaine de la cybersécurité

Dans le cadre de leur partenariat, Astek et Craft AI ont présenté leur première solution dans le domaine de la cybersécurité. L'entreprise spécialisée en...

SoftBank Vision Fund et Speedinvest lancent la seconde édition du programme d’accélération Emerge

Le fonds d'investissement européen Speedinvest et le fonds de placement SoftBank Investement Advisers ont annoncé le lancement de la seconde édition programme d'accélération Emerge....

La RATP s’associe avec Systran pour proposer des annonces voyageurs en plusieurs langues

Fort d'un partenariat stratégique, la technologie de Systran a été choisie par la Régie autonome des transports parisiens (RATP) pour mener à bien le...

La société Dydu publie son enquête autour des robots conversationnels et des outils de selfcare

Dydu, une entreprise spécialisée dans les robots conversationnels, vient de publier les résultats de la cinquième édition de son étude annuelle sur les chatbots,...