Intelligence artificielle TensorFlow Privacy, un nouvel outil Google pour protéger les données personnelles lors...

Pour approfondir le sujet

Sur le même thème :

Sonnet, la bibliothèque de réseau neuronal orientée objet de DeepMind, devient open source

En 2015, Google rendait open source TensorFlow, sa bibliothèque d'apprentissage automatique. La firme a également lancé en open source, en décembre 2016, le projet...

Intelligence artificielle : Faire du Deep Learning en Javascript avec TensorFlow.js

En août 2017, nous vous présentions TensorFire, une librairie javascript permettant de faire du Deep Learning directement depuis votre navigateur internet. L'autre librairie permettant...

Google rend disponible Tensor2Tensor en open source et facilite la recherche grâce au deep learning

Dans un post de blog, l'équipe de Google annonce avoir mis en open source Tensor2Tensor, une nouvelle bibliothèque de deep learning spécialement pensée pour...

Google publie en open source une nouvelle API de détection d’objets TensorFlow

Google a annoncé la publication en open source de l'API TensorFlow Object Detection. Ce framework, intégré à TensorFlow, permet de faciliter l'identification des objets...

TensorFlow Privacy, un nouvel outil Google pour protéger les données personnelles lors de l’entraînement des IA

Google a présenté la semaine dernière dans un article TensorFlow Privacy, son outil pensé pour la protection des données personnelles utilisées dans les phases d’apprentissage avec TensorFlow des systèmes d’intelligence artificielle. Basé sur la « confidentialité différentielle », le module vise à répondre à certaines controverses vis-à-vis de l’utilisation des données de personnes dans l’entraînement des IA.

Le sujet a fait polémique ces dernières années, par exemple en ce qui concerne l’utilisation des données personnelles de patients pour l’apprentissage d’algorithmes spécialisés dans la détection de certaines pathologies par des entreprises privées. L’entraînement de tels systèmes requièrent d’importants volumes de données et leur obtention et utilisation, lorsqu’il s’agit de données personnelles de personnes, peut se révéler problématique. C’est à cet enjeu et à la demande d’une plus grande éthique en la matière qu’a souhaité répondre Google avec TensorFlow Privacy.

Carey Radebaugh et Ulfar Erlingsson ont indiqué dans leur article :

“Idéalement, les paramètres des modèles de machine learning formés devraient coder des modèles généraux plutôt que des faits concernant des exemples de formation spécifiques. Pour ce faire et pour donner de fortes garanties de confidentialité lorsque les données de formation sont sensibles, il est possible d’utiliser des techniques basées sur la théorie de la confidentialité différentielle.

lors de la formation sur les données des utilisateurs, ces techniques notamment offrent de solides garanties mathématiques que les modèles n’apprennent ni ne se souviennent des détails d’un utilisateur spécifique. En particulier pour le deep learning, les garanties supplémentaires peuvent renforcer utilement les protections offertes par d’autres techniques de protection de la vie privée, qu’elles soient établies, telles que le seuillage et la suppression de données, ou nouvelles, telles que TensorFlow Federated learning.”

Basé sur la technique de Differential Privacy ou « confidentialité différentielle », ce module a pour objectif de protéger les données personnelles. Désormais disponible en open source sur Git Hub, il permet d’empêcher les systèmes IA en phase d’apprentissage de récupérer et d’encoder les informations des personnes et donc de pouvoir les identifier.

TensorFlow Privacy“Pour utiliser TensorFlow Privacy, aucune expertise en matière de confidentialité ni en mathématiques sous-jacentes ne devrait être requise : les personnes utilisant des mécanismes TensorFlow standard ne devraient pas avoir à modifier leurs architectures, procédures ou processus de modèle. Au lieu de cela, pour former des modèles qui protègent la confidentialité de leurs données de formation, il vous suffit souvent d’apporter quelques modifications simples au code et de régler les hyperparamètres pertinents pour la confidentialité.”

La nécessité d’anonymiser les données pour le développement d’intelligences artificielles est centrale. TensorFlow Privacy semble donc répondre à ce défi puisqu’il élimine les éléments pouvant permettre d’identifier un utilisateur. Cependant, les observateurs indiquent qu’il y a un risque de suppression dans le même temps de données pertinentes pour l’apprentissage d’un système et qu’il ne permet pas d’apprendre d’un événement s’étant produit une seule fois.

Google appelle de son côté les utilisateurs à étudier les exemples et tutoriels (tâche MNIST, TensorFlow 2.0, Keras…) fournis sur GitHub :

“Nous souhaitons que TensorFlow Privacy devienne une plaque tournante des meilleures techniques pour la formation de modèles d’apprentissage automatique avec de fortes garanties de confidentialité. Par conséquent, nous encourageons toutes les parties intéressées à participer.”


1ère Marketplace de l'IA et de la transformation numérique vous recommande :
ARCADE (Augmented Reading of Climate-cArbon DisclosurEs) par Axionable

Notre solution arcade vise à apporter aux acteurs financiers des informations détaillées et innovantes permettant d’évaluer les entreprises sur les en...

 
Thierry Maubant

Partager l'article

Canada : l’Alberta teste « Heads-Up », la solution de détection de téléphone au volant d’Acusensus

L'usage du téléphone au volant, bien que réprimandé par la loi, est une des principales causes de distraction des conducteurs. Malgré toutes les campagnes...

IA et génomique : la perte de l’homéostasie neuronale joue un rôle central dans la maladie de Huntington

La maladie de Huntington est une maladie génétique et héréditaire rare qui conduit à une dégénérescence progressive des cellules nerveuses dans le cerveau, entraînant...

Les Etats membres de l’OMS/Europe adoptent le tout premier plan d’action pour la santé numérique de la Région

Du 12 au 14 septembre dernier, après deux années en ligne, les 53 Etats membres de toute l’Europe et d’Asie centrale ont été...

PyTorch renforce sa gouvernance avec la création de la PyTorch Foundation, qui sera gérée par la Linux Foundation

PyTorch est l'un des frameworks ML open source les plus utilisés, il a été développé par Meta AI. Soumith Chintala, l'un de ses créateurs,...
Recevoir une notification en cas d'actualité importante    OK Non merci