Intelligence artificielle Comment faire de l'IA éthique une réalité ?

Pour approfondir le sujet

Sur le même thème :

La chasse aux biais des algorithmes d’intelligence artificielle par Bias Buccaneers

La généralisation des algorithmes d’intelligence artificielle implique de nouveaux problèmes : hormis la maintenance et l’évolution de ces systèmes, il s’agit également d’éviter des...

Agritech et Deeptech : Mycophyto annonce une levée de fonds de série B de plus de 4 millions d’euros

Après une levée de fonds de 1.4 million d’euros en 2019, la start-up agritech Mycophyto annonce un nouveau tour de table d’un montant de...

Lancement de l’APP « Mécanismes de la Résilience et de la Vulnérabilité face aux facteurs de stress en santé mentale »

L'Agence Nationale pour la Recherche (ANR) s'est associée à l’ERA-NET NEURON COFUND 2, plateforme de financement axée sur les troubles neurologiques et mentaux, pour...

Synthèse vocale : Microsoft présente VALL-E, un modèle d’IA entraîné à reproduire la voix

Microsoft a récemment publié VALL-E, un nouveau modèle d’IA de synthèse vocale qui peut reproduire une voix à partir d'un échantillon audio de seulement...

Comment faire de l’IA éthique une réalité ?

L’intelligence artificielle se démocratise à vitesse grand V et s’intègre lentement dans le tissu de notre existence. Grâce aux multiples progrès de l’IA, à l’amélioration du deep learning et à la disponibilité de l’informatique haute performance, il est aujourd’hui possible de lancer des cas d’usages qui étaient encore auparavant inimaginables. Pour les entreprises, les enjeux sont immenses. Il est donc crucial d’établir une vision, d’insuffler des cadres et des politiques appropriés et de développer des contrôles et des équilibres adéquats, pour protéger les individus.

Principes et outils de l’IA éthique

Cadres et outils de gouvernance des données
Une structure de gouvernance des données, qui s’articule autour de contrôles de qualité des données, d’analyses de l’historique et de la traçabilité et de contrôle d’accès est devenue impérative. Des investissements au sein d’accélérateurs et de solutions internes pour la gestion de la vie privée, comme la gestion des données, la gestion de la sécurité des données (et en transit) et la gestion des versions pour le suivi, pourraient également constituer une garantie indispensable pour éviter toutes violations.

Détection des biais
Un ensemble de données non biaisé est une condition préalable nécessaire pour qu’un modèle d’IA puisse effectuer des prédictions fiables et non discriminatoires. Par exemple, une compagnie d’assurance automobile classait par défaut les hommes de moins de 25 ans comme des conducteurs imprudents – notamment dû à un biais historique inhérent aux ensembles de données concernant la couleur, l’âge et le sexe.

Des outils appropriés pour le contrôle de la qualité des données et l’évaluation des faiblesses des modèles, ainsi que la définition de metrics pour mesurer l’humilité des modèles, pourraient contribuer à mettre en évidence les potentielles défaillances. Les méthodes Champion/Challenger, certains tests et les mesures correctives devraient être directement intégrés au processus de développement des modèles ; au même titre que la formation des data scientists afin d’améliorer l’interprétabilité des modèles pour, in fine, en améliorer l’auditabilité.

IA explicable et reproductible
Les ingénieurs s’intéressent grandement à l’IA explicable (XAI) pour mieux comprendre le cheminement de pensée d’un modèle IA. Il s’agit essentiellement de comprendre les décisions ou les prédictions réalisées par une IA, afin d’atténuer les préoccupations liées à l’injustice. Les algorithmes XAI permettent une meilleure transparence, interprétabilité et apportent des explications claires et définies. Son autre objectif est d’ailleurs la reproductibilité, afin que les prédictions des modèles ML soient cohérentes à chaque fois et ce, même avec de nouveaux ensembles de données. Les outils et les processus permettant de réaliser des audits approfondis et des analyses de simulation peuvent expliquer pourquoi et comment ils sont parvenus à certaines conclusions. Cela permet non seulement d’apaiser les potentielles inquiétudes des collaborateurs, mais aussi de mener les organisations à réfléchir soigneusement à la manière dont leurs hypothèses sont formulées. Dans le même ordre d’idées, l’IA éthique devrait également énoncer clairement les avantages et la gestion de la collecte des données.

L’humain au cœur des situations critiques
Bien que les modèles d’IA soient construits pour fonctionner de manière autonome sans intervention humaine, l’implication humaine est impérative dans certains cas. Notamment dans l’application de la loi. Dans plusieurs applications judiciaires, il a été signalé que les peines de prison prononcées par un système d’IA présentaient un taux de faux positifs deux fois plus élevé pour certains groupes éthiques. Par conséquent, les modèles d’IA doivent être protégés contre les risques, en faisant appel à des humains pour toutes les décisions clés et en disposant d’un mécanisme de secours efficace si le système d’IA doit être contourné.

Les éléments constitutifs d’une base solide d’IA éthique
Un cadre éthique solide pour l’IA, conforme aux lois locales sur la protection de la vie privée, pourrait apaiser les craintes de violations et accroître la confiance dans les systèmes actuels. Il existe aujourd’hui plusieurs acteurs technologiques qui ont établi des codes d’éthique de l’IA pour garantir que leurs efforts en la matière sont équitables, socialement bénéfiques, responsables et respectueux de la vie privée. Pour instaurer la confiance et la responsabilité dans l’ensemble de l’écosystème des parties prenantes, un cadre devrait évaluer les systèmes d’IA en fonction des critères d’impartialité, d’explicabilité, de reproductibilité, de sécurité et d’utilité.

Le cadre de l’IA éthique devrait être créé sur la base de 6 grands principes fondamentaux pour atténuer les effets potentiellement négatifs de l’IA sur la société tout en maximisant la création de valeur à long terme. Il s’agit notamment de l’inclusion (à la fois dans l’habilitation à tirer parti de la technologie de l’IA et dans la représentation dans la conception), du caractère socialement bénéfique et durable, de la dynamique de l’emploi tout en favorisant la requalification, de l’équité en rejetant les préjugés sociaux et le dénigrement culturel, de la protection des données et de la vie privée, ainsi que de la responsabilité et de l’explicabilité. Une entreprise devrait promouvoir activement des discussions et délibérations inclusives entre les industries, les communautés, les organismes de réglementation et les universités sur les défis, les avantages, les coûts et les conséquences de l’IA, ainsi que pour influencer une gouvernance et des réglementations fortes autour de l’utilisation responsable et durable de l’IA.

L’autorégulation est également essentielle. Les équipes internes d’une organisation doivent être suffisamment habilitées pour assurer la protection de la vie privée et prévenir de certains biais dans les décisions algorithmiques.

À l’heure actuelle, l’IA a un impact considérable sur la rédéfinition de nos économies, sociétés et systèmes politiques. Par conséquent, les préoccupations liées à l’IA sont légitimes. Elles doivent être aujourd’hui abordées par toutes les parties prenantes afin de développer un écosystème IA éthique, responsable et durable.


1ère Marketplace de l'IA et de la transformation numérique vous recommande :
CLASSIFY par RECITAL

Catégorisez vos mails et vos documents. en temps réel et déclenchez automatiquement les workflows dans vos crm et outils de gestion. entraînement l...

 

Contributeur expert

Balakrishna D. R.

Balakrishna D. R. est Senior Vice President, en charge de l’offre de services – ECS, IA e

Partager l'article

La chasse aux biais des algorithmes d’intelligence artificielle par Bias Buccaneers

La généralisation des algorithmes d’intelligence artificielle implique de nouveaux problèmes : hormis la maintenance et l’évolution de ces systèmes, il s’agit également d’éviter des...

Agritech et Deeptech : Mycophyto annonce une levée de fonds de série B de plus de 4 millions d’euros

Après une levée de fonds de 1.4 million d’euros en 2019, la start-up agritech Mycophyto annonce un nouveau tour de table d’un montant de...

Lancement de l’APP « Mécanismes de la Résilience et de la Vulnérabilité face aux facteurs de stress en santé mentale »

L'Agence Nationale pour la Recherche (ANR) s'est associée à l’ERA-NET NEURON COFUND 2, plateforme de financement axée sur les troubles neurologiques et mentaux, pour...

Synthèse vocale : Microsoft présente VALL-E, un modèle d’IA entraîné à reproduire la voix

Microsoft a récemment publié VALL-E, un nouveau modèle d’IA de synthèse vocale qui peut reproduire une voix à partir d'un échantillon audio de seulement...
Recevoir une notification en cas d'actualité importante    OK Non merci