Intelligence artificielle Comment faire de l'IA éthique une réalité ?

Pour approfondir le sujet

Sur le même thème :

IA et droit : Lefebvre Dalloz simplifie les opérations juridiques avec AJI Sociétés

Lefebvre Dalloz, la marque qui réunit les expertises du groupe Lefebvre Sarrut en France, notamment en matière de connaissance juridique et fiscale, annonce le...

Berger-Levrault et Inria : un partenariat stratégique pour un numérique plus responsable

Depuis 2017, l'éditeur de logiciels Berger-Levrault, et Inria, l’Institut national de recherche en sciences et technologies du numérique, travaillent de concert pour accélérer le...

IBM étend son empreinte quantique avec un premier datacenter européen

IBM a inauguré hier son premier datacenter quantique en Europe. Ce nouveau centre de données, situé à Ehningen, en Allemagne, est la première installation...

AlphaChip : comment l’IA de Deepmind redéfinit les normes de la conception des puces

L'évolution rapide de l'IA a ouvert la voie à des avancées impressionnantes dans le domaine de la conception des puces électroniques, l'approche développée par...

Comment faire de l’IA éthique une réalité ?

L’intelligence artificielle se démocratise à vitesse grand V et s’intègre lentement dans le tissu de notre existence. Grâce aux multiples progrès de l’IA, à l’amélioration du deep learning et à la disponibilité de l’informatique haute performance, il est aujourd’hui possible de lancer des cas d’usages qui étaient encore auparavant inimaginables. Pour les entreprises, les enjeux sont immenses. Il est donc crucial d’établir une vision, d’insuffler des cadres et des politiques appropriés et de développer des contrôles et des équilibres adéquats, pour protéger les individus.

Principes et outils de l’IA éthique

Cadres et outils de gouvernance des données
Une structure de gouvernance des données, qui s’articule autour de contrôles de qualité des données, d’analyses de l’historique et de la traçabilité et de contrôle d’accès est devenue impérative. Des investissements au sein d’accélérateurs et de solutions internes pour la gestion de la vie privée, comme la gestion des données, la gestion de la sécurité des données (et en transit) et la gestion des versions pour le suivi, pourraient également constituer une garantie indispensable pour éviter toutes violations.

Détection des biais
Un ensemble de données non biaisé est une condition préalable nécessaire pour qu’un modèle d’IA puisse effectuer des prédictions fiables et non discriminatoires. Par exemple, une compagnie d’assurance automobile classait par défaut les hommes de moins de 25 ans comme des conducteurs imprudents – notamment dû à un biais historique inhérent aux ensembles de données concernant la couleur, l’âge et le sexe.

Des outils appropriés pour le contrôle de la qualité des données et l’évaluation des faiblesses des modèles, ainsi que la définition de metrics pour mesurer l’humilité des modèles, pourraient contribuer à mettre en évidence les potentielles défaillances. Les méthodes Champion/Challenger, certains tests et les mesures correctives devraient être directement intégrés au processus de développement des modèles ; au même titre que la formation des data scientists afin d’améliorer l’interprétabilité des modèles pour, in fine, en améliorer l’auditabilité.

IA explicable et reproductible
Les ingénieurs s’intéressent grandement à l’IA explicable (XAI) pour mieux comprendre le cheminement de pensée d’un modèle IA. Il s’agit essentiellement de comprendre les décisions ou les prédictions réalisées par une IA, afin d’atténuer les préoccupations liées à l’injustice. Les algorithmes XAI permettent une meilleure transparence, interprétabilité et apportent des explications claires et définies. Son autre objectif est d’ailleurs la reproductibilité, afin que les prédictions des modèles ML soient cohérentes à chaque fois et ce, même avec de nouveaux ensembles de données. Les outils et les processus permettant de réaliser des audits approfondis et des analyses de simulation peuvent expliquer pourquoi et comment ils sont parvenus à certaines conclusions. Cela permet non seulement d’apaiser les potentielles inquiétudes des collaborateurs, mais aussi de mener les organisations à réfléchir soigneusement à la manière dont leurs hypothèses sont formulées. Dans le même ordre d’idées, l’IA éthique devrait également énoncer clairement les avantages et la gestion de la collecte des données.

L’humain au cœur des situations critiques
Bien que les modèles d’IA soient construits pour fonctionner de manière autonome sans intervention humaine, l’implication humaine est impérative dans certains cas. Notamment dans l’application de la loi. Dans plusieurs applications judiciaires, il a été signalé que les peines de prison prononcées par un système d’IA présentaient un taux de faux positifs deux fois plus élevé pour certains groupes éthiques. Par conséquent, les modèles d’IA doivent être protégés contre les risques, en faisant appel à des humains pour toutes les décisions clés et en disposant d’un mécanisme de secours efficace si le système d’IA doit être contourné.

Les éléments constitutifs d’une base solide d’IA éthique
Un cadre éthique solide pour l’IA, conforme aux lois locales sur la protection de la vie privée, pourrait apaiser les craintes de violations et accroître la confiance dans les systèmes actuels. Il existe aujourd’hui plusieurs acteurs technologiques qui ont établi des codes d’éthique de l’IA pour garantir que leurs efforts en la matière sont équitables, socialement bénéfiques, responsables et respectueux de la vie privée. Pour instaurer la confiance et la responsabilité dans l’ensemble de l’écosystème des parties prenantes, un cadre devrait évaluer les systèmes d’IA en fonction des critères d’impartialité, d’explicabilité, de reproductibilité, de sécurité et d’utilité.

Le cadre de l’IA éthique devrait être créé sur la base de 6 grands principes fondamentaux pour atténuer les effets potentiellement négatifs de l’IA sur la société tout en maximisant la création de valeur à long terme. Il s’agit notamment de l’inclusion (à la fois dans l’habilitation à tirer parti de la technologie de l’IA et dans la représentation dans la conception), du caractère socialement bénéfique et durable, de la dynamique de l’emploi tout en favorisant la requalification, de l’équité en rejetant les préjugés sociaux et le dénigrement culturel, de la protection des données et de la vie privée, ainsi que de la responsabilité et de l’explicabilité. Une entreprise devrait promouvoir activement des discussions et délibérations inclusives entre les industries, les communautés, les organismes de réglementation et les universités sur les défis, les avantages, les coûts et les conséquences de l’IA, ainsi que pour influencer une gouvernance et des réglementations fortes autour de l’utilisation responsable et durable de l’IA.

L’autorégulation est également essentielle. Les équipes internes d’une organisation doivent être suffisamment habilitées pour assurer la protection de la vie privée et prévenir de certains biais dans les décisions algorithmiques.

À l’heure actuelle, l’IA a un impact considérable sur la rédéfinition de nos économies, sociétés et systèmes politiques. Par conséquent, les préoccupations liées à l’IA sont légitimes. Elles doivent être aujourd’hui abordées par toutes les parties prenantes afin de développer un écosystème IA éthique, responsable et durable.

Contributeur expert

Balakrishna D. R.

Bali est en charge de la section IA & Automatisation chez Infosys et aide les clients à tran

Partager l'article

IA et droit : Lefebvre Dalloz simplifie les opérations juridiques avec AJI Sociétés

Lefebvre Dalloz, la marque qui réunit les expertises du groupe Lefebvre Sarrut en France, notamment en matière de connaissance juridique et fiscale, annonce le...

Berger-Levrault et Inria : un partenariat stratégique pour un numérique plus responsable

Depuis 2017, l'éditeur de logiciels Berger-Levrault, et Inria, l’Institut national de recherche en sciences et technologies du numérique, travaillent de concert pour accélérer le...

IBM étend son empreinte quantique avec un premier datacenter européen

IBM a inauguré hier son premier datacenter quantique en Europe. Ce nouveau centre de données, situé à Ehningen, en Allemagne, est la première installation...

AlphaChip : comment l’IA de Deepmind redéfinit les normes de la conception des puces

L'évolution rapide de l'IA a ouvert la voie à des avancées impressionnantes dans le domaine de la conception des puces électroniques, l'approche développée par...