Actualité Une enquête menée par Fico et Corinium s'intéresse à l'IA responsable dans...

Pour approfondir le sujet

Lancement du Collectif International technologique Intelligence Artificielle du Village Francophone à l’occasion de Vivatech

Le Village Francophone, moteur de l'animation de délégations francophones lors d'événements nationaux et internationaux, a lancé son collectif IA ce mardi 16/06 à l'occasion...

TALia : le laboratoire de recherche de onepoint et Télécom Paris autour du traitement du langage naturel

Télécom Paris, école d'ingénieur spécialisée dans le numérique, et onepoint, une entreprise française spécialisée dans la transformation numérique, vont lancer ensemble un laboratoire de...

Tractable, spécialiste des solutions de vision par ordinateur pour les assurances, devient une licorne

Tractable, une entreprise développant des systèmes d'intelligence artificielle au service de la gestion des sinistres et accidents vient de lever la somme de 60...

Le projet CETI : comprendre la langue des cachalots grâce à des outils d’intelligence artificielle

Comprendre la langue utilisée par les animaux est un des enjeux de certains scientifiques : c'est notamment le cas de Denise Herzing qui étudie,...

Une enquête menée par Fico et Corinium s’intéresse à l’IA responsable dans les entreprises

La société FICO connue pour le “Credit score/FICO Score”, un indicateur utilisé pour prévoir les problèmes de crédits, a publié un rapport intitulé “L’état de l’IA responsable”. Ce document constitue les résultats d’une enquête menée avec l’aide de la société de veille commerciale Corinium autour de l’IA responsable. Les deux organismes ont essayé de comprendre les aspects qui permettent à une entreprise d’adopter une IA plus responsable, éthique, transparente et sécurisée. 

Une enquête sur l’intelligence artificielle responsable

Dans le cadre d’une initiative menée par Corinium et FICO, une étude a été réalisée sur des entreprises exploitant l’intelligence artificielle au quotidien. L’objectif était de mieux saisir comment les entreprises utilisent l’IA et si les enjeux d’éthique, de responsabilité, et de respect des intérêts de la clientèle sont assimilés par ces groupes. Les deux organismes ont questionné plusieurs chiefs Analytics, chiefs AI et chiefs Data Officers pour mieux comprendre les stratégies d’IA mises en place dans ces structures.

Selon l’enquête, la plupart des entreprises interrogées déploient l’IA avec un risque élevé. Certains chiffres disponibles dans le rapport, tendent à affirmer ces propos :

  • 73 % des organismes questionnés ont eu du mal à obtenir le soutien de leur direction pour donner la priorité à une IA éthique et responsable
  • 65 % d’entre elles ne savent pas comment sont prises certaines décisions autour de la stratégie mise en place par leur entreprise.

De plus, une institution sur cinq prend les devants pour surveiller l’ensemble des modèles développés afin qu’ils respectent une certaine éthique. Un chiffre à mettre en corrélation avec ces deux données :

  • 39 % des membres du conseil d’administration d’une entreprise ainsi que 33 % des équipes de direction ont un savoir incomplet sur les enjeux éthiques de l’IA.

L’importance de la notion de “responsabilité”

Les conclusions du rapport préconisent d’accorder plus d’importance à la gouvernance et à la formation sur l’IA responsable auprès des décideurs, membres de conseils d’administration et membres d’équipes de direction. L’étude met en évidence un autre point : le manque de responsabilité à l’égard de l’IA responsable.

Une donnée va en ce sens :

  • 43 % des personnes interrogées déclarent n’avoir aucune responsabilité sur des domaines qui vont au-delà de la conformité réglementaire en matière d’IA éthique.

Pour Scott Zoldi, chief analytics officer pour FICO, ce chiffre est un signal d’alerte :

“À mon avis, cela témoigne de la nécessité d’une réglementation plus poussée en matière d’éthique. Si les concepteurs de l’IA ne considèrent généralement pas leur responsabilité comme étant plus poussés que celle que la réglementation existante impose, c’est qu’il y a un problème, sans évoquer les cas où elle n’est pas appliquée.”

La solution préconisée dans le rapport consiste à appliquer une gouvernance de modèle d’IA immuable. Ces cadres doivent permettre une surveillance accrue des modèles d’IA afin de s’assurer que les décisions prises en matière d’IA soient responsables, transparentes et justes. FICO et Corinium précisent également que les pouvoirs qu’ont les décideurs doivent servir pour établir des normes dans les entreprises en matière d’IA et promouvoir une surveillance active des systèmes d’IA.

L’avenir de l’IA responsable serait entre les mains des dirigeants d’entreprises

L’étude révèle que 80 % des cadres mis en place par les décideurs autour de l’IA ne sont pas ceux qui permettraient une utilisation responsable de l’IA. Toutefois, neuf entreprises sur dix savent que les processus inefficaces de surveillance des modèles d’IA sont un obstacle à son adoption. Deux entreprises sur trois pensent que l’IA responsable et l’éthique de l’IA seront deux éléments centraux dans le cadre de leur stratégie d’adoption de l’IA d’ici deux ans.

Des chiffres qui semblent en contradictions, car les entreprises affirment prendre de mauvaises décisions, tout en assurant que ces mauvaises décisions ne sont pas bénéfiques pour mettre en place une IA responsable. Tout réside une nouvelle fois, selon l’enquête, dans une meilleure compréhension des enjeux d’éthique liés à l’IA par les décideurs et dirigeants d’entreprises.

Zacharie Tazrout

Partager l'article

Lancement du Collectif International technologique Intelligence Artificielle du Village Francophone à l’occasion de Vivatech

Le Village Francophone, moteur de l'animation de délégations francophones lors d'événements nationaux et internationaux, a lancé son collectif IA ce mardi 16/06 à l'occasion...

TALia : le laboratoire de recherche de onepoint et Télécom Paris autour du traitement du langage naturel

Télécom Paris, école d'ingénieur spécialisée dans le numérique, et onepoint, une entreprise française spécialisée dans la transformation numérique, vont lancer ensemble un laboratoire de...

Tractable, spécialiste des solutions de vision par ordinateur pour les assurances, devient une licorne

Tractable, une entreprise développant des systèmes d'intelligence artificielle au service de la gestion des sinistres et accidents vient de lever la somme de 60...

Le projet CETI : comprendre la langue des cachalots grâce à des outils d’intelligence artificielle

Comprendre la langue utilisée par les animaux est un des enjeux de certains scientifiques : c'est notamment le cas de Denise Herzing qui étudie,...