Intelligence artificielle : prenons nos responsabilités !

Pour approfondir le sujet

Sur le même thème :

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière...

Intelligence artificielle : prenons nos responsabilités !

Aux côtés d’une quinzaine de patrons d’entreprises français réunis à Tokyo, je me suis récemment pris au jeu de la réflexion et de la co-création autour du sujet du futur de l’Intelligence Artificielle. Voiture autonome, contrôle qualité, diagnostiques médicaux ? Entre risques et opportunités, il nous a fallu ébaucher ensemble les contours d’une Intelligence Artificielle responsable, conçue par l’humain et pour l’humain.

De manière amusante, 80% d’entre nous étions prêts à franchir le pas en confiance.

Source de nombreux fantasmes, l’Intelligence Artificielle s’est peu à peu affirmée comme un véritable sujet de société, suscitant crainte et fascination. Dans le développement de ces technologies, certains voient une énième lutte prométhéenne, cette fois entre l’Homme et la machine. Alors que les interrogations et attentes autour du sujet sont nombreuses, le temps est venu de remettre l’humain au cœur de la question, et de créer un véritable cadre de réflexion autour de ces innovations.

Nous ne créerons pas une Intelligence Artificielle responsable sans prendre nos responsabilités.

Dans ce secteur, la France est avant-gardiste. Elle a notamment pris les devants en lançant, l’an passé, au côté du Canada, le Groupe International d’experts en Intelligence Artificielle (G2IA), une initiative soutenue par de nombreuses entreprises convaincues qu’elles peuvent inspirer et guider les dirigeants dans la structuration et le déploiement de l’IA dans leurs organisations.

La coopération public-privé peut également se muer en co-création entre les instances publiques et les entreprises du secteur lorsqu’il s’agit de mettre sur pied un cadre légal autour de l’Intelligence Artificielle. Le Ministère de l’Economie et des Finances a ainsi signé début juillet, avec huit grands groupes français, un manifeste pour l’Intelligence Artificielle au service de l’industrie, pour que l’IA soit source de croissance et d’emploi.

S’engager dans cette réflexion autour de l’Intelligence Artificielle, c’est placer son entreprise au cœur des dilemmes que posent de telles innovations qui se doivent d’être transparentes, et respectueuses des données personnelles comme de l’environnement, tout en répondant aux injonctions technologiques ou économiques.

Les entreprises se doivent de mettre en avant la complémentarité entre l’Homme et l’Intelligence Artificielle, notamment en investissant dans les domaines où l’IA peut aider l’humain, dans sa progression vers un mode de développement à long-terme notamment.

Ainsi, d’après une étude sur la transformation digitale réalisée en 2019, sur 900 dirigeants d’entreprises interrogés à travers l’Europe, près de la moitié d’entre eux feraient davantage confiance à une intelligence artificielle qu’à un humain pour réaliser un diagnostic médical. De la même façon, 60% de ces dirigeants sont favorables à son utilisation pour effectuer un contrôle qualité[1].

Dans le domaine médical, l’Université de Kyoto au Japon a récemment mis au point des technologies permettant d’identifier les causes d’un certain type de cancer. Cela a permis de réduire le temps nécessaire pour diagnostiquer la maladie de deux semaines à une journée.

Pour continuer à innover, les entreprises s’efforcent donc de tisser des liens avec le monde académique, en témoigne, en France, la création de centres de recherche sur l’IA dans les grandes agglomérations françaises ou en Ile-de-France à Saclay, au sein de l’incubateur de l’Ecole Polytechnique, qui accueillent des étudiants-chercheurs et leur permet d’accéder à des infrastructures et expertises de pointe.

Ces exemples nous montrent l’opportunité que représente le développement de l’Intelligence Artificielle dans de nombreux domaines. La capacité d’arbitrage et de réflexion de l’humain nous prémunira des risques liés à ces technologies, en veillant à ce qu’elles bénéficient in fine à tous.

Toutefois, 52% des dirigeants estiment qu’ils ne pourraient pas faire confiance à l’Intelligence Artificielle car les données sont incorrectes ou biaisées, il est donc nécessaire d’établir un seuil de qualité de ces données que les algorithmes de l’IA peuvent analyser afin de produire des résultats non biaisés et toujours plus précis1.

Comprendre les résultats produits par une Intelligence Artificielle est également un enjeu crucial. Comment et pourquoi l’IA prend-t-elle une décision plutôt qu’une autre ? Il nous faut pouvoir l’expliquer. Cela renforcera le caractère transparent de ces technologies, nous serons donc plus enclins à leur faire confiance.

Alors que le gouvernement a lancé son plan « AI for Humanity », il s’agit maintenant pour les entreprises de franchir le pas et de participer au développement d’un cadre de réflexion autour d’une IA responsable, en rejoignant par exemple les initiatives nationales et internationales comme le G2IA, ou encore le GFAIH (Global Forum on AI for Humanity) qui s’est récemment tenu à Paris.

Le développement durable, y compris celui des nouvelles technologies, ne se fera qu’avec une volonté commune de tous les acteurs, saisissons donc ensemble l’opportunité que représente l’Intelligence Artificielle, et engageons-nous pour une IA responsable !

 

[1] https://www.fujitsu.com/downloads/GLOBAL/vision/2019/download-center/FTSV2019_Survey_EN_1.pdf

Contributeur expert

Benjamin Revcolevschi

Benjamin Revcolevschi est le directeur général de la filiale française du spécialiste des pro

Partager l'article

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière...