Intelligence artificielle Comment garder le contrôle de la machine ?

Pour approfondir le sujet

Sur le même thème :

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière...

Comment garder le contrôle de la machine ?

L’IA s’impose chaque jour davantage dans nos vies et l’accélération de son développement devrait contribuer à une hausse de 14 % du PIB mondial ($ 15 700 milliards …) d’ici à 2030. Mais derrière ces gains astronomiques se profilent aussi de pressantes questions d’éthique, car on doit s’assurer que ces technologies profitent effectivement à la société tout entière. Si seuls quelques futurologues catastrophistes s’aventurent à évoquer le danger imminent d’une prise de pouvoir par l’intelligence artificielle, la réalité est que l’automatisation augmente à vitesse exponentielle et, avec elle, les risques de dérive…

Pour la commissaire européenne Margrethe Vestager, vice-présidente exécutive pour Une Europe adaptée à l’ère du numérique, « En matière d’intelligence artificielle, la confiance n’est pas un luxe mais une nécessité absolue. » Prévenir les risques de l’IA exige de faire, dès maintenant, des choix technologiques de portée stratégique, des choix qui garantissent, in fine, que l’homme collabore optimalement avec la machine tout en gardant le contrôle. Cette condition est essentielle dans tous les domaines critiques impactant la vie des individus et des organisations : défense et cybersécurité, mais aussi transports, finances, santé ou éducation.

C’est pourquoi les humains et les entreprises sont de plus en plus mal à l’aise avec les algorithmes d’IA de type « boîte noire » qui ne donnent aucune indication sur la manière dont les décisions ont été prises. Nous avons besoin d’une IA avec qui dialoguer afin de suivre ces décisions en toute confiance. Ce qui suppose que les recommandations de la machine soient accompagnées d’explications. L’enjeu pour cette IA de nouvelle génération est donc d’être une « white box » (et non une « black box »), capable de permettre une relation de confiance avec l’humain.

Les IA basées sur les données, de type deep learning (« data driven »), ne pourront pas répondre à ces défis. Les réseaux de neurones sont très performants, mais ce sont des boîtes noires aux décisions indéchiffrables, même pour leurs propres concepteurs. L’avenir appartiendra à ceux qui sauront combiner les forces des différentes approches de l’intelligence artificielle : L’IA doit devenir hybride, c’est-à-dire capable combiner les deux grands courants de l’intelligence artificielle, l’intelligence « symbolique » qui repose sur la prise en compte de règles logiques, et l’intelligence « numérique » fondée sur le traitement de quantités de données par des réseaux de neurones. Elle doit enfin être économe en énergie : Alors que DeepMind, lors de la fameuse partie qui l’a opposé au champion du monde de go, a utilisé une puissance de calcul de 1202 CPUs et 176 GPUs – l’IA nouvelle génération qui vient d’affronter victorieusement 8 champions du monde bridge a consommé 200 000 fois moins d’énergie pour parvenir à ses fins.

Cette IA hybride présente aussi des avantages géopolitiques à ne pas négliger : si les GAFAM nous expliquent à longueur de tweets qu’en dehors du deep learning il n’y a point de salut, c’est parce que ces mastodontes possèdent des bases de données gigantesques. Alors que le volume de données disponibles dans le monde va être décuplé entre 2020 et 2025, ils souhaitent nous convaincre qu’il est inutile de les concurrencer car ils ont déjà gagné la bataille du Big Data. Peut-être. Mais ils sont encore loin d’avoir gagné la guerre de l’intelligence artificielle.

Les perspectives qu’ouvrent l’IA hybride représentent une opportunité fabuleuse pour l’Europe, et plus particulièrement la France. Notre pays compte des chercheurs de haute qualité appartenant aux différentes communautés de l’IA et, selon Nature, la France figure au 5ème rang mondial de la recherche dans ce domaine.

Les grandes entreprises françaises et l’Etat français doivent jouer leur rôle de catalyseur pour favoriser l’émergence d’acteurs mondiaux de l’IA hybride. Elles doivent faire confiance aux startups travaillant sur ces technologies et leur confier des projets d’envergure qui leur assurent un financement pérenne et un positionnement précoce sur la scène internationale.

Notre pays doit capitaliser sur l’ensemble de ses talents pour s’engager dans cette voie d’une IA transparente, souveraine et sobre en énergie. C’est ainsi que nous pourrons contribuer à l’émergence d’une IA qui tire réellement parti de l’intelligence.

Contributeur expert

Jean-Baptiste Fantun

Jean Baptiste Fantun est le CEO de Nukkai, startup pionnière de l’IA nouvelle génération, qu

Partager l'article

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière...