Intelligence artificielle Puissance et créativité en Intelligence Artificielle

Pour approfondir le sujet

Sur le même thème :

Sora Turbo : l’IA générative de vidéos d’OpenAI est désormais disponible

En février dernier, OpenAI dévoilait son premier modèle text-to-video, Sora, depuis lors en preview. La société a annoncé ce 9 décembre le déploiement de...

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...

Puissance et créativité en Intelligence Artificielle

Très souvent, l’Intelligence Artificielle paraît indissociable de l’utilisation d’importants volumes de données et d’une forte consommation de GPU (donc de puissance de calcul).

Cette vision est réductrice de la diversité des approches de l’IA et n’est pas représentative de l’ensemble des modèles qu’elle propose.

S’il est vrai que des algorithmes tels que les transformers de type BERT sont entraînés avec plusieurs Giga de données (plus de 130Go pour camemBERT), il existe d’autres voies dans l’Intelligence Artificielle comme celle, par exemple, proposée par Another Brain, frugale en énergie et données.

Ainsi, tout au long de son histoire, l’IA s’est construite autour d’une grande variété d’algorithmes et de techniques dont :

  • Systèmes à base de règles ou de connaissance,
  • Réseaux de neurones artificiels,
  • Programmation par contraintes,
  • Régressions linéaires, Machines à support de vecteur,

Dans les années 90, l’approche à base de connaissance (KBS) était celle qui donnait les résultats les plus concrets pour modéliser une expertise métier

Les KBS parvenaient même à proposer des solutions satisfaisantes dans des cas d’usage traitant des « données en continu ». Ainsi, ces systèmes apportaient des réponses au traitement d’ondes sonores ou pour la gestion de Haut-fourneaux avec la récupération en temps réel d’informations venant de capteurs. On ne parlait pas encore d’IoT mais il s’agissait tout de même d’objets qui transmettaient des informations.

Les réseaux de neurones consommateurs en calcul ne permettaient alors pas d’avoir des résultats aussi intéressants qu’aujourd’hui dans des délais raisonnables. Cependant, l’offre naissante (y compris en France avec des entreprises comme Neuristique) montrait que c’était une direction prometteuse… Des solutions liant systèmes experts et « réseaux neuromimétiques » semblaient permettre de dépasser les limites de chaque approche. Et la France avait une position toute particulière avec son salon précurseur, Neuro-Nîmes.

La programmation par contraintes répondait principalement à des problèmes mathématiques complexes (type NP-complets ou difficiles) de type ordonnancement, planification, allocation de ressources, etc…

Les techniques d’apprentissage machine s’appuyaient aussi sur des approches hybrides : apprentissage par généralisation, inductif, incrémental, etc…

Au milieu des années 90, Yann LeCun parvenait à finaliser LeNet associant des techniques classiques en traitement d’images (matrices de convolution), des réseaux de neurones et la célèbre rétro-propagation du gradient.

Les limitations matérielles impliquaient souvent de trouver des moyens adaptés pour gérer l’ensemble des données, obtenir des résultats dans des temps de calcul raisonnables et apporter une réelle aide aux utilisateurs.

Ainsi, comme souvent, la pénurie oblige à la créativité.

Les exemples d’articulations de technologies étaient alors nombreux pour résoudre des problématiques d’aide à la décision, de traitement du langage ou encore d’optimisations.

La possibilité de tirer avantage de différentes approche n’a pas totalement disparu de la réflexion des chercheurs. Par exemple, Facebook tente d’exploiter du Deep Learning pour attaquer des problèmes habituels de l’IA symbolique (dérivées et primitives, résolutions d’équations). Le débat sur l’utilité d’un couplage entre l’IA symbolique et l’IA connexionniste reste ouvert.

Mais la puissance de calcul actuelle pourrait conduire à réduire cette imagination. En effet, de nombreux algorithmes de réseaux de neurones peuvent répondre à un problème spécifique. Il y a ainsi un « risque de facilité » à ingérer des Go de données d’apprentissage sans se soucier de la quantité mémoire utilisée, du nombre de processeurs mis en œuvre, etc…

En effet, malgré les indéniables succès de l’IA et notamment des réseaux de neurones artificiels, la majorité des tâches de compréhension et de décision réalisées par les humains restent hors de sa portée. Aucun véhicule autonome n’est aujourd’hui capable d’anticiper une situation de conduite « non apprise », alors qu’il s’agit d’une tâche relativement banale pour un humain.

La compréhension des différences entre les mécanismes d’apprentissage des machines et ceux des humains est encore un sujet majeur de recherche en IA. Faire reposer les performances de l’IA uniquement sur la disponibilité d’un grand volume de données et une puissance de calcul importante pour, au final, des modèles peu généralisables à d’autres situations ne peut pas être satisfaisant.

Le cerveau humain apprend souvent une situation avec très peu d’exemples et avec une excellente capacité de généralisation à d’autres situations.

Cette capacité de « généralisation » à partir de peu « d’évènements » justifie de chercher des modèles qui ne soient pas exclusivement basées sur les données et la puissance.

En outre, de mon point de vue, la recherche d’une approche optimum et la mise au point de solutions « esthétiques » conservent leur importance.

Ainsi, limiter la consommation mémoire, réduire le temps de calcul, éviter les apprentissages inutiles ou une complexité injustifiée devraient toujours guider la mise en œuvre d’une solution informatique et a fortiori d’Intelligence Artificielle.

L’hybridation des algorithmes peut sans doute faire partie de cette panoplie des approches potentielles. L’imagination humaine reste indispensable pour créer une IA performante, esthétique et éthique.

(Image Source Pixabay)

Contributeur expert

Laurent Cervoni

Ingénieur de l’École Supérieure d’Ingénieurs en Électronique et Électrotechnique (E

Partager l'article

Sora Turbo : l’IA générative de vidéos d’OpenAI est désormais disponible

En février dernier, OpenAI dévoilait son premier modèle text-to-video, Sora, depuis lors en preview. La société a annoncé ce 9 décembre le déploiement de...

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...