Intelligence artificielle Puissance et créativité en Intelligence Artificielle

Pour approfondir le sujet

Sur le même thème :

Après les Etats-Unis, Meta fait le choix de tester son chatbot en Inde et certains pays d’Afrique

En septembre 2023, Meta annonçait le lancement bêta de Meta AI, un assistant IA, aux Etats-Unis. Le chatbot est actuellement en phase de test...

Les géants de la tech, portés par la GenAI : Google franchit de nouveau la barre des 2 billions de dollars

Les GAFAM ou GAMAM (Google, Apple, Facebook (Meta), Amazon, Microsoft) portés par l'essor de l'IA générative, connaissent une croissance importante de leur capitalisation boursière...

Retour sur les principales innovations d’Adobe en matière d’IA générative

Le sommet Adobe Firefly 2023 avait surtout été marqué par la présentation de Firefly, une famille de modèles d’IA générative, qui a d'ailleurs été...

xAI annonce la prochaine disponibilité de Grok 1,5 Vision

La semaine dernière a été, comme pour une grande partie de celles qui l'ont précédée, rythmée par les annonces autour de la GenAI et...

Puissance et créativité en Intelligence Artificielle

Très souvent, l’Intelligence Artificielle paraît indissociable de l’utilisation d’importants volumes de données et d’une forte consommation de GPU (donc de puissance de calcul).

Cette vision est réductrice de la diversité des approches de l’IA et n’est pas représentative de l’ensemble des modèles qu’elle propose.

S’il est vrai que des algorithmes tels que les transformers de type BERT sont entraînés avec plusieurs Giga de données (plus de 130Go pour camemBERT), il existe d’autres voies dans l’Intelligence Artificielle comme celle, par exemple, proposée par Another Brain, frugale en énergie et données.

Ainsi, tout au long de son histoire, l’IA s’est construite autour d’une grande variété d’algorithmes et de techniques dont :

  • Systèmes à base de règles ou de connaissance,
  • Réseaux de neurones artificiels,
  • Programmation par contraintes,
  • Régressions linéaires, Machines à support de vecteur,

Dans les années 90, l’approche à base de connaissance (KBS) était celle qui donnait les résultats les plus concrets pour modéliser une expertise métier

Les KBS parvenaient même à proposer des solutions satisfaisantes dans des cas d’usage traitant des « données en continu ». Ainsi, ces systèmes apportaient des réponses au traitement d’ondes sonores ou pour la gestion de Haut-fourneaux avec la récupération en temps réel d’informations venant de capteurs. On ne parlait pas encore d’IoT mais il s’agissait tout de même d’objets qui transmettaient des informations.

Les réseaux de neurones consommateurs en calcul ne permettaient alors pas d’avoir des résultats aussi intéressants qu’aujourd’hui dans des délais raisonnables. Cependant, l’offre naissante (y compris en France avec des entreprises comme Neuristique) montrait que c’était une direction prometteuse… Des solutions liant systèmes experts et « réseaux neuromimétiques » semblaient permettre de dépasser les limites de chaque approche. Et la France avait une position toute particulière avec son salon précurseur, Neuro-Nîmes.

La programmation par contraintes répondait principalement à des problèmes mathématiques complexes (type NP-complets ou difficiles) de type ordonnancement, planification, allocation de ressources, etc…

Les techniques d’apprentissage machine s’appuyaient aussi sur des approches hybrides : apprentissage par généralisation, inductif, incrémental, etc…

Au milieu des années 90, Yann LeCun parvenait à finaliser LeNet associant des techniques classiques en traitement d’images (matrices de convolution), des réseaux de neurones et la célèbre rétro-propagation du gradient.

Les limitations matérielles impliquaient souvent de trouver des moyens adaptés pour gérer l’ensemble des données, obtenir des résultats dans des temps de calcul raisonnables et apporter une réelle aide aux utilisateurs.

Ainsi, comme souvent, la pénurie oblige à la créativité.

Les exemples d’articulations de technologies étaient alors nombreux pour résoudre des problématiques d’aide à la décision, de traitement du langage ou encore d’optimisations.

La possibilité de tirer avantage de différentes approche n’a pas totalement disparu de la réflexion des chercheurs. Par exemple, Facebook tente d’exploiter du Deep Learning pour attaquer des problèmes habituels de l’IA symbolique (dérivées et primitives, résolutions d’équations). Le débat sur l’utilité d’un couplage entre l’IA symbolique et l’IA connexionniste reste ouvert.

Mais la puissance de calcul actuelle pourrait conduire à réduire cette imagination. En effet, de nombreux algorithmes de réseaux de neurones peuvent répondre à un problème spécifique. Il y a ainsi un « risque de facilité » à ingérer des Go de données d’apprentissage sans se soucier de la quantité mémoire utilisée, du nombre de processeurs mis en œuvre, etc…

En effet, malgré les indéniables succès de l’IA et notamment des réseaux de neurones artificiels, la majorité des tâches de compréhension et de décision réalisées par les humains restent hors de sa portée. Aucun véhicule autonome n’est aujourd’hui capable d’anticiper une situation de conduite « non apprise », alors qu’il s’agit d’une tâche relativement banale pour un humain.

La compréhension des différences entre les mécanismes d’apprentissage des machines et ceux des humains est encore un sujet majeur de recherche en IA. Faire reposer les performances de l’IA uniquement sur la disponibilité d’un grand volume de données et une puissance de calcul importante pour, au final, des modèles peu généralisables à d’autres situations ne peut pas être satisfaisant.

Le cerveau humain apprend souvent une situation avec très peu d’exemples et avec une excellente capacité de généralisation à d’autres situations.

Cette capacité de « généralisation » à partir de peu « d’évènements » justifie de chercher des modèles qui ne soient pas exclusivement basées sur les données et la puissance.

En outre, de mon point de vue, la recherche d’une approche optimum et la mise au point de solutions « esthétiques » conservent leur importance.

Ainsi, limiter la consommation mémoire, réduire le temps de calcul, éviter les apprentissages inutiles ou une complexité injustifiée devraient toujours guider la mise en œuvre d’une solution informatique et a fortiori d’Intelligence Artificielle.

L’hybridation des algorithmes peut sans doute faire partie de cette panoplie des approches potentielles. L’imagination humaine reste indispensable pour créer une IA performante, esthétique et éthique.

(Image Source Pixabay)


1ère Marketplace de l'IA et de la transformation numérique vous recommande :
OutSystems - Developpement Low code par DYNACENTRIX

Depuis mars 2022, dynacentrix est partenaire intégrateur de la solution de développement low-code visuel, à base de modèles assistés par une ia de la ...

 

Contributeur expert

Laurent Cervoni

Ingénieur de l’École Supérieure d’Ingénieurs en Électronique et Électrotechnique (E

Partager l'article

Après les Etats-Unis, Meta fait le choix de tester son chatbot en Inde et certains pays d’Afrique

En septembre 2023, Meta annonçait le lancement bêta de Meta AI, un assistant IA, aux Etats-Unis. Le chatbot est actuellement en phase de test...

Les géants de la tech, portés par la GenAI : Google franchit de nouveau la barre des 2 billions de dollars

Les GAFAM ou GAMAM (Google, Apple, Facebook (Meta), Amazon, Microsoft) portés par l'essor de l'IA générative, connaissent une croissance importante de leur capitalisation boursière...

Retour sur les principales innovations d’Adobe en matière d’IA générative

Le sommet Adobe Firefly 2023 avait surtout été marqué par la présentation de Firefly, une famille de modèles d’IA générative, qui a d'ailleurs été...

xAI annonce la prochaine disponibilité de Grok 1,5 Vision

La semaine dernière a été, comme pour une grande partie de celles qui l'ont précédée, rythmée par les annonces autour de la GenAI et...