Intelligence artificielle Les modèles LLM sont-ils vraiment le nouveau must-have pour 2024 ?

Pour approfondir le sujet

Sur le même thème :

ActuIA lance le podcast “Dialogue Machine” animé par Thibault Neveu

A travers cette série de podcasts présentée par Thibault Neveu, nous voulons faire écho à la diversité des points de vue qui façonnent le...

Nouvelle avancée d’OpenAI avec GPT-4o, un modèle qui fusionne le traitement de l’audio, de la vision et du texte en temps réel

Alors que les spéculations allaient bon train sur l'arrivée prochaine de GPT-5, OpenAI crée une fois de plus la surprise en présentant ce 13...

Le pari français de Microsoft : un investissement de 4 milliards d’euros pour accélérer l’adoption de l’IA

Microsoft a annoncé dernièrement ses plus gros investissements pour ses infrastructures d'IA et de cloud dans différents pays, la France en fait désormais partie....

Le Forum TERATEC, plus grand événement en France dédié aux technologies du numérique et du calcul intensif

Couplée au Cloud, l'intelligence artificielle (IA) vient brouiller les frontières et les barrières technologiques, notamment en termes de puissance de calcul et de transfert...

Les modèles LLM sont-ils vraiment le nouveau must-have pour 2024 ?

L’année 2023 restera marquée comme l’année de l’IA, avec les entreprises qui se sont toutes efforcées de comprendre et d’adapter leurs processus et produits en conséquence. En 2024, elles devront continuer à évoluer pour prospérer face à une concurrence de plus en plus innovante. Alors que toutes les industries sont concernées, l’IA constitue clairement la prochaine étape de l’automatisation, permettant d’accomplir des tâches qui, jusqu’à présent, nécessitaient le raisonnement d’un expert en informatique.

Un certain nombre d’emplois tels que nous les connaissons aujourd’hui seront bientôt transformés, ce qui représente de réelles opportunités. Dans le domaine des réseaux, l’IA donnera de nouvelles capacités aux ingénieurs, leur permettant d’accomplir en quelques minutes ce qui prenait parfois des heures. Ils pourront alors se consacrer à des tâches plus utiles et moins chronophages.

La possibilité d’interroger le réseau plutôt que le service support

L’IA générative et les grands modèles de langage (LLM) continueront d’être utilisés pour créer des réseaux informatiques plus intelligents et réactifs. Ainsi, au lieu de devoir appeler le support pour résoudre un problème, les utilisateurs pourront simplement demander à leur réseau pourquoi leur session Zoom ne fonctionne pas, et celui-ci sera en mesure de le diagnostiquer et de le solutionner. Les LLM seront également utilisés pour développer des outils de maintenance informatique encore plus proactifs et prédictifs, capables même d’anticiper les problèmes.

Jusqu’à 50% de gains de productivité

En 2024, les modèles LLM accéléreront les procédures dans tous les secteurs de l’entreprise, générant jusqu’à 50 % de gains de productivité. Les professionnels commenceront donc à entraîner les LLM sur l’ensemble des données détenues, permettant ainsi une véritable “fusion mentale”. En bref, les collaborateurs pourront exploiter les connaissances de n’importe quel autre pair, révolutionnant ainsi le mode de fonctionnement en permettant aux employés d’apprendre plus facilement et plus rapidement de nouvelles compétences, de mieux collaborer et d’améliorer la qualité de leur travail. Concrètement, ces solutions basées sur LLM seront mises en œuvre pour automatiser des tâches (rédaction d’emails, génération de code), identifier et analyser des tendances parmi les données et faire évoluer le support client avec un support automatisé et plus efficace.

Le coût de la formation baissera

Le coût de la formation associée aux modèles LLM diminuera rapidement dans les mois à venir, alors que le silicium est conçu pour les faire évoluer à un rythme de 50 % tous les deux ans. Les entreprises pourront ainsi développer et déployer leurs propres LLM en plus grand nombre, et les applications basées sur cette technologie proliféreront en 2024 et au-delà.

LLM ou Chatbots ?

Toutefois, l’engouement actuel autour des LLM est susceptible de connaître un revers en 2024, car les entreprises commencent à faire face aux défis de la conception d’assistants IA dédiés. Les chatbots, par exemple, sont des agents conversationnels utilisés pour automatiser des tâches et fournir une assistance aux clients dans des domaines variés tels que la santé, la banque ou encore le retail. Les entreprises développeront donc plutôt ce type de chatbots spécifiques, plus difficiles à construire que les LLM à usage général mais qui offrent une bien meilleure expérience à l’utilisateur.

Ne pas oublier la question de la propriété des données

À mesure que les grands modèles linguistiques (LLM) deviendront plus sophistiqués, les débats sur la propriété des données prendront de l’ampleur. La façon dont les grandes entreprises utilisent des données qui ne leur appartiennent pas pour entraîner leurs modèles pose en effet des questions. Cela pourrait conduire à une concentration du pouvoir entre quelques mains, à l’instar de ce qui s’est passé avec l’open-source. Pour résoudre ce problème, de nouveaux dispositifs de licences verront le jour. Ces cadres devraient garantir que les propriétaires de données soient rémunérés à leur juste valeur et que les utilisateurs puissent accéder aux fichiers et les exploiter d’une manière responsable et éthique.

Les modèles LLM deviendront de plus en plus puissants dans les mois à venir, et les opérateurs réseaux devront donc continuer leur transformation afin de les intégrer au mieux. Ceux-ci favorisent en effet la productivité des équipes en leur permettant de se concentrer sur des tâches créatrices de valeur. Reste à garder en tête que cet essor introduit plusieurs questions, comme le défi de la propriété des données et la création de modèles plus précis, plus détaillés et nécessitant donc plus d’investissements.

Contributeur expert

Bob Friday

Partager l'article

ActuIA lance le podcast “Dialogue Machine” animé par Thibault Neveu

A travers cette série de podcasts présentée par Thibault Neveu, nous voulons faire écho à la diversité des points de vue qui façonnent le...

Nouvelle avancée d’OpenAI avec GPT-4o, un modèle qui fusionne le traitement de l’audio, de la vision et du texte en temps réel

Alors que les spéculations allaient bon train sur l'arrivée prochaine de GPT-5, OpenAI crée une fois de plus la surprise en présentant ce 13...

Le pari français de Microsoft : un investissement de 4 milliards d’euros pour accélérer l’adoption de l’IA

Microsoft a annoncé dernièrement ses plus gros investissements pour ses infrastructures d'IA et de cloud dans différents pays, la France en fait désormais partie....

Le Forum TERATEC, plus grand événement en France dédié aux technologies du numérique et du calcul intensif

Couplée au Cloud, l'intelligence artificielle (IA) vient brouiller les frontières et les barrières technologiques, notamment en termes de puissance de calcul et de transfert...