Intelligence artificielle Intelligence artificielle : les tendances

Pour approfondir le sujet

Sur le même thème :

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière...

Intelligence artificielle : les tendances

Depuis les applications qui développent des modèles de gestion et de vente, en passant par de nouvelles fonctions de support technique, l’intelligence artificielle (I.A.) a commencé à transformer de multiples secteurs d’activité.

L’année dernière a été le témoin d’une augmentation significative des plates-formes, outils et applications basés sur l’apprentissage automatique (en anglais Machine Learning) et d’autres types d’I.A. Mais ces technologies affectent non seulement les fabricants de logiciels et le monde numérique, mais aussi d’autres secteurs tels que la santé, le juridique ou l’agriculture.

Ce n’est pas un hasard si toutes les entreprises du « Big Tech » (Google, Amazon, Facebook et Apple, ainsi qu’IBM et Microsoft) consacrent beaucoup de ressources de leur département R&D à des projets d’amélioration de l’I.A., ce qui bénéficie à l’écosystème de leur secteur, et de beaucoup d’autres..

Les changements de paradigme en matière de sécurité informatique: d’une approche défensive à une action préventive

La sécurité informatique évolue constamment afin d’avoir une longueur d’avance sur les cybercriminels qui utilisent des méthodes d’attaque de plus en plus  sophistiquées et complexes.

En quelques années, nous sommes passés d’outils de sécurité basés sur des signatures statiques susceptibles d’être falsifiées pour contourner la sécurité des réseaux, à des modèles actuels basés sur des systèmes d’émulation complexes utilisant l’intelligence artificielle et le machine learning pour découvrir les attaques possibles avant même leur apparition.

L’apprentissage grâce au machine learning  et les compétences de l’intelligence artificielle permettent de trouver de nouveaux modèles de comportement et de tendances d’attaque, ceci est particulièrement utile pour assurer la sécurité des ordinateurs et autres appareils.

Amélioration des puces d’apprentissage profond (deep-learning) grâce à la I.A.

Contrairement à d’autres programmes, I.A. s’appuie fortement sur des processeurs spécialisés qui complètent les CPU. Même les unités de traitement les plus rapides ne peuvent rivaliser avec l’entraînement d’un système d’I.A.

A partir de 2019, nous verrons de plus en plus de fabricants de puces créer des modèles spécialisés qui accéléreront l’exécution d’applications compatibles. Ces puces seront optimisées pour des cas d’utilisation et des scénarios spécifiques, liés notamment aux images numériques, au traitement du langage ou à la reconnaissance vocale. Les applications de la prochaine génération dans les secteurs de la santé et de l’automobile s’appuieront sur ces puces pour fournir une meilleure intelligence dans leurs produits finis.

Les nouveaux types de mémoire devraient permettre à l’industrie de faire face à la forte augmentation des charges de travail d’I.A.

Convergence de l’Internet des objets (l’IdO) et d’I.A. grâce à L’edge computing

Edge computing permet de traiter les données produites par les dispositifs IdO plus près de la source, plutôt que de les envoyer à travers de longs processus pour les analyser dans des centres de données dans le Cloud. Ainsi, les appareils évoluent en parallèle avec les puces d’I.A. dont ils sont/seront équipés, ce qui permettra une amélioration globale des performances.

L’IdO industriel effectuera des tâches quotidiennes en détectant des valeurs anormales, analysant les causes et provoquera des maintenances prédictives des équipements. On travaille sur des modèles d’apprentissage automatique basés sur les réseaux neuronaux pour travailler avec cette technologie Edge computing. On s’attend à ce que ces technologies soient en mesure de traiter les images vidéo, la synthèse vocale, les données de séries chronologiques et les données non structurées générées par des appareils comme les caméras, les microphones et autres capteurs, automatisant ainsi de nombreux processus.

Vers l’interopérabilité entre les réseaux

Le manque d’interopérabilité entre tous les outils technologiques est l’un des éléments qui entravent la généralisation des réseaux d’I.A. Pour relever ce défi, des entreprises comme Facebook et Microsoft ont collaboré à la création de l’Open Neural Network Exchange (ONNX), qui permet la réutilisation de modèles de réseaux compatibles, dans de multiples environnements ceci pour amplifier l’ingéniosité humaine.

L’un des défis critiques dans le développement de modèles de réseaux d’apprentissage profond réside dans le choix du bon framework. Les scientifiques et les développeurs de données doivent choisir le bon outil parmi de multiples options. Cette étape est essentielle, car une fois qu’un modèle est formé et évalué dans un cadre spécifique, il sera difficile de l’adapter à un autre cadre.

L’apprentissage automatisé continuera de gagner en visibilité.

L’apprentissage automatique donnera aux analystes financiers et aux développeurs l’occasion de créer des modèles d’apprentissage qui pourront aborder des scénarios complexes, sans avoir à passer par des processus classiques de formation des modèles. De plus, l’Auto-apprentissage offre le même degré de flexibilité avec un avantage supplémentaire : il permet également de travailler avec des données personnalisées dans des systèmes de transfert de données et de technologies, ce qui offre des avantages significatifs en termes de flexibilité dans le temps mais aussi en relation avec l’espace.

Contributeur expert

Hervé Lambert

Diplômé de l’Université de Bordeaux en 1988, Hervé Lambert a toujours montré un grand

Partager l'article

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière...