Home Tags LLM

LLM

Gemini 2.0 Flash, le modèle qui ouvre la voie aux agents d’IA de Google

Google a annoncé ce mercredi 11 décembre le lancement de Gemini 2.0 Flash, le premier modèle de la famille Gemini 2, conçue selon lui pour l’ère agentique. Ce modèle est d’ores et déjà disponible en tant que modèle expérimental pour les développeurs et les testeurs de...

BitNet.cpp : le cadre open source de Microsoft pour réduire les coûts d’inférence des LLMs quantifiés à 1 bi

Microsoft a récemment publié BitNet.cpp, un cadre open-source conçu pour optimiser l’inférence des grands modèles de langage (LLM) quantifiés à 1 bit. Il permet notamment d’exécuter un modèle BitNet b1.58 de 100 milliards de paramètres sur un seul processeur, atteignant des...

Mistral AI annonce la sortie de deux nouveaux modèles : Ministral 3B et Ministral 8B

À l’occasion du premier anniversaire du modèle Mistral 7B, Mistral AI a présenté hier une nouvelle famille de modèles, qu’il appelle “Les Ministraux” : Ministral 3B et Ministral 8B. Ces deux modèles conçus pour être exécutés sur des appareils périphériques...

IA open source : tout juste dévoilé, Reflection 70B au cœur des controverses

Le 5 septembre dernier, Matt Shumer, PDG d’Hyperside (OthersideAI), a dévoilé Reflection 70B sur X, le présentant comme le LLM open source le plus performant au monde. Basé sur le modèle de langage Llama 3.1 70B publié par Meta en juillet dernier, ce nouveau LLM utilise un ...

Snowflake annonce l’intégration de Llama 3.1 et l’open source de sa pile d’optimisation d’inférence

Snowflake annonce qu’il héberge et optimise la collection de LLM Llama 3.1 dans sa plateforme Snowflake Cortex AI, offrant aux entreprises un accès sécurisé et sans serveur au modèle open source le plus avancé de Meta, Llama 3.1 405B. Parallèlement, la société rend open sou...

Mistral AI annonce deux nouveaux modèles open source : Codestral Mamba 7B et Mathstral 7B

Mistral AI a annoncé ce 16 juillet dernier deux nouveaux LLM publiés sous licence Apache 2.0 : Codestral Mamba 7B et Mathstral 7B. Le premier utilise la nouvelle architecture Mamba introduite fin 2023 par les chercheurs de renom Albert Gu et Tri Dao, et est destiné à la génératio...

HeatWave GenAI d’Oracle : vers une démocratisation de l’IA générative en entreprise

Oracle a récemment annoncé la disponibilité générale de HeatWave GenAI. Le service de base de données HeatWave intègre désormais des grands modèles de langage (LLM), un dépôt de vecteurs automatisé et évolutif, ainsi que des capacités de conversation contextuelle en langage natur...

Choisir un modèle d’IA générative pour son entreprise : le guide du Hub France IA

Le Hub France IA vient de publier un guide essentiel pour les organisations cherchant à intégrer des modèles d’IA générative, en particulier les “Large Language Models” (LLM), dans leurs opérations. Ce document, élaboré par le groupe de travail IA Générative du ...

Partenariat Dassault Systèmes et Mistral AI : jumeaux numériques et LLM pour des solutions industrielles fiables et durables

Dassault Systèmes et Mistral AI ont annoncé le 1er juillet un partenariat stratégique destiné à offrir des solutions industrielles fiables basées sur l’IA générative. Combinant l’expertise en jumeaux virtuels et l’infrastructure cloud souveraine de Dassault Systèmes avec le...

Microsoft présente Phi-3, la nouvelle génération de ses modèles de langage de petite taille

Les grands modèles de langage (LLM) présentent des capacités impressionnantes dans différents domaines mais les modèles plus petits (SLM) sont une alternative intéressante pour les entreprises qui peuvent les exploiter à moindre coût pour des tâches spécifiques. Microsoft, qui a ...

Débloquer la puissance de l’IA mobile

Si les appareils mobiles ont considérablement évolué depuis le premier iPhone, ils n’ont toujours pas la puissance de calcul nécessaire pour exploiter pleinement les grands modèles de langage (LLM) contemporains. La solution pour maximiser le potentiel de l’IA sur mobile et en pé...

Le Monde signe un partenariat pluriannuel avec OpenAI et se dote d’une charte sur l’IA

On savait OpenAI en tractations avec plusieurs médias pour entraîner ses LLM sur leurs publications. En France, c’est avec le journal Le Monde que le premier accord a été signé : OpenAI puisera en toute légalité dans le contenu du quotidien pour entraîner ses modèles et enr...

IA générative : Anthropic dévoile la 3ème génération de sa famille de modèles Claude

Lundi dernier, Anthropic annonçait la dernière itération de sa famille de modèles d’IA générative : Claude 3. Le modèle se décline sous trois versions à l’instar du modèle Gemini de Google : Claude 3 Haiku, Claude 3 Sonnet et Claude 3 Opus, par ordre de performances. ...

CRAG : une méthode pour améliorer la génération de texte basée sur la récupération de connaissances

La génération de texte basée sur la récupération de connaissances (RAG) permet aux LLM de produire des textes informatifs et cohérents à partir de sources externes. Cependant, la qualité des textes générés dépend fortement de la pertinence des documents récupérés. Pour pallier à ...

Open AI annonce un GPT-4 turbo moins paresseux et des réductions de prix pour GPT-3,5 turbo

OpenAI a récemment partagé sur son blog plusieurs améliorations concernant ses modèles d’incrustation et de modération de texte, ainsi que des mises à jour de ses modèles phares GPT-4 turbo et GPT-3,5 turbo. Ces innovations visent à offrir aux développeurs plus de performance, d’...

Retour sur GAIA, le benchmark visant à évaluer les assistants d’IA

Différents articles consacrés aux derniers LLMs soulignent la supériorité de leurs performances par rapport à celles des humains dans des domaines spécifiques tels que le droit ou la chimie, mais qu’en est-il pour le raisonnement, la gestion multimodale, la navigation sur l...

Comment Datadog veut améliorer les performances des LLM

Lors de sa conférence annuelle DASH, Datadog, une entreprise basée à New York spécialisée dans l’observabilité cloud pour les applications et l’infrastructure d’entreprise, a annoncé Bits, un nouvel assistant d’IA générative pour aider les développeurs et les in...

I/O Connect Bengaluru : comment Google entend rendre la technologie plus accessible aux développeurs indiens

Google a établi son premier centre de développement en Inde à Bangalore ou Bangaluru, la “Silicon Valley indienne”, en 2004. C’est de cette ville que, la semaine dernière, devant un parterre de 2 000 spectateurs, Google a partagé une suite d’outils et de t...

DeepLearning.AI et AWS proposent un nouveau cours sur l’IA générative et les LLM

Deep Learning.AI s’est associé à AWS pour développer un cours sur les grands modèles de langage : « Generative AI with Large Language Models (LLM) ». Disponible sur Coursera, on peut y apprendre les principes fondamentaux du fonctionnement de l’IA générative et comment la d...

GitLab intègre l’IA générative à sa plateforme DevSecOps

GitLab permet à toutes les personnes impliquées dans les cycles de vie du développement logiciel, équipes de développement, équipes de sécurité et équipes opérationnelles, de collaborer sur une seule plateforme DevSecOps. L’entreprise a décidé d’intégrer l’IA à ...

(De)Toxigen et AdaTest, les nouveaux outils de Microsoft pour des modèles de langage plus fiables

Les grands modèles linguistiques (LLM ou large language model), outre être très énergivores, peuvent reproduire les biais et les stéréotypes acquis lors de leur formation. Les chercheurs de Microsoft ont conçu des outils et des ensembles de données open source afin de tester les ...