Red Hat AI Inference Server : vers une standardisation ouverte de l’inférence IA en entreprise
À l’occasion du Red Hat Summit 2025, Red Hat a annoncé le lancement de Red Hat AI Inference Server, une nouvelle composante de la...
7 articles liés à ce sujet
À l’occasion du Red Hat Summit 2025, Red Hat a annoncé le lancement de Red Hat AI Inference Server, une nouvelle composante de la...
Microsoft a récemment publié BitNet.cpp, un cadre open-source conçu pour optimiser l’inférence des grands modèles de langage (LLM) quantifiés à 1 bit....
Snowflake annonce qu'il héberge et optimise la collection de LLM Llama 3.1 dans sa plateforme Snowflake Cortex AI, offrant aux entreprises un accès sé...
Natacha Triou proposait de découvrir l'algorithme linguistique français CamemBERT dans Le Journal des Sciences du 19 novembre 2019 sur France Cult...
Ce mardi 12 novembre, Intel organisait son Intel AI Summit 2019 à San Francisco aux États-Unis. L'occasion pour le groupe de faire plusieurs annonces...
À l'occasion du CES de Las Vegas la semaine dernière, Intel a annoncé l'arrivée d'un nouveau processeur dédié à l'intelligence artificielle et destiné...
Daniel Le Berre, à l'origine du logiciel libre Sat4j, recevra aujourd'hui la médaille de l'innovation 2018 du CNRS. Cette récompense est remise depuis...