NVIDIA et Microsoft Azure s’associent pour démocratiser l’IA générative

Les développeurs et les chercheurs utilisent les grands modèles de langage  (LLM) et l’informatique accélérée pour découvrir de nouveaux cas d’utilisation grand public et professionnel. La collaboration entre Microsoft Azure et NVIDIA leur ouvre de nouvelles perspectives : les utilisateurs de Microsoft Azure peuvent désormais se tourner vers la dernière technologie de calcul accéléré NVIDIA pour former et déployer leurs applications d’IA génératives.

Afin de répondre à la demande croissante de formation et d’inférence génératives en IA, NVIDIA propose le H100 Tensor Core. Il offre des performances dignes d’un supercalculateur, jusqu’à 30 fois supérieures à celle de l’A100 qu’OpenAI avait utilisé pour ChatGPT. Ceci grâce à une série d’innovations architecturales, notamment des cœurs Tensor de quatrième génération, un nouveau moteur de transformateur pour accélérer les LLM et la dernière technologie NVLink qui permet aux GPU de communiquer entre eux à 900 Go/s.

Les machines virtuelles Microsoft Azure ND H100 v5, équipées des GPU NVIDIA H100 Tensor Core et de la mise en réseau NVIDIA Quantum-2 InfiniBand, permettent une mise à l’échelle transparente de l’IA générative, du HPC et d’autres applications complexes. Cette solution offre aux utilisateurs la possibilité de déployer ces ressources en un simple clic, directement depuis leur navigateur.

L’inclusion de NVIDIA Quantum-2 CX7 InfiniBand avec une bande passante inter-nœuds de 3 200 Gbit/s garantit des performances transparentes sur l’ensemble des GPU à grande échelle, égalant les capacités des supercalculateurs les plus performants au monde.

Des machines virtuelles pour l’IA générative et le HPC

Les machines virtuelles ND H100 v5 sont spécialement conçues pour l’entraînement et l’inférence des LLM et des modèles de vision par ordinateur de plus en plus complexes. Ces réseaux neuronaux alimentent les applications d’IA génératives les plus exigeantes et les plus gourmandes en calcul, parmi lesquelles la réponse aux questions, la génération de code, la génération audio, vidéo et d’images ou la reconnaissance vocale.

Elles accélèrent jusqu’à 2 fois l’inférence pour les LLM comme le modèle BLOOM 175B par rapport aux instances de la génération précédente, démontrant ainsi leur potentiel à optimiser les applications d’IA.

La collaboration NVIDIA Microsoft

Nvidia et Microsoft ont annoncé en novembre 2022 une collaboration de plusieurs années pour la construction d’un supercalculateur d’IA alimenté par l’infrastructure de supercalculateur avancée de Microsoft Azure associée aux GPU NVIDIA.

Microsoft Azure héberge depuis mars dernier NVIDIA Omniverse, une plateforme permettant de créer et d’exploiter des applications métaverses industrielles 3D et NVIDIA DGX™ Cloud, un service de supercalcul de l’IA qui donne aux entreprises un accès immédiat à l’infrastructure et aux logiciels nécessaires.

Avec les GPU NVIDIA H100 Tensor Core sur Azure, les entreprises auront accès aux performances, à la polyvalence et à l’évolutivité nécessaires pour dynamiser leurs charges de travail de formation et d’inférence en IA. Ce nouveau partenariat rationalise le développement et le déploiement de l’IA de production avec la suite logicielle NVIDIA AI Enterprise intégrée à Azure Machine Learning pour MLOps, et offre des performances d’IA record dans les bancs d’essai MLPerf standard.

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.