NVIDIA présente le H200, le premier GPU à utiliser la mémoire HBM3e

À l’occasion du salon SC23 qui se déroule jusqu’à vendredi prochain, NVIDIA a annoncé que le H200 serait disponible auprès des fabricants de systèmes et des fournisseurs de services cloud à partir du deuxième trimestre 2024. La société a en outre confirmé que Jupiter, le premier supercalculateur exascale d’Europe, serait alimenté par sa super puce GH200 Grace Hopper qui sera d’ailleurs déployée dans d’autres supercalculateurs.

Lors de l’évènement, Nvidia a annoncé l’introduction de NVIDIA HGX™ H200, une plateforme de calcul accéléré pour l’intelligence artificielle et le calcul haute performance. Elle est basée sur l’architecture NVIDIA Hopper™ et intègre le GPU NVIDIA H200 pour traiter des quantités massives de données.

Le NVIDIA H200 est le premier GPU à offrir HBM3e, une mémoire 50% plus rapide que le HBM3, pour alimenter l’accélération de l’IA générative et des grands modèles de langage, tout en faisant progresser le calcul scientifique pour les charges de travail HPC.

L’introduction du H200 a ainsi permis de pratiquement doubler la vitesse d’inférence de Llama 2, le LLM de Meta, par rapport à son prédécesseur, le H100. Des performances supplémentaires et des améliorations sont attendues avec les futures mises à jour logicielles du processeur.

Il arrivera sur le marché après le GPU Instinct MI300X d’AMD, une version optimisée de l‘APU MI300A, qui alimentera le supercalculateur El Capitan de plus de deux exaflops au Laboratoire National Lawrence Livermore du département de l’Énergie des États-Unis. Il conservera toutefois un avantage par rapport à celui-ci grâce à la mémoire HBM3e.

Un GPU pour les centres de calcul intensif d’IA de nouvelle génération

Les performances du H200 lui permettent d’être déployé dans tous les types de centres de données, y compris sur site, dans le cloud, dans le cloud hybride et en périphérie.

Amazon Web Services, Google Cloud, Microsoft Azure et Oracle Cloud Infrastructure seront parmi les premiers fournisseurs de services cloud à l’intégrer l’année prochaine, tout CoreWeaveLambda et Vultr.

Le centre allemand de calcul intensif de Jülich utilisera des super puces GH200, qui combinent les architectures CPU Nvidia Grace et GPU Hopper basées sur Arm, via la technologie d’interconnexion Nvidia NVLink-C2C à bande passante élevée, faible latence et faible consommation, pour JUPITER. D’autres grands centres ont annoncé lors du SC23 qu’ils en feraient de même pour leurs supercalculateurs, notamment :

  • Le Texas Advanced Computing Center, de l’Université d’Austin, pour Vista, l’un des supercalculateurs les plus puissants au monde, capable de réaliser plus de 40 pétaflops, soit 40 millions de milliards de calculs par seconde ;
  • Le National Center for Supercomputing Applications de l’Université de l’Illinois Urbana-Champaign pour alimenter DeltaAI, qui lui permettra de tripler sa capacité de calcul axée sur l’IA ;
  • L’Université de Bristol pour Isambard-AI, qui deviendra le supercalculateur le plus puissant du Royaume-Uni. En cours de construction par HPE, il sera équipé de plus de 5 000 Nvidia GH200 Grace Hopper, fournissant 21 exaflops de puissance de calcul de l’IA.
Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.