Microsoft optimise Azure avec ses propres puces d’IA

C’est lors de sa Conférence Ignite que Microsoft a annoncé le lancement de Microsoft Azure Maia, une puce d’accélération d’IA et celui de Microsoft Azure Cobalt, une puce cloud-native basée sur l’architecture Arm, toutes deux développées en interne.

La pénurie de puces et la totale dépendance à des fournisseurs comme Nvidia ou AMD ont amené la société à développer elle-même des puces spécialisées pour répondre à la demande croissante dans le domaine de l’IA.

Dans son blog, Jake Siegel écrit :

“Les puces représentent une dernière pièce du puzzle pour Microsoft afin de fournir des systèmes d’infrastructure – qui comprennent tout, des choix de silicium, des logiciels et des serveurs aux racks et aux systèmes de refroidissement – qui ont été conçus de fond en comble et peuvent être optimisés en tenant compte des charges de travail internes et des clients”.

L’accélérateur Maia 100 sera déployé dans les centres de données de Microsoft dès le début de l’année prochaine, alimentant initialement des services tels que Microsoft Copilot et Azure OpenAI Service. Cette puce, qui compte 105 milliards de transistors et est gravée en 5nm, permettra d’optimiser l’infrastructure Azure en termes de puissance, de performances, de durabilité ou de coût et d’offrir aux clients la flexibilité nécessaire.

Sam Altman, l’ex-PDG d’OpenAI qui vient d’être recruté par Microsoft, a déclaré :

“Depuis notre premier partenariat avec Microsoft, nous avons collaboré pour co-concevoir l’infrastructure d’IA d’Azure à chaque couche pour nos modèles et nos besoins de formation sans précédent. Nous avons été ravis lorsque Microsoft a partagé pour la première fois ses conceptions pour la puce Maia, et nous avons travaillé ensemble pour l’affiner et la tester avec nos modèles. L’architecture d’IA de bout en bout d’Azure, désormais optimisée jusqu’au silicium avec Maia, ouvre la voie à la formation de modèles plus performants et à la réduction de ces modèles pour nos clients”.

Pour sa part, le processeur Cobalt compte 128 cœurs et est basé sur l’architecture Arm Neoverse Compute Subsystems. Econome en énergie, il a été optimisé pour offrir une efficacité et des performances accrues dans les offres cloud Azure, comme Teams ou SQL Server.

Microsoft travaille déjà à la conception de la seconde génération de ces 2 puces.

Collaboration avec des partenaires industriels

En parallèle au développement de ses propres puces, Microsoft élargit ses partenariats industriels pour offrir davantage d’options d’infrastructure à ses clients. La société a présenté de nouvelles séries de machines virtuelles conçues pour les GPU NVIDIA, le H100 et très prochainement le H200 ainsi que des machines virtuelles accélérées AMD MI300X, intégrant le GPU Instinct MI300X, offrant ainsi plus de choix en termes de prix et de performances.

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.