La CRAM, une technologie de mémoire innovante pour des applications d’IA moins énergivores

Des chercheurs en ingénierie de l’Université du Minnesota à Twin Cities ont dévoilé une avancée technologique majeure qui pourrait transformer le paysage de l’IA : un nouveau dispositif de mémoire, baptisé CRAM (mémoire vive computationnelle), qui pourrait réduire la consommation d’énergie des systèmes d’IA d’un facteur impressionnant de 1 000, tout en maintenant des performances optimales. Leurs travaux ont été publiés dans npj Unconventional Computing, une revue scientifique à comité de lecture publiée par Nature. 

Cette innovation est le fruit de plus de deux décennies de recherche et s’attaque directement à l’un des plus grands défis des systèmes informatiques actuels : la consommation d’énergie liée au transfert constant de données entre la mémoire et la logique de traitement. En effet, les architectures informatiques traditionnelles, basées sur le modèle de von Neumann, nécessitent de nombreux transferts de données énergivores pour traiter l’information. Le CRAM brise cette barrière en permettant de traiter les données directement dans la mémoire, éliminant ainsi ces transferts coûteux.

Jian-Ping Wang, auteur principal de l’article et professeur distingué McKnight et titulaire de la chaire Robert F. Hartmann au département de génie électrique et informatique de l’Université du Minnesota, commente :

“Notre concept initial d’utiliser directement les cellules de mémoire pour l’informatique il y a 20 ans était considéré comme fou”.

Yang Lv, chercheur postdoctoral à l’Université du Minnesota et premier auteur de l’article ajoute :

“Ce travail est la première démonstration expérimentale de la CRAM, où les données peuvent être entièrement traitées dans le réseau de mémoire sans avoir besoin de quitter la grille où un ordinateur stocke des informations”.

Une technologie de pointe basée sur la spintronique

Le cœur de cette innovation réside dans l’utilisation des jonctions à tunnel magnétique (MTJ), une technologie de spintronique qui exploite le spin des électrons au lieu de leur charge électrique pour stocker des données. Les MTJ sont des dispositifs nanostructurés utilisés pour améliorer les disques durs, les capteurs et d’autres systèmes microélectroniques, y compris la mémoire magnétique à accès aléatoire (MRAM), qui a été utilisée dans des systèmes embarqués tels que les microcontrôleurs et les montres intelligentes. Cette approche non seulement réduit la consommation d’énergie, mais augmente également la vitesse de traitement et la robustesse du système dans des environnements difficiles.

Ulya Karpuzcu, expert en architecture informatique, co-auteur de l’article et professeur agrégé au département de génie électrique et informatique de l’Université du Minnesota, explique :

“En tant que substrat de calcul numérique en mémoire extrêmement économe en énergie, la CRAM est très flexible dans la mesure où le calcul peut être effectué à n’importe quel endroit de la baie de mémoire. En conséquence, nous pouvons reconfigurer la CRAM pour qu’elle corresponde au mieux aux besoins de performance d’un ensemble diversifié d’algorithmes d’IA”.

Il ajoute:

“Il est plus économe en énergie que les blocs de construction traditionnels des systèmes d’IA d’aujourd’hui. La CRAM effectue des calculs directement dans les cellules de mémoire, en utilisant efficacement la structure du réseau, ce qui élimine le besoin de transferts de données lents et énergivores”.

Selon les chercheurs, un accélérateur d’inférence d’apprentissage automatique basé sur la CRAM permet d’obtenir une amélioration de l’ordre de 1 000. Ils ont démontré que la CRAM peut accomplir des tâches essentielles pour l’IA, telles que l’addition scalaire et la multiplication matricielle, en seulement 434 nanosecondes, avec une consommation énergétique de seulement 0,47 microjoule. Ce qui représente une économie d’énergie environ 2 500 fois supérieure par rapport aux systèmes de mémoire conventionnels, qui séparent les composants logiques et de mémoire.

Un effort collaboratif de longue haleine

L’équipe dirigée par le professeur Jian-Ping Wang, un pionnier dans le domaine des dispositifs MTJ, a travaillé sans relâche depuis 2003 pour concrétiser cette vision. Ce projet a réuni une équipe interdisciplinaire composée de spécialistes en physique, en science des matériaux, en informatique et en ingénierie, contribuant à des avancées significatives qui rendent aujourd’hui cette technologie prête à être intégrée dans des applications industrielles.

Implications et perspectives

Avec l’augmentation exponentielle de la demande en applications d’IA, l’impact potentiel de cette technologie est immense. Selon l’Agence internationale de l’énergie (AIE), la consommation d’énergie de l’IA pourrait atteindre 1 000 térawattheures (TWh) d’ici 2026, soit l’équivalent de la consommation annuelle d’électricité du Japon. L’adoption de la CRAM pourrait réduire de manière drastique cette consommation, rendant les systèmes d’IA plus durables et plus économes en énergie.

L’équipe envisage déjà de collaborer avec des leaders de l’industrie des semi-conducteurs pour produire à grande échelle ce nouveau matériel et intégrer cette technologie dans les prochaines générations de systèmes d’IA.

Un soutien solide pour une technologie pionnière

Ce projet a été soutenu par des institutions majeures telles que la Defense Advanced Research Projects Agency (DARPA), le National Institute of Standards and Technology (NIST), la National Science Foundation (NSF), et Cisco Inc. Les travaux ont également bénéficié des infrastructures de pointe du Minnesota Nano Center et du Minnesota Supercomputing Institute.

Références de l’article :

“Démonstration expérimentale de la mémoire à accès aléatoire computationnelle basée sur les jonctions tunnel magnétiques”.
npj Unconventional Computing https://doi.org/10.1038/s44335-024-00003-3, publié le 25/07/2024

Auteurs : Yang Lv, Brandon R. Zink, Robert P. Bloom, Hüsrev Cılasun, Pravin Khanal, Salonik Resch, Zamshed Chowdhury, Ali Habiboglu, Weigang Wang, Sachin S. Sapatnekar, Ulya Karpuzcu, Jian-Ping Wang.

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
1 an d'abonnement au magazine de référence sur l'IA pour 27,60€ Boutique ActuIA Recherche, Business, Impact : Restez à la page en matière d'intelligence artificielle.
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.