Le développement de l’IA devrait être jusqu’à 1 000 fois plus économe en énergie.
La demande mondiale en puissance de calcul de l’IA oblige les centres de données à consommer de l’électricité à des taux et des volumes énormes. Des scientifiques de l'Université du Minnesota tentent de résoudre ce problème et semblent avoir trouvé une solution.
Les scientifiques ont conçu un nouveau prototype de puce « mémoire vive informatique » (CRAM) qui pourrait réduire les besoins énergétiques des applications d'IA jusqu'à 1 000 fois (ou plus) par rapport aux méthodes actuelles. Dans une simulation, la technologie CRAM a montré d’incroyables économies d’énergie allant jusqu’à 2 500 fois.
L'informatique traditionnelle s'appuie sur le modèle de von Neumann, vieux de plusieurs décennies, avec des unités de processeur et de mémoire séparées. Cela nécessite d’envoyer constamment des données dans un sens et dans l’autre, dans le cadre d’un processus assez gourmand en énergie. L'équipe du Minnesota a entièrement reconstruit ce modèle, en effectuant des calculs directement en mémoire et en utilisant des « dispositifs spintroniques » appelés « jonctions tunnel magnétiques » (MTJ).
Au lieu de compter sur des charges électriques pour stocker les données, les dispositifs spintroniques utilisent le spin des électrons, offrant ainsi un substitut plus efficace aux circuits à transistors traditionnels.
La nouvelle méthode fonctionne. CRAM peut gâcher beaucoup de choses
« En tant que base informatique numérique en mémoire extrêmement économe en énergie, la CRAM est très flexible car les calculs peuvent être effectués n'importe où dans la matrice mémoire. Cela nous permet de configurer la CRAM pour qu'elle réponde au mieux aux besoins de performances de divers algorithmes d'IA », a déclaré Ulya Karpuzcu. , co-auteur de l'article dans Nature. Il a ajouté que la CRAM est plus économe en énergie que les éléments constitutifs traditionnels des systèmes d'IA actuels.
En éliminant les transferts de données gourmands en énergie entre la logique et la mémoire, les technologies CRAM comme ce prototype pourraient s'avérer essentielles pour augmenter considérablement l'efficacité énergétique de l'IA à une époque où ses besoins énergétiques montent en flèche.
L'Agence internationale de l'énergie a prédit en mars de cette année que la consommation mondiale d'électricité pour la formation de modèles LLM et les applications d'IA pourrait plus que doubler, passant de 460 térawattheures en 2022 à plus de 1 000 térawattheures en 2026. C'est presque autant que l'ensemble du Japon consomme.
Les chercheurs ont déclaré dans un communiqué de presse que les bases de cette avancée, appelée CRAM, étaient en préparation depuis plus de 20 ans, remontant aux travaux pionniers du professeur d'ingénierie Jian-Ping Wang dans l'utilisation des nanodispositifs MTJ pour l'informatique.
Wang a admis que les propositions initiales visant à rejeter le modèle de von Neumann avaient été considérées comme « folles » il y a vingt ans. Mais l'équipe du Minnesota a persévéré, en s'appuyant sur les recherches brevetées de Wang sur la MRAM, qui trouvent désormais leur place dans les montres intelligentes et autres systèmes embarqués.
Bien entendu, comme pour toute avancée de ce type, les chercheurs doivent encore surmonter les défis liés à l’évolutivité, à la fabrication et à l’intégration avec le silicium existant. Ils prévoient déjà des collaborations de démonstration avec des leaders de l'industrie des semi-conducteurs pour contribuer à faire de la CRAM une réalité commerciale.