Les tests de référence menés par MLCommons ont montré que la plate-forme matérielle Nvidia (principalement des GPU, bien sûr) est la mieux adaptée à la formation de modèles d'IA.

Il s'agit du benchmark MLPerf 4.0, qui a examiné les performances des plateformes de formation développées par 17 entreprises. Le benchmark a également montré que les dernières plateformes de machine learning fonctionnent beaucoup plus efficacement que celles testées lors de la précédente édition du classement. Et seulement six mois se sont écoulés depuis, ce qui prouve à quel point ce segment du traitement des données se développe de manière dynamique.

Ainsi, les dernières plateformes d’apprentissage automatique fonctionnent presque deux fois plus vite que celles testées il y a six mois. En si peu de temps, l'augmentation impressionnante des performances prouve que les entreprises spécialisées dans la formation de modèles linguistiques d'IA ne se sont pas endormies sur les cendres et ont fait d'énormes progrès dans ce domaine.

Le grand gagnant, voire incontesté, des tests est Nvidia, qui a établi de nouveaux records de performances dans cinq catégories d'évaluation (il y en avait neuf au total). Le plus impressionnant peut-être est que les nouveaux records ont été établis en grande partie en utilisant les mêmes plates-formes matérielles sous-jacentes que celles utilisées par Nvidia il y a un an.

Dans le cas du processus graphique H100, Nvidia a utilisé de nombreuses techniques innovantes pour améliorer les performances de formation. Diverses techniques incluent l'optimisation de la pile complète, un chevauchement amélioré entre l'exécution des mathématiques et de la communication et une allocation intelligente de la puissance du GPU. Tout cela signifie que la plateforme de formation de Nvidia est supérieure aux solutions concurrentes.

A lire également