En mars de cette année Nvidia a présenté les systèmes Blackwell, qui doivent remplacer le populaire H100. Ce sont des puces conçues pour gérer les tâches et la formation de l'IA. Initialement, les prix de Blackwell étaient gardés secrets, mais des informations ont progressivement commencé à émerger. Nous savons désormais que les entreprises souhaitant développer l’IA à l’aide de ces puces devront puiser profondément dans leurs poches.

Morgan Stanley estime que Nvidia en enverra entre 60 000 et 70 000. B200 (Blackwell) en 2025. Cela se traduira par au moins 210 milliards de dollars de revenus annuels. Malgré leur coût élevé, la demande pour ces puissants serveurs d’IA reste très élevée.

Vérifiez également : Google Pin

Nvidia gagnera de l'argent grâce à l'IA

Nvidia aurait investi environ 10 milliards de dollars dans le développement de la plate-forme Blackwell, un effort qui a mobilisé 25 000 personnes. Bien entendu, le savoir-faire et les capacités de Nvidia sont uniques, il ne faut donc pas s'étonner que l'entreprise s'attende à des prix aussi élevés.

Selon les analystes de HSBC, le système serveur NVL36 GB200 de Nvidia coûtera 1,8 million de dollars et le NVL72 3 millions de dollars. Le Superchip GB200, plus puissant, qui combine le CPU et le GPU, devrait coûter entre 60 000 et 70 000 dollars chacun. Ces Superchips contiennent deux GPU GB100 et une puce Grace Hopper, pris en charge par un grand pool de mémoire système (HBM3E).

Plus tôt cette année, le PDG Jensen Huang a déclaré à CNBC que les GPU Blackwell coûteraient entre 30 000 et 40 000 dollars par unité, et sur la base de ces informations, Morgan Stanley a calculé le coût total pour les acheteurs.

Chaque rack de serveur AI est évalué entre 2 et 3 millions de dollars. Nvidia prévoit d’en expédier 60 000 à 70 000. Les racks de serveurs B200, d'où les revenus annuels estimés à au moins 210 milliards de dollars.

Lire aussi : Antivirus pour votre téléphone

Est-ce que cela sera un jour payant ?

Mais les dépenses des clients le justifieront-elles un jour ? L'analyste de Sequoia Capital, David Cahn, estime que les revenus annuels de l'IA nécessaires pour couvrir ces investissements s'élèvent à 600 milliards de dollars… par an.

Pour l’instant, il ne fait aucun doute que les entreprises paieront ce prix, aussi élevé soit-il. Le B200, doté de 208 milliards de transistors, peut fournir jusqu'à 20 pétaflops de puissance de calcul FP4. Entraîner un modèle avec 1 800 milliards de paramètres nécessiterait 8 000 GPU Hopper, consommant 15 mégawatts d’énergie.

Une telle tâche nécessiterait 2 000 GPU Blackwell, ne consommant que quatre mégawatts. La superpuce GB200 offre des performances 30 fois plus rapides que le GPU H100 pour les grandes charges de travail d'inférence de modèles de langage et réduit considérablement la consommation d'énergie.

En raison de la forte demande, Nvidia augmente ses commandes auprès de TSMC d'environ 25 %. Il n'est pas exagéré de dire que Blackwell – conçu pour alimenter une gamme d'applications de nouvelle génération, notamment la robotique, les voitures autonomes, les simulations d'ingénierie et les produits de santé – deviendra la norme de facto pour la formation en IA.

A lire également