Nvidia affirme que les GPU de la famille RTX effectuent des tâches d'IA plusieurs fois plus rapidement que les NPU présents dans de nombreux nouveaux ordinateurs portables. Il a raison?
Des ordinateurs équipés de processeurs d’IA (appelés NPU) capables d’effectuer des tâches liées à l’intelligence artificielle localement et hors ligne arrivent déjà sur le marché. AMD, Intel, Qualcomm et Apple font déjà la promotion ou se préparent à promouvoir les « ordinateurs IA ». Cependant, Nvidia a un avis différent.
Une présentation interne de Nvidia est récemment devenue virale, dans laquelle la société explique les avantages des GPU par rapport aux NPU (Neural Processing Units) pour exécuter des applications d'IA générative locales. Il convient de noter que le géant des cartes graphiques peut percevoir les NPU d'autres sociétés comme une menace, car ces systèmes prennent en charge les tâches associées au GPU.
Depuis l'introduction de Meteor Lake à la fin de l'année dernière, Intel a cherché à promouvoir les ordinateurs portables équipés de ces processeurs et de NPU intégrés en tant que nouvelle classe d'« ordinateurs IA » conçus pour effectuer des opérations GenAI sans dépendre de centres de données cloud massifs. Microsoft et Qualcomm prévoient de commercialiser davantage d'ordinateurs IA plus tard cette année, et Apple prévoit de rejoindre la tendance en 2024 avec ses prochains processeurs M4 et A18 Bionic. AMD dispose également déjà de systèmes appropriés de la famille Ryzen.
Nvidia estime que ses cartes graphiques RTX, disponibles sur le marché depuis 2018, sont bien mieux adaptées aux tâches d'IA. Cela suggère que les NPU sont inutiles et que des millions d’« ordinateurs IA » seront en réalité déjà en circulation.
L'IA sur GPU est meilleure que sur NPU ?
Microsoft affirme que des performances d'IA atteignant 40 000 milliards d'opérations par seconde (TOPS) seront nécessaires pour les ordinateurs IA de nouvelle génération, mais la présentation de Nvidia affirme que les GPU RTX atteignent déjà 100 à 1 300 TOPS. Le fabricant de GPU a déclaré que les puces telles que les cartes graphiques RTX séries 30 et 40 actuellement disponibles sont d'excellents outils pour la création de contenu, la productivité, les chatbots et d'autres applications de modèle de langage étendu (LLM).
Pour de telles tâches, la GeForce RTX 4050 mobile surpasserait les processeurs M3 d'Apple, et la RTX 4070 de bureau atteint les « performances phares » d'Apple avec Stable Diffusion 1.5.
Pour mettre en valeur les capacités uniques de sa technologie, Nvidia a déployé une mise à jour majeure de ChatRTX. Propulsé par TensorRT-LLM de Nvidia, ce chatbot s'exécute localement sur n'importe quel ordinateur équipé d'un GPU RTX série 30 ou 40 avec un minimum de 8 Go de VRAM. ChatRTX se distingue par sa capacité à répondre aux requêtes dans plusieurs langues en recherchant des documents ou des playlists YouTube fournies par les utilisateurs. Il est compatible avec les formats pdf, doc, docx et XML.
De nombreux fabricants espèrent booster les ventes d’ordinateurs portables en proposant des « ordinateurs IA » bien meilleurs que ce que l’on trouve aujourd’hui sur le marché. Cependant, si Nvidia a raison, il se peut que de nombreuses personnes (propriétaires de cartes RTX modernes) n'aient aucune raison d'acheter du nouveau matériel : il leur suffit d'installer le logiciel approprié. Nous attendons les premiers tests indépendants.
