NVIDIA est surtout connu pour ses processeurs graphiques ou GPU, qui sont utilisés pour les jeux vidéo et les tâches de calcul intensif dans les centres de données, et non pour les CPU qui, en revanche, sont un type de puce plus généraliste et peuvent effectuer des tâches de base comme l'exécution de systèmes d'exploitation. Mais cela a changé maintenant. NVIDIA a dévoilé ses premiers microprocesseurs pour serveurs, s'attaquant ainsi au marché le plus lucratif d'Intel – que la société domine à plus de 90 %, selon une étude publiée en février par Mercury Research - avec une puce destinée à gérer les tâches informatiques les plus complexes.
L'expansion dans cette catégorie de produits ouvre de nouvelles possibilités de revenus pour NVIDIA. Par ailleurs, suite à l'annonce par NVIDIA de son intention de fabriquer son propre processeur de serveur, l’action de la société a bondi tandis que l'action d'Intel a clôturé en baisse de 4,18 % lundi, a rapporté CNBC. L'action de NVIDIA a encore progressé, pour atteindre un gain d'environ 6 %, après que la société a déclaré que le revenu du premier trimestre était supérieur à ses prévisions précédentes.
L'ajout de processeurs à sa gamme - des puces qui peuvent être programmées pour traiter un plus large éventail de tâches - pousse le fabricant américain de puces plus loin dans l'informatique des centres de données et fait suite à l'offre de l'année dernière sur la société de conception de processeurs Arm. Avec d'autres technologies annoncées à l’occasion de l’ouverture de la conférence GTC qui se tiendra jusqu’au vendredi prochain, la nouvelle puce "creuse l'écart" en matière de traitement de l'IA entre NVIDIA et les autres fabricants de puces, y compris Intel, a déclaré Chirag Dekate, analyste chez Gartner.
La nouvelle puce, baptisée "Grace" - en l'honneur de Grace Hopper, pionnière de la programmation informatique -, combine un certain nombre de GPU et de CPU basés sur Arm pour produire un ensemble capable de gérer les calculs d'apprentissage automatique les plus avancés. Les systèmes fonctionnant avec cette nouvelle puce seront 10 fois plus rapides que ceux qui utilisent actuellement une combinaison de puces graphiques Nvidia et de CPU Intel, d’après la société.
« Le résultat est que NVIDIA est sérieux en ce qui concerne les CPU et ne sera pas limité par les X86 détenus par Intel et AMD », a déclaré Hans Mosesmann, analyste chez Rosenblatt Securities, dans une note de recherche. « Le niveau d'innovation de la plateforme est époustouflant et c'est quelque chose que les concurrents en puces auront la tâche d'égaler pendant de nombreuses, nombreuses années à venir ».
Le chiffre d'affaires du trimestre se terminant en avril est supérieur aux 5,3 milliards de dollars que NVIDIA avait prévus le 24 février, avec une surperformance sur chacune de ses plateformes de marché, a indiqué lundi la société dans un communiqué distinct.
« Nous connaissons une force généralisée, toutes nos plateformes de marché entraînant une hausse de nos perspectives initiales », a déclaré Colette Kress, directrice financière de NVIDIA. « La demande globale reste très forte et continue de dépasser l'offre, tandis que les stocks de nos canaux restent assez faibles. Nous prévoyons que la demande continuera à dépasser l'offre pendant une grande partie de cette année ».
Une technologie également destinée aux systèmes de traitement du langage naturel
Dans son discours d'ouverture de la GTC 2021, Jensen Huang, PDG de NVIDIA, a qualifié "Grace" de « pièce finale du puzzle » et a dit qu'elle donnerait à l'entreprise la « capacité de réarchitecturer chaque aspect du centre de données pour l'IA ».
Avec l'introduction des CPU dans le portefeuille de NVIDIA, Huang a déclaré que sa feuille de route de produits pour les centres de données sera désormais constituée de trois lignes de produits - GPU, unités de traitement de données (DPU) et CPU - et que chaque ligne de produits recevra une architecture actualisée tous les deux ans. Dans une nouvelle feuille de route, NVIDIA a montré qu'un CPU "Grace" de nouvelle génération devrait sortir vers 2025, après la sortie d'un GPU Ampere de troisième génération et d'un DPU BlueField-4 l'année précédente.
Selon Huang, la société se concentrera alternativement sur les plateformes x86 et Arm tous les deux ans, car NVIDIA veut s'assurer que son architecture supportera les plateformes préférées des clients. « Chaque architecture de puce a un rythme de deux ans, avec probablement un coup de pouce entre les deux », a-t-il déclaré. « Une année se concentrera sur les plateformes x86. Une année sera consacrée aux plateformes Arm ».
L'entreprise de Santa Clara, en Californie, a déclaré qu'elle avait déjà trouvé deux clients importants pour son processeur Grace : le Centre national suisse de calcul intensif (CSCS) et le Laboratoire national de Los Alamos du ministère américain de l'Energie, qui prévoient tous deux de mettre en ligne des superordinateurs alimentés par "Grace" et construits par Hewlett Packard Enterprise en 2023.
La première utilisation de la nouvelle puce est prévue dans le domaine scientifique avec les premiers clients annoncés. Cependant, Paresh Kharya, directeur principal de la gestion des produits de calcul accéléré de NVIDIA, a déclaré que la technologie était également destinée aux systèmes de traitement du langage, l'une des tâches les plus difficiles de l'IA, et un domaine qui est devenu le centre d'une concurrence intense entre les plus grandes plateformes technologiques.
Signe de la valeur commerciale croissante des systèmes de langage avancés, Microsoft a accepté lundi de payer près de 20 milliards de dollars pour Nuance Communications, spécialisée dans l'IA et la reconnaissance vocale pour les soins de santé.
Selon Kharya, les processeurs qui font la navette entre les données et les GPU spécialisés qui effectuent le gros du travail de formation des modèles d'IA sont devenus le goulot d'étranglement des systèmes d'IA les plus exigeants. En utilisant ses propres puces, basées sur les conceptions d'Arm, NVIDIA pense pouvoir accélérer le flux de données et obtenir une efficacité dix fois supérieure.
Le Centre national suisse de calcul intensif fournit des calculs scientifiques. Kharya a déclaré que le supercalculateur Alps du CSCS sera capable d'entraîner GPT-3, le plus grand modèle de traitement du langage naturel au monde, en seulement deux jours. C'est sept fois plus rapide que le superordinateur Selene de NVIDIA, qui est actuellement classé n° 5 dans le top 500 des superordinateurs du monde.
« Cette architecture équilibrée avec "Grace" et un futur GPU NVIDIA, que nous n'avons pas encore annoncé, permettra une recherche révolutionnaire dans un certain nombre de domaines différents en leur permettant de combiner la puissance à la fois du HPC et de l'IA, faisant progresser le climat et la météo, faisant progresser les sciences des matériaux, la dynamique moléculaire ainsi que l'économie et les études sociales », a-t-il déclaré.
NVIDIA présente le nouveau CPU aux propriétaires de centres de données - des hyperscalers comme AWS d'Amazon.com Inc. et Google d'Alphabet Inc. - comme un moyen d'exploiter plus efficacement les logiciels d'intelligence artificielle et d'améliorer la capacité à donner un sens au flux de données qu'ils reçoivent.
La formation d'un programme à l'aide d'un trillion (1000 milliards) de points de données peut prendre jusqu'à un mois actuellement. "Grace" réduira ce délai à trois jours, selon Ian Buck, un vice-président de NVIDIA. Pour les utilisateurs finaux des services Cloud, cela conduira à des ordinateurs capables de comprendre le langage humain naturel et de rendre l'aide automatisée en ligne beaucoup plus efficace, a-t-il ajouté.
NVIDIA, qui a du mal à faire face à la demande croissante sur le marché des GPU, se lance maintenant dans la course sur le marché féroce des CPU. Espérons que le fabricant de cartes graphiques à la capacité de faire face à la concurrence tout en tenant le marché des GPU.
NVIDIA a révélé son intention d'aller plus loin dans le traitement des centres de données lorsqu'elle a annoncé l'achat d'Arm pour un montant pouvant atteindre 40 milliards de dollars l'année dernière, bien que l'opération soit actuellement confrontée à des obstacles réglementaires. Mais sa nouvelle puce est le produit d'un travail qui remonte à bien plus loin, et NVIDIA a signalé pour la première fois son intérêt pour le marché en 2019 lorsqu'elle a déclaré qu'elle adapterait tous ses logiciels pour qu'ils fonctionnent sur les processeurs Arm.
La poussée de l'entreprise plus profondément dans l'informatique des centres de données a soulevé le risque de conflit avec certains de ses propres clients, qui conçoivent leurs propres CPU. Parmi eux, Amazon, qui a développé une puce Arm très puissante, connue sous le nom de Graviton, pour l'utiliser dans Amazon Web Services.
Pour l'instant, la poussée de NVIDIA dans le très haut de gamme des systèmes d'IA signifie qu'elle se trouve encore sur un marché différent de celui de clients tels qu'Amazon, a déclaré Dekate de Gartner. Signe que les deux camps sont encore capables de travailler ensemble, NVIDIA a également annoncé lundi un accord avec Amazon pour offrir aux clients d'AWS son GPU d’apprentissage machine fonctionnant sur des puces Graviton.
Source : Vidéo YouTube
Et vous ?
Que pensez-vous du processeur de NIVIDIA basé sur la technologie Arm ?
La nouvelle puce annonce-t-elle une domination de NVIDIA sur le marché des CPU pour centres de données ?
Voir aussi :
NVIDIA amorce le rachat d'Arm Holdings auprès de Softbank pour 40 milliards de dollars. L'opération devrait s'achever d'ici mars 2022, sous réserve de l'approbation des autorités réglementaires
Le projet de SoftBank de vendre Arm à NVIDIA se heurte au mur antitrust dans le monde entier, le fabricant de puces américain étant en concurrence directe avec des clients d'Arm
Microsoft confirme l'acquisition de la société d'IA, Nuance Communications, pour près de 20 milliards $, soit la plus importante acquisition après LinkedIn
Amazon dévoile sa seconde génération de puces Arm 64 bits conçue en interne et ciblant l'infrastructure Cloud, l'entreprise confirme aussi sa volonté de réduire sa dépendance vis-à-vis du géant Intel