Par , publié le 20 mars 2025

Le lieu n’a pas changé, la forte affluence non plus. Mais le climat, lui, est bien différent. Finie l’euphorie autour de l’intelligence artificielle générative qui avait accompagné la précédente édition de la GTC, la conférence annuelle organisée par Nvidia. L’heure est désormais aux premiers doutes, comme le montre la chute de l’action de la société de Santa Clara depuis son plus haut historique touché début janvier. Le déploiement plus lent qu’espéré de la technologie dans les entreprises et les récentes avancées de la start-up chinoise DeepSeek posent en effet la question de la poursuite du rythme effréné d’investissements dans les data centers. Et en particulier dans les cartes graphiques (GPU) de Nvidia, nécessaires pour entraîner et faire tourner les modèles d’IA. “Nous sommes à un point d’inflexion”, rétorque Jensen Huang, son patron.

1.000 milliards de dollars – “Quasiment tout le monde se trompe, a-t-il poursuivi lors de la keynote d’ouverture de la GTC. La puissance de calcul dont nous avons besoin est au moins 100 fois plus élevée que nous ne le pensions l’an passé”. Pour justifier son optimisme, il cite l’émergence des modèles de raisonnement, qui réfléchissent pour répondre à des questions plus poussées. Et celle des agents IA, capables de remplir, sans aucune intervention humaine, des missions complexes en les découpant en plusieurs tâches. Ces avancées se traduisent par des calculs supplémentaires. Jensen Huang écarte ainsi un ralentissement des investissements. Au contraire, les dépenses dans les data centers vont encore s’accélérer pour dépasser “très bientôt” les 1.000 milliards de dollars – contre 455 milliards en 2024, selon les estimations du cabinet Dell’Oro.

Une puce par an – Pour preuve, ajoute Jensen Huang, les quatre principales plateformes de cloud ont déjà commandé 3,6 millions de nouveaux GPU Blackwell, contre 1,4 million de GPU Hopper en 2024. Lancées en fin d’année, avec quelques mois de retard, les superpuces Blackwell – composées de deux GPU et d’un CPU – ne représentent pas seulement un bond significatif de puissance par rapport à la génération précédente, permettant à Nvidia de reprendre ses distances sur ses concurrents. Elles marquent aussi le point de départ d’une feuille de route visant à doubler le rythme d’innovation, avec un nouveau modèle par an. Mardi, le patron de Nvidia a ainsi confirmé que la version Ultra de Blackwell sera commercialisée au deuxième semestre. Celle-ci doit notamment améliorer les performances pour l’entraînement et l’inférence des modèles de raisonnement

Menaces – Calendrier entériné également pour la prochaine architecture Rubin, qui représentera un “énorme pas en avant”. Elle est attendue en 2026, avant une version Ultra l’année suivante. Celle-ci proposera alors une superpuce composée de quatre GPU, et non plus de deux. Prenant encore un peu plus d’avance, Jensen Huang a aussi révélé le nom de la génération qui sera lancée en 2028: Feynman. Cette feuille de route, globalement sans surprise, ne semble pas encore avoir rassuré les investisseurs de Wall Street, toujours secoués par le séisme provoqué fin janvier par DeepSeek. D’autant plus que deux autres menacent se profilent. D’une part, de potentiels droits de douane additionnels sur les GPU de Nvidia, gravés à Taïwan par TSMC. Ensuite, un possible renforcement des restrictions d’exportation vers la Chine, qui reste l’un de ses premiers marchés.

Pour aller plus loin:
– Nvidia dédramatise après les avancées de DeepSeek
– Malgré un nouveau GPU, les doutes s’accumulent autour de Nvidia


No Comments Yet

Comments are closed

Contactez-nous  –  Politique de confidentialité