C’est un subterfuge popularisé l’an passé par Microsoft dans lequel Nvidia s’est engouffré à son tour. Fin décembre, le géant américain des cartes graphiques a officialisé un “accord de licence non exclusif” avec Groq, une start-up américaine spécialisée dans les puces dédiées à l’inférence des modèles d’intelligence artificielle générative. Derrière cette formulation se cache en réalité une acquisition déguisée, destinée à mettre la main sur des technologies et des équipes d’ingénieurs, tout en contournant un possible veto des autorités de la concurrence.
Ainsi structuré, l’accord ne nécessite en effet pas de feu vert préalable. Il n’est toutefois pas exclu que certains régulateurs antitrust se penchent sur le dossier. L’an passé, la FTC américaine, la Commission européenne et la CMA britannique avaient étudié le partenariat entre Microsoft et Inflection. Si la première n’a pas encore rendu son verdict, ses deux consœurs ont finalement estimé que tout était en règle. Le montant et les enjeux semblent néanmoins plus importants dans le cas de Nvidia. Mais de telles procédures prendront de toute façon des années avant de se concrétiser.
90% des employés chez Nvidia
Selon la presse américaine, Nvidia va verser 20 milliards de dollars à Groq. L’essentiel de cette somme reviendra à ses investisseurs, leur assurant une belle plus-value – lors de sa dernière levée de fonds, en septembre, la start-up n’était valorisée qu’à 6,9 milliards. Surtout, environ 90% des employés, dont le fondateur et patron Jonathan Ross, vont rejoindre le groupe de Santa Clara. Si l’entreprise assure qu’elle continuera à opérer “de manière indépendante”, elle cherche déjà à céder le reste de ses actifs, notamment sa plateforme de cloud, rapporte le Wall Street Journal.
Fondée en 2016 par d’anciens ingénieurs de Google ayant participé à la conception du premier TPU, la puce d’IA du moteur recherche, Groq est longtemps restée dans l’anonymat. À plusieurs reprises, la start-up a même frôlé la faillite. L’essor de l’IA générative lui a cependant permis de changer de dimension, s’imposant comme l’un des nouveaux acteurs ambitionnant de rivaliser avec Nvidia, dont les GPU demeurent la référence du marché. Depuis l’été 2024, Groq a ainsi levé 1,4 milliard de dollars, des fonds qui lui ont notamment permis de construire ses propres data centers.
Puces dédiées à l’inférence
Face à Nvidia, Groq ciblait spécifiquement le marché de l’inférence, c’est-à-dire la phase d’exécution des modèles d’IA pour générer textes, images ou vidéos. Ce processus requiert beaucoup moins de puissance de calcul que l’entraînement, mais il s’effectue encore largement sur les mêmes GPU. Avec sa puce spécialisée, qu’elle appelle LPU (unité de traitement du langage), la société promettait des performances nettement supérieures: une vitesse d’exécution dix fois plus élevée, pour des réponses plus rapides, et une consommation d’énergie divisée par dix.
L’accord avec Groq symbolise une prise de conscience chez Nvidia: la demande pour des puces exclusivement dédiées à l’inférence est en forte croissance, en particulier pour réduire les investissements et les coûts d’exploitation. En septembre, le groupe a ainsi présenté un GPU spécialement conçu pour cette tâche, dont le lancement est prévu fin 2026. Ce modèle reposait toutefois encore sur une architecture similaire à celle de ses autres accélérateurs. Nvidia prévoit désormais d’intégrer l’architecture développée par Groq à sa propre gamme de produits.
Contrer Google ?
La société dirigée par Jensen Huang fait ainsi d’une pierre deux coups. D’une part, elle fait disparaître un concurrent qui aurait pu représenter une menace, même si sa première génération de puces n’offre pas nécessairement les performances promises. D’autre part, elle acquiert des compétences technologiques et des brevets qui doivent lui permettre de proposer des modèles parmi les plus performants sur l’inférence, contrant ainsi ceux de Cerebras ou Sambanova. Mais aussi les prochains TPU Ironwood, conçus selon Google pour “l’ère de l’inférence”.
De fait, le timing de l’opération n’est peut-être pas anodin. Fin novembre, le site The Information expliquait que le groupe de Mountain View souhaite désormais vendre ses TPU, jusqu’à présent exclusivement déployés dans ses propres data centers, pour ses besoins internes et ceux des clients de sa plateforme de cloud. Meta pourrait ainsi être l’un des premiers acheteurs, intégrant les puces de son rival dans ses infrastructures à partir de 2027. Les dirigeants de Google estimeraient pouvoir capter 10% d’un marché aujourd’hui largement dominé par Nvidia.
Pour aller plus loin:
– Ces start-up qui rêvent de rivaliser avec Nvidia dans l’IA
– Quand Nvidia se défend d’être le nouvel Enron

