Par , publié le 16 novembre 2023

Dans la course à l’intelligence artificielle générative, Microsoft veut limiter sa dépendance aux cartes graphiques de Nvidia. Mercredi, le géant de Redmond a ainsi dévoilé son tout premier GPU conçu en interne. Baptisé Maia 100, celui-ci doit permettre d’entraîner et de faire tourner les derniers modèles d’IA, deux tâches qui requièrent une importante puissance de calcul. Et qui se traduisent par des coûts très élevés. Il n’a cependant pas vocation à remplacer les composants de Nvidia, considérés comme les plus performants du marché, mais plutôt d’accompagner l’explosion attendue de la demande, alors que les services de génération de textes ou d’images sont appelés à se généraliser. L’objectif est double: abaisser une facture qui commence à grimper et se mettre à l’abri de ruptures de stock.

Testés par OpenAI – Le groupe américain travaille depuis quatre ans sur cette puce dédiée à l’IA, sous la direction notamment de Rani Borkar, une ancienne dirigeante d’Intel. Mais le projet, connu jusqu’à présent sous l’appellation Athena, est passé à la vitesse supérieure après le lancement en fanfare du robot conversationnel ChatGPT, entraîné sur un supercalculateur de Microsoft qui a représenté un investissement de plusieurs centaines de millions de dollars. Les GPU Maia sont déjà testés par OpenAI, la start-up qui a conçu ChatGPT et qui compte Microsoft comme principal actionnaire. Ils sont testés en interne, pour faire tourner les services d’IA proposés par le moteur de recherche Bing et la suite bureautique Office. Et ils devraient être déployés à plus grande échelle l’an prochain sur l’offre de cloud Azure.

Dépendance risquée – Avec sa propre puce, l’éditeur de Windows espère sortir, au moins partiellement, d’une situation risquée de dépendance. Ces derniers mois, Nvidia a en effet bien du mal à répondre à la demande pour ses cartes graphiques dédiées – son carnet de commandes est déjà complet pour 2024. En être privé, même temporairement, pourrait retarder les efforts de Microsoft, au profit de ses concurrents. Mercredi, la société a d’ailleurs annoncé qu’elle allait aussi acheter des GPU d’IA conçus par AMD. Dans le même temps, le projet Athena présente deux autres avantages. D’abord, il doit offrir, à terme, des économies. Ensuite, il doit permettre d’optimiser les GPU avec les logiciels maison et de travailler sur des améliorations jugées prioritaires, sans attendre qu’elles ne soient apportées par Nvidia.

Comme Google – La stratégie de Microsoft n’est pas surprenante. Le groupe a déjà développé des puces pour les serveurs d’Azure. Surtout, il suit la voie ouverte par Google et Amazon, ses deux principaux rivaux sur les marchés de l’intelligence artificielle et du cloud. Dans le domaine, le moteur de recherche semble le plus avancé avec ses puces TPU. Celles-ci sont utilisées en interne depuis plusieurs années dans les projets d’IA, notamment pour les derniers modèles de langage. Elles sont aussi mises à disposition des clients de son offre de cloud. Même chose chez le géant du commerce en ligne, qui a conçu deux GPU, Trainium et Inferentia, dédiés à l’entraînement et à l’inférence (le processus de génération de contenus). Comme ses rivaux, Microsoft ne prévoit pas de vendre ses GPU à l’extérieur.

Pour aller plus loin:
Nvidia soupçonné de pratiques anticoncurrentielles
– Rival auto-proclamé de Nvidia, Graphcore est dans une situation critique


No Comments Yet

Comments are closed

Contactez-nous  –  Politique de confidentialité