Par , publié le 19 avril 2023

Dans sa course à l’intelligence artificielle générative, Microsoft ne veut plus être dépendant des cartes graphiques (GPU) de Nvidia. Selon le site The Information, le géant de Redmond travaille ainsi sur sa propre puce dédiée à l’IA. Baptisé Athena, le projet a débuté dès 2019. Il est toujours en phase de tests en interne, avant un déploiement à plus grande échelle espéré l’année prochaine. Ces composants ont vocation à être utilisés pour l’entraînement des modèles d’intelligence artificielle, qui permettent de créer des textes, des photos ou des mélodies. Et plus particulièrement ceux d’OpenAI, le concepteur du robot conversationnel ChatGPT, dont Microsoft est le principal actionnaire. L’objectif est double: abaisser une facture qui commence à grimper et se mettre à l’abri de ruptures de stock.

Centaines de millions de dollars – Concevoir, puis faire tourner, des IA génératives requièrent une immense puissance de calcul. Et les prochaines générations seront encore plus gourmandes. Pour GPT, le large modèle de langage d’OpenAI qui alimente ChatGPT, Microsoft a ainsi bâti un supercalculateur composé de “dizaines de milliers” de cartes A100 de Nvidia, explique l’agence Bloomberg. Compte tenu d’un prix catalogue estimé à 10.000 dollars pièce, cela représente un investissement global de plusieurs centaines de millions de dollars, reconnaît Scott Guthrie, le responsable du cloud de Microsoft. Récemment lancés, les derniers GPU de Nvidia, baptisés H100, valent encore plus cher: plus de 30.000 dollars – et même au-delà des 40.000 dollars à la revente sur eBay.

Dépendance risquée – Avec sa propre puce, l’éditeur de Windows ne fera pas seulement baisser les coûts. Il sortira aussi, au moins partiellement, d’une situation de dépendance, qui présente des risques d’autant plus élevés que l’intelligence artificielle est désormais stratégique. Ces derniers mois, Nvidia a bien du mal à répondre à la demande pour ses cartes graphiques dédiées. En être privé, même temporairement, pourrait retarder les efforts de Microsoft, aussi bien pour les modèles d’OpenAI que pour les services d’Azure – comme ses rivales, la société permet aux clients de son offre cloud d’entraîner et d’opérer leurs IA génératives. Dans le même temps, ses ingénieurs pourront travailler sur les améliorations qu’ils jugent prioritaires, sans attendre qu’elles ne soient apportées par Nvidia.

Comme Google – La stratégie de Microsoft n’est pas surprenante. Le groupe a déjà développé des puces pour les serveurs d’Azure. Surtout, il suit la voie ouverte par Google et Amazon, ses deux principaux rivaux sur les marchés de l’intelligence artificielle et du cloud. Dans le domaine, le moteur de recherche semble le plus avancé. Dans un article scientifique publié début avril, il assurait que la quatrième génération de ses puces TPU était plus rapide et moins gourmande en énergie que les cartes A100 de Nvidia. Cet accélérateur est utilisé en interne depuis plusieurs années, prenant en charge quasiment l’intégralité des développements dans l’IA, notamment les derniers modèles de langage. Microsoft n’en est pas encore là, et ne prévoit pas encore de se passer des GPU de Nvidia.

Pour aller plus loin:
– Microsoft investit “plusieurs milliards de dollars” dans OpenAI
– Comment Nvidia surfe sur le succès de ChatGPT


No Comments Yet

Comments are closed

Contactez-nous  –  Politique de confidentialité