L’information se cache dans la documentation technique, mais elle est significative. Pour concevoir Gemini 3 Pro, Google n’a pas eu recours aux cartes graphiques (GPU) de Nvidia, pourtant réputées comme incontournables. Son dernier modèle d’intelligence artificielle générative, dévoilé la semaine dernière, “a été entraîné exclusivement sur nos TPU”, nous a confirmé le moteur de recherche. De même, l’inférence – le processus de génération des réponses – s’appuie “à l’heure actuelle” uniquement sur ces puces maison.
À vrai dire, les précédentes versions de Gemini avaient déjà été entraînées sur des TPU. Mais l’information était passée sous les radars. La raison est simple: ces modèles étaient alors jugés largement inférieurs à leurs rivaux GPT, développés par OpenAI. Ce n’est plus le cas. Non seulement Gemini 3 Pro obtient de meilleurs résultats que GPT 5.1 sur divers tests, mais les retours des utilisateurs sont aussi très positifs. Sans oublier les performances de son générateur d’images, baptisé Nano Banana, lui aussi entraîné sur des TPU.
Besoins internes
Les TPU, pour Tensor Processing Unit, fêtent cette année leur dixième anniversaire. Ils ont été conçus à l’origine par Google pour répondre à des besoins internes de puissance de calcul, liés au développement du machine learning – des algorithmes capables d’apprendre par eux-mêmes, qui ont progressivement infusé les produits maison, du moteur de recherche à YouTube, dans la seconde moitié des années 2010. Avec l’essor de l’IA générative, ces puces ont été repensées pour l’entraînement et l’inférence des nouveaux modèles.
Google ne commercialise pas ses TPU, qui restent donc exclusivement déployés dans ses propres data centers. Depuis 2018, le groupe de Mountain View les met également à disposition des clients de sa plateforme de cloud. Pendant longtemps, leur seule présence constituait un argument de vente face à Amazon Web Services et Microsoft Azure, renforçant l’image de Google comme leader sur le machine learning. Mais avec l’arrivée de ChatGPT, l’attention s’est davantage portée sur les GPU de Nvidia, pour lesquels la demande a explosé.
Performances proches de Nvidia
Dans le sillage de Google, les autres géants technologiques américains ont également conçu leurs propres puces d’IA: Maia chez Microsoft, MTIA chez Meta et Inferentia et Trainium chez Amazon. De son côté, OpenAI vient de s’associer avec Broadcom – qui a co-développé les TPU – pour suivre la même voie. L’objectif principal n’est pas tant de réduire la dépendance à Nvidia que de bénéficier de puces optimisées pour les besoins internes, tout en pouvant piloter directement les améliorations jugées prioritaires.
En 2022, les TPU de Google affichaient encore environ une génération de retard sur les GPU de Nvidia. Depuis, la société a nettement accéléré la cadence. En trois ans, elle a ainsi lancé trois nouvelles puces, multipliant à chaque fois les performances. Sur le papier, le dernier modèle, baptisé Ironwood, affiche ainsi des capacités assez proches des accélérateurs Blackwell, en termes de puissance et de mémoire. Si Google ne le précise pas, il est probable que Gemini 3 Pro a été entraîné, au moins en partie, sur ce modèle de puce.
Des TPU bientôt en vente ?
Les progrès des TPU représentent d’abord une immense opportunité commerciale pour Google Cloud, dont la croissance dépasse déjà celle d’AWS et d’Azure. Fin octobre, le groupe a officialisé un partenariat avec Anthropic, permettant au rival d’OpenAI d’utiliser jusqu’à un million de TPU pour entraîner ses modèles. Selon The Information, Google serait également en négociations avec Meta. La maison mère de Facebook, qui s’appuie jusqu’à présent sur ses propres infrastructures, envisage de louer des TPU dès l’an prochain.
Mais les dirigeants de Google voient encore plus grand, poursuit le site spécialisé. Ils cherchent désormais à vendre directement les TPU. Meta pourrait ainsi être l’un des premiers clients, déployant les puces de son rival dans ses data centers à partir de 2027. Des discussions seraient également en cours avec plusieurs institutions financières. Google estimerait pouvoir capter 10% d’un marché aujourd’hui largement dominé par Nvidia – un potentiel commercial qui se chiffre en dizaines de milliards de dollars par an.
Pour aller plus loin:
– L’amortissement des puces d’IA, une bombe à retardement ?
–Les résultats record de Nvidia apaisent les craintes de bulle

