Par , publié le 16 octobre 2023

Depuis l’an passé, GitHub permet à ses utilisateurs d’utiliser une intelligence artificielle générative pour les aider à écrire du code informatique. Un service payant, facturé 10 dollars par mois, qui rencontre déjà un franc succès – avec plus de 1,5 million de clients. Mais un service qui génère, en réalité, de très lourdes pertes pour cette plateforme en ligne très populaire chez les développeurs, rachetée en 2018 par Microsoft pour 7,5 milliards de dollars. Selon des chiffres obtenus par le Wall Street Journal, ce nouveau service, baptisé Copilot, se traduisait en début d’année par un déficit moyen de 20 dollars par mois et par abonné. Car derrière l’euphorie suscitée par cette nouvelle technologie, dans la foulée du lancement de ChatGPT par la start-up OpenAI, se cachent des coûts très élevés, qui pourraient en limiter le potentiel.

Coûts d’inférence – Les derniers modèles d’IA générative nécessitent en effet une importante puissance informatique, que les acteurs du secteur vont majoritairement chercher auprès des plateformes de cloud de Microsoft, Google ou Amazon. D’abord, pour leur phase d’entraînement qui s’effectue, pendant plusieurs mois, à l’aide de supercalculateurs équipés de centaines ou de milliers de cartes graphiques (GPU). Et ensuite, pour l’inférence: leur exécution pour créer des textes, des images ou des voix. Ces coûts peuvent grimper rapidement à mesure que les services d’IA gagnent en popularité. Et que les modèles sous-jacents gagnent en taille. En février, le cabinet Semi Analysis les chiffrait ainsi à 700.000 dollars par jour pour ChatGPT. Une somme qui a depuis certainement augmenté de manière importante.

Prix élevés – En raison des coûts d’inférence, l’IA générative n’offre pas de véritables économies d’échelle, qui permettraient d’amortir rapidement les frais de développement initiaux. Ces dépenses se répercutent, logiquement, dans les prix. Comptez 20 dollars par mois pour ChatGPT Plus, qui donne accès à la dernière version de son modèle. Et 30 dollars pour les prochains assistants des suites bureautiques de Microsoft et Google. Des tarifs élevés, que les entreprises du secteur tenteront de justifier par les gains de productivité que leurs outils doivent permettre de réaliser. Mais qui ne leur garantissent pas pour autant de dégager des profits. Cette situation pourrait profiter aux gros acteurs, qui peuvent supporter des pertes bien plus élevées. Et qui pourraient ainsi capter l’essentiel du marché.

Modèles plus petits – Ces coûts risquent surtout de limiter l’adoption de l’IA par les développeurs, qui rémunèrent les créateurs de modèles pour chaque requête effectuée par leurs utilisateurs. OpenAI facture, par exemple, jusqu’à 12 cents pour environ 4.000 caractères de texte généré. Cette problématique se posera en particulier pour les applications grand public gratuites, entre coûts additionnels et nécessité de suivre la demande des consommateurs. Pour la résoudre, il faudra remplacer les modèles généralistes, qui affichent plus de paramètres et donc des coûts plus élevés, par des modèles plus petits, dédiés à des besoins spécifiques. Et potentiellement capables de tourner sur un appareil, sans passer par le cloud. Sam Altman, le patron d’OpenAI, prophétise ainsi “la fin de l’ère des modèles géants”. 

Pour aller plus loin:
– ChatGPT fait perdre plus de 500 millions de dollars à OpenAI
– La start-up française Mistral AI lance sa première IA générative


No Comments Yet

Comments are closed

Contactez-nous  –  Politique de confidentialité