Le jugement a le mérite de poser de premières bases pour une potentielle jurisprudence sur l’entraînement de l’intelligence artificielle générative. Mais il ne satisfait probablement personne. Ni les start-up du secteur ni les ayants droit qui les poursuivent pour violation du droit d’auteur. Mardi, un juge californien n’a accordé qu’une victoire très partielle à Anthropic, qui était poursuivie par trois écrivains américains. Il a estimé que l’utilisation de leurs livres pour entraîner le grand modèle de langage Claude s’inscrivait bien dans le cadre du fair use – une notion qui permet un “usage raisonnable” d’œuvres protégées. Il a cependant conclu que la start-up n’avait pas le droit de pirater environ sept millions de livres. Un deuxième procès est ainsi prévu en décembre sur cette question. Celui-ci pourrait déboucher sur une gigantesque amende.
“Valeur transformative” – Cette affaire est la première jugée aux États-Unis – un autre procès est en cours au Royaume-Uni entre le générateur d’images Stability AI et la banque de photos Getty Images. D’autres suivront, notamment les plaintes du New York Times et de l’Authors Guild, qui regroupe plus de 14.000 auteurs, contre OpenAI. Ces dossiers tournent autour de l’interprétation du fair use. Et plus particulièrement du concept de “valeur transformative”. Les sociétés d’IA estiment être protégées, car leurs modèles ne se contentent pas de copier les œuvres sur lesquelles ils ont été entraînés. Ils s’en inspirent pour créer quelque chose de nouveau. C’est la première fois que la justice valide cet argumentaire. Les modèles de langage d’Anthropic n’ont pas reproduit “les éléments créatifs” ni “le style expressif” des plaignants, justifie le juge.
1.000 milliards de dollars – Le magistrat n’a cependant pas validé l’utilisation de trois bibliothèques numériques de livres piratés dans la phase d’entraînement. “Un vol”, estime-t-il. La start-up semblait d’ailleurs bien consciente du problème. En 2024, elle a recruté l’ancien responsable du projet Google Books. Puis, elle a acheté des millions de livres d’occasion pour les scanner. Depuis, elle assure ne plus se servir des exemplaires piratés – qu’elle n’a pourtant pas effacés. Si le juge estime que cette nouvelle méthode est conforme au fair use, il souligne aussi qu’elle “ne l’exonère pas de sa responsabilité”. Les conséquences financières pourraient être colossales: la loi américaine prévoit jusqu’à 150.000 dollars de dédommagement par infraction. Théoriquement, Anthropic risque ainsi une amende pouvant dépasser les 1.000 milliards de dollars.
Une victoire… et une défaite – Sur le papier, ce jugement représente une victoire majeure pour les groupes d’IA, car il valide leur ligne de défense centrée sur le fair use, reconnaissant qu’il n’est pas illégal d’utiliser des œuvres protégées pour l’entraînement des modèles. Il est ainsi probable qu’OpenAI et les autres s’en servent dans leurs procédures. En réalité, le verdict constitue aussi une défaite potentiellement coûteuse. Il affirme en effet que les œuvres utilisées pendant l’entraînement doivent être légalement achetées. Or, le secteur s’est bâti, au moins à ses débuts, sur des processus sauvages. Comme Anthropic, OpenAI et Meta sont soupçonnés d’avoir utilisé des livres piratés. Stability, aussi poursuivi aux États-Unis, a utilisé les photos de Getty sans autorisation. Les start-up Udio et Suno ont fait de même avec des milliers de chansons.
“Substitut sur le marché” – En outre, deux éléments pourraient être différents dans les autres affaires. D’une part, la plainte contre Anthropic s’est concentrée seulement sur l’entraînement. D’autres plaignants pourraient se focaliser sur les contenus créés par des IA, à l’image de la procédure tout juste lancée par Disney et Universal contre le générateur d’images Midjourney. D’autre part, un juge américain a récemment estimé que la notion d’usage raisonnable ne pouvait pas être invoquée quand l’utilisation d’œuvres protégées a permis de concevoir un “substitut sur le marché” aux services proposés par les ayants droit. Dans certaines affaires, les plaignants pourront ainsi mettre en avant que les entreprises d’IA offrent des alternatives, permettant de créer une image au lieu d’en acheter une ou de s’informer sans aller consulter un site de presse.
Pour aller plus loin:
– Au procès de Stability AI, l’IA générative sur le banc des accusés
– Face à OpenAI, Anthropic continue de lever des milliards de dollars