Par , publié le 13 février 2025

C’est en apparence une affaire judiciaire sans grand intérêt, lancée en 2020 contre une entreprise qui a depuis fermé ses portes. Pourtant son verdict pourrait avoir des répercussions majeures pour les spécialistes de l’intelligence artificielle générative. À commencer par OpenAI, visé par plusieurs plaintes. Mardi, un tribunal américain a donné raison au groupe Thomson Reuters face à la start-up Ross Intelligence. Celle-ci a été reconnue coupable d’avoir utilisé des contenus publiés par une filiale du groupe canadien afin d’entraîner une IA permettant de chercher des informations juridiques. Le juge chargé du dossier n’a pas retenu la notion de fair use, avancée par les avocats de la défense. Or, cette disposition qui autorise un “usage raisonnable” d’œuvres protégées par le droit d’auteur, est aussi citée par OpenAI et d’autres.

Vide juridique – Depuis les débuts fracassants de ChatGPT, les procédures judiciaires se multiplient. Trois affaires sont particulièrement emblématiques: la plainte déposée par la banque d’images Getty Images contre la start-up britannique Stability AI, celle du New York Times contre OpenAI, et celle de la RIAA, qui représente l’industrie américaine du disque, contre les outils de création de chansons Udio et Suno. Ces entreprises sont accusées d’avoir utilisé, respectivement, des photos, des textes et des chansons pour entraîner leurs modèles sans autorisation ni rémunération. Les enjeux financiers sont importants: la loi américaine prévoit jusqu’à 150.000 dollars de dédommagement par infraction constatée. Tous ces dossiers font face à un vide juridique: les lois actuelles ne sont pas adaptées à l’émergence de l’IA générative.

IA pas générative – Le verdict contre Ross Intelligence est l’un des premiers à être prononcé par la justice américaine. Il est cependant encore trop tôt pour savoir s’il fera jurisprudence. Dans son verdict, le magistrat souligne notamment que l’IA conçue par la start-up n’était pas générative. “Lorsqu’un utilisateur saisissait une question juridique, Ross fournissait des avis judiciaires pertinents déjà rédigés”, récupérés auprès de la filiale de Thomson Reuters, explique-t-il. Ainsi, ces réponses n’apportaient aucune “valeur transformative” pouvant justifier d’invoquer la notion de fair use. Cet élément constitue donc une différence fondamentale entre cette affaire et les plaintes déposées contre les spécialistes de l’IA générative, dont les modèles ne se contentent pas de répéter les textes sur lesquels ils ont été entraînés.

Valeur des données – En revanche, deux points pourraient jouer en leur défaveur. Le juge a d’abord estimé que l’usage raisonnable ne pouvait pas être invoqué quand les contenus utilisés servaient à concevoir un “substitut sur le marché”. Les plaignants des autres dossiers pourront ainsi souligner que les services d’IA proposent des alternatives, permettant de créer une image au lieu d’en acheter une ou de s’informer sans aller sur des sites. Par ailleurs, le magistrat a considéré qu’il fallait aussi prendre en compte “l’effet sur un potentiel marché pour les données d’entraînement des IA”. Or, le fair use peut empêcher les ayants droit de les monétiser auprès des concepteurs de modèles. De fait, OpenAI et d’autres ont noué de nombreux accords de licence, notamment avec des groupes de presse, reconnaissant implicitement la valeur commerciale de ces données.

Pour aller plus loin:
– Pourquoi les procédures judiciaires se multiplient contre OpenAI
– Face à l’IA, l’industrie du disque ne sait pas sur quel pied danser


No Comments Yet

Comments are closed

Contactez-nous  –  Politique de confidentialité