Par , publié le 18 mars 2025

Le discours est volontairement alarmiste. Dans un courrier adressé la semaine dernière à la Maison Blanche, OpenAI met à profit les avancées récentes de la start-up chinoise DeepSeek pour réclamer un assouplissement de la législation américaine sur le droit d’auteur. Le concepteur de ChatGPT demande ainsi d’inscrire dans la loi la notion de fair use – qui autorise un “usage raisonnable” des œuvres protégées – pour l’entraînement des modèles d’intelligence artificielle générative. “Ce n’est pas seulement une question de compétitivité américaine, c’est une question de sécurité nationale”, assure-t-il. Sa demande est reprise par Google, qui souligne que “l’utilisation de contenus […] sans d’impact significatif sur les ayants droit” permet d’éviter “des négociations souvent longues et imprévisibles avec les détenteurs de données”.

Valeur transformative – Établi en 1976, le concept de fair use est au cœur de l’application du droit d’auteur aux États-Unis. Mais sa définition juridique reste très générale, sans critères précis pour déterminer quand l’utilisation d’une œuvre peut être considérée comme raisonnable. Cela laisse de la place à l’interprétation. Cette limite est encore plus grande dans le cadre de l’IA générative, qui repose sur l’utilisation de contenus protégés pour créer des textes, des images ou des vidéos. Les modèles ne sont pas “entraînés à ne pas reproduire des œuvres”, fait ainsi valoir OpenAI. À l’inverse, ils créent “quelque chose de totalement nouveau et différent”. Ce principe de “valeur transformative” est mis en avant par les acteurs du secteur. Mais un tribunal américain a récemment estimé que cela n’était pas suffisant pour invoquer, à lui seul, le fair use.

Nombreuses plaintes – Depuis le lancement de ChatGPT fin 2022, les procédures judiciaires se sont accumulées contre OpenAI. La start-up a notamment été attaquée par le New York Times et par l’Authors Guild, une association regroupant plus de 14.000 auteurs américains. Google est aussi ciblé par des ayants droit, tout comme Meta, Nvidia ou encore la start-up Stability AI, poursuivie par la banque d’image Getty. À chaque fois, ces entreprises sont accusées d’avoir utilisé des contenus sans autorisation ni rémunération. La loi américaine prévoit jusqu’à 150.000 dollars par infraction constatée. Face aux risques juridiques, OpenAI multiplie les accords de licence avec des groupes de presse. Mais cette voie reste trop limitée pour lui permettre d’atteindre ses grandes ambitions. Une généralisation du fair use lui faciliterait grandement la tâche.

Régulation minimale – L’entreprise dirigée par Sam Altman veut même aller encore plus loin. Elle se prononce aussi contre les clauses d’opt-out, qui permettent aux médias de refuser l’utilisation de leurs contenus en ligne pour l’entraînement de modèles d’IA. Cette disposition a été mise en place en Europe. Elle pourrait l’être prochainement au Royaume-Uni. “Ces règles rigides pénalisent l’innovation”, assure OpenAI. Moins loquace sur le sujet, Google appelle tout de même Washington à “lutter contre les barrières étrangères restrictives”. Ces demandes s’inscrivent dans le cadre d’une consultation publique lancée par l’administration Trump devant déboucher, cet été, sur un “plan d’action”. Les deux groupes militent aussi pour une régulation minimale, réclamant notamment un cadre fédéral pour éviter des règles plus strictes dans certains États.

Pour aller plus loin:
– Comment OpenAI tente d’éviter de nouvelles poursuites judiciaires
– Pourquoi la condamnation d’une start-up pourrait avoir de lourdes conséquences sur OpenAI


No Comments Yet

Comments are closed

Contactez-nous  –  Politique de confidentialité