Par , publié le 14 mars 2024

L’étape la plus difficile avait été franchie en février. Le vote au Parlement européen n’aura donc été qu’une formalité. Mercredi, les eurodéputés se sont très majoritairement prononcés en faveur de l’AI Act, le projet européen de réglementation de l’intelligence artificielle, en particulier des modèles d’IA générative. Le texte, dont la majorité des mesures entreront en vigueur en 2026, sera formellement approuvé en avril par les gouvernements des Vingt-Sept. L’épilogue d’un long processus. Et de fortes divisions entre les responsables européens. En début d’année, après le lobbying intense de la start-up Mistral AI, la France avait en effet tenté de former une minorité de blocage. Mais ses efforts avaient échoué, l’Allemagne et l’Italie décidant finalement de voter en faveur du texte.

Longues négociations – La volonté de réguler l’intelligence artificielle en Europe date de 2021. Une autre… époque. Les inquiétudes portaient alors sur les dispositifs d’identification biométrique ou encore les systèmes de police prédictive. Mais le lancement de ChatGPT fin 2022 puis les progrès spectaculaires des IA génératives ont contraint les responsables européens à revoir leur copie. Après des mois de négociations, la version définitive du texte ajoute de nouvelles dispositions. Elle introduit d’abord des obligations de transparence sur le processus d’entraînement des grands modèles de langage ou des modèles de diffusion, avec l’obligation de publier un résumé “suffisamment détaillé” des données utilisées. Cela pourrait permettre aux détenteurs de droits de réclamer une rémunération si leurs œuvres ont été utilisées.

“Risques systémiques” – L’AI Act réaffirme par ailleurs que les sociétés du secteur doivent respecter le droit d’auteur européen. Et, avec lui, la possibilité pour les auteurs, les artistes ou les médias de refuser que leurs contenus participent à l’entraînement des modèles. Le projet impose aussi la mise en place d’un dispositif d’identification des contenus générés par l’IA, permettant de distinguer les fausses photos ou vidéos. Les réglementations les plus strictes ne s’appliqueront qu’aux modèles présentant des “risques systémiques” – déterminés par la puissance de calcul qui a été nécessaire pour les entraîner. Ceux-ci auront, par exemple, l’obligation de mener des études d’impact sur les risques et sur les mécanismes mis en place pour les limiter. Un bureau européen de l’IA sera chargé de faire appliquer ces règles.

Handicap pour l’Europe ? – Les détracteurs de l’AI Act reproche à l’Europe de vouloir réglementer trop tôt le secteur. Et surtout d’être la seule à le faire. Ils redoutent ainsi que le texte ne handicape les sociétés européennes, en particulier face à leurs rivales américaines. Poussé notamment par Cédric O, l’ancien secrétaire d’Etat au numérique, devenu lobbyiste Mistral AI, la France militait ainsi pour une approche différente, qui ne vise pas les modèles mais les services d’IA qui les utilisent. Sur ce point, elle n’aura obtenu qu’une petite victoire: le texte ne concerne plus les modèles fondamentaux mais les modèles “à usage général”, une dénomination plus restrictive. Paris s’opposait aussi à une transparence totale des données d’entraînement. Mais a simplement obtenu que soit mentionné le “respect du secret des affaires”.

Pour aller plus loin:
– Comment Cédric O tente de faire échouer le projet de régulation de l’IA générative
– Le double discours d’OpenAI sur la régulation de l’IA


No Comments Yet

Comments are closed

Contactez-nous  –  Politique de confidentialité