Par , publié le 3 décembre 2023

Les prochaines 72 heures seront, peut-être, décisives pour la régulation de l’intelligence artificielle générative en Europe. Entamées depuis des mois, les négociations sur le projet d’AI Act doivent en effet s’accélérer, avant une réunion décisive mercredi entre les représentants de la Commission, du Parlement et du Conseil européens. Mais les derniers échos n’incitent guère à l’optimisme, tant les positions se sont éloignées ces dernières semaines, notamment sous l’impulsion du gouvernement français qui redoute que des règles trop strictes n’handicapent les start-up européennes. En l’absence de compromis, le calendrier se compliquerait grandement, entre le changement de la présidence du Conseil et les élections européennes début juin, qui pourraient, potentiellement, entraîner l’abandon du projet.

Modèles fondamentaux – La volonté de réguler l’intelligence artificielle en Europe date de 2021. Une autre… époque. Les inquiétudes portaient alors sur les dispositifs d’identification biométrique ou encore les systèmes de police prédictive. Mais l’émergence récente des IA génératives, comme le robot conversationnel ChatGPT et le générateur d’images Midjourney, a contraint les responsables européens à revoir leur copie. De nouvelles mesures ont ainsi été ajoutées au texte, pour tenir compte des problématiques qui n’avaient pas été anticipées il y a deux ans. Celles-ci concernent les grands modèles fondamentaux, qui alimentent ces nouveaux services. En juin, le Parlement a adopté une première version de l’AI Act, lançant le processus de négociations tripartites avec la Commission et les gouvernements des Vingt-Sept.

Règles graduées – Le projet voté par les députés européens introduit des obligations de transparence, notamment dans le processus d’entraînement des modèles. Il impose la mise en place d’un dispositif d’identification des contenus générés par une IA, permettant par exemple de distinguer les fausses photos. Et il prévoit des études d’impact pour les systèmes considérés à “haut risque”. Face aux premières critiques, exprimées notamment par Paris, les négociateurs semblaient s’être entendus sur le principe de règles graduées, classant les modèles d’IA en trois catégories, selon leur taille et leur popularité. Celui-ci prévoit que seuls les modèles de “grande échelle”, qui comptent plus de 45 millions d’utilisateurs ou plus de 10.000 clients professionnels, seront touchés par les réglementations les plus strictes.

Lobbying de Cédric O – Depuis début novembre, les discussions n’avancent plus. Car trois pays réclament des allègements beaucoup plus radicaux: la France, l’Allemagne et l’Italie. Ils préconisent de ne pas réguler les modèles fondamentaux mais les services d’IA qui les utilisent. Pour la start-up américaine OpenAI, par exemple, cela signifierait que les règles ne concerneraient pas son grand modèle de langage GPT, mais seulement son chatbot ChatGPT. Ce revirement, qui épouse la ligne adoptée par les Etats-Unis, coïncide avec une campagne de lobbying menée par la start-up allemande Aleph Alpha. Et surtout par la française Mistral AI, sous la houlette de Cédric O, l’ancien ministre du numérique devenu actionnaire et lobbyiste. Pour les modèles, les trois capitales préconisent des règles de conduite… non contraignantes.

Pour aller plus loin:
– Le double discours d’OpenAI sur la régulation de l’IA
– La start-up française Mistral AI lance sa première IA générative


No Comments Yet

Comments are closed

Contactez-nous  –  Politique de confidentialité