Par , publié le 13 février 2025

Le ton avait été donné lors du sommet sur l’IA, qui s’est tenu à Paris. Il s’est confirmé mardi soir à Bruxelles. En toute discrétion, dans les annexes de son programme de travail pour 2025, la Commission européenne a acté le retrait de son projet de directive sur la responsabilité en matière d’intelligence artificielle. “Aucun accord en vue”, se contente-t-elle d’expliquer. En clair: elle estime que le texte n’aurait pas pu être adopté par le Parlement ou qu’il n’aurait pas pu échapper à une minorité de blocage au Conseil. Un veto probablement mené par la France, qui s’oppose à une régulation trop importante du secteur, comme l’assène régulièrement Emmanuel Macron. Cette décision “reflète la reconnaissance croissante que l’UE ne peut rester compétitive que si son cadre réglementaire ne devient pas un patchwork inapplicable”, se réjouit le lobby CCIA.

Course de vitesse – Le retrait de la directive intervient après un sommet sur l’IA marqué par des plans d’investissements massifs dans les infrastructures (109 milliards d’euros en France, 200 milliards pour l’Union européenne). Mais aussi par le peu d’intérêt porté aux risques liés au développement rapide de cette technologie. La déclaration finale évoque à peine le sujet, quand le texte issu du premier sommet, qui s’est tenu au Royaume-Uni en juin 2023, tournait autour des risques. “Une opportunité ratée”, regrette ainsi Dario Amodei, le fondateur et patron d’Anthropic. Cela concrétise une évolution majeure. La course de vitesse dans l’IA ne concerne plus seulement les entreprises du secteur, en compétition pour grappiller le plus gros du marché. Elle touche aussi les pays dans un contexte géopolitique moins propice à la coopération.

Les États-Unis menacent – L’Europe n’est pas la seule à faire marche arrière. Selon Politico, le Royaume-Uni a décidé de reporter une consultation sur un projet de loi devant transposer les engagements pris lors du sommet de 2023. En outre, le texte devra être allégé de sa mesure phare, qui permettait à un organisme de contrôle d’avoir accès aux tests de sécurité menés avant le déploiement d’un modèle. “Il y a une véritable nervosité face à l’administration américaine”, explique une source citée par Politico. Mardi, à Paris, le vice-président JD Vance a ainsi mis en garde l’Europe contre une régulation qui pourrait “étouffer” l’innovation, notamment américaine, dans l’IA. “L’Amérique n’acceptera pas cela”, a-t-il menacé. Les États-Unis n’ont d’ailleurs pas signé la déclaration finale du sommet parisien. Ils ont été suivis par… le Royaume-Uni.

AI Act – L’an dernier, l’Union européenne a laborieusement adopté l’AI Act, la première régulation du secteur dans le monde, malgré l’opposition de la France qui n’avait réussi qu’à obtenir quelques concessions. Le texte, partiellement entré en vigueur, vise en particulier les modèles présentant des “risques systémiques”. Ceux-ci auront notamment l’obligation de mener des études d’impact sur les risques et sur les mécanismes mis en place pour les limiter. La directive sur la responsabilité en matière d’intelligence artificielle devait introduire des règles spécifiques aux dommages causés par des systèmes d’IA. En particulier une “présomption de causalité”, dispensant les victimes de la charge de la preuve. Bruxelles assure désormais évaluer “si une autre proposition doit être présentée ou si un autre type d’approche doit être choisi”.

Pour aller plus loin:
– Comment le sommet sur l’IA s’est transformé en opération de promotion
– La France échoue à bloquer le projet européen de régulation de l’IA générative


No Comments Yet

Comments are closed

Contactez-nous  –  Politique de confidentialité