Par , publié le 3 septembre 2024

L’Europe n’est pas la seule à vouloir réglementer l’intelligence artificielle générative. La semaine dernière, les parlementaires californiens ont en effet adopté un projet de loi, allant plus loin sur certains points que l’AI Act européen, adopté en mai. Ce texte, qui marque une rupture avec la tradition américaine en matière de régulation, est décrié par une grande partie de la Silicon Valley, qui reprend les mêmes arguments que ceux avancés à Bruxelles. Et qui espère un veto de Gavin Newsom, le gouverneur de la Californie. L’ancien maire de San Francisco ne s’est pas encore exprimé sur le dossier. D’un côté, il tient à maintenir son image pro-innovation. Mais de l’autre, les sondages font état d’un large soutien de l’opinion publique, inquiète de potentielles conséquences dramatiques d’un développement incontrôlé de l’IA.

Tests de sécurité – Baptisée SB 1047, la législation ne s’appliquera pas à tous les modèles d’IA. Ne seront concernés que ceux dont l’entraînement a coûté plus de 100 millions de dollars en ressources informatiques. Ou ceux issus d’un modèle open source et dont l’ajustement (fine tuning) a coûté plus de 10 millions. Ces montants seront ajustés à partir de 2027 pour tenir compte des évolutions des budgets. Dans les faits, seulement une poignée d’entreprises seront ainsi touchées. Elles devront mettre en place des tests de sécurité, réaliser des audits annuels sur leurs protocoles de sécurité ou encore instaurer un mécanisme pour désactiver leurs modèles en cas de menaces. Le texte permettra aussi à la justice de lancer des poursuites contre des entreprises si des négligences se traduisent par un “préjudice grave”.

Contestation – Le projet de loi a été largement amendé avant son adoption, sous l’impulsion notamment de la start-up Anthropic. Le texte final a ajouté le palier des 10 millions de dollars pour les modèles issus de l’open source. Il indique désormais que les développeurs d’IA doivent faire preuve de “diligence raisonnable” en matière de sécurité et non plus “d’assurance raisonnable”, une définition judiciairement moins contraignante. Autre modification: les développeurs ne risquent plus de poursuites pénales mais simplement civiles. Pour autant, la loi suscite toujours une vague de contestations chez de nombreux acteurs de la Silicon Valley. Tous prédisent qu’elle va nuire à l’innovation. Et certains, comme OpenAI et Google, préconisent des règles au niveau national… tout en sachant qu’il n’existe aucun consensus à Washington.

Comme Bruxelles – Ces vives critiques peuvent s’expliquer par une nouvelle vision de penser la réglementation aux États-Unis. Dans l’intelligence artificielle, les discussions, notamment à la Maison Blanche, portaient sur l’encadrement de son utilisation. La loi californienne propose, elle, de réguler la conception des modèles sous-jacents aux services d’IA. À l’image de la philosophie, extrêmement décriée, de Bruxelles. En l’absence de veto, le texte entrera progressivement en vigueur à partir de janvier 2025. Sa portée ira bien au-delà des frontières californiennes. Non seulement parce qu’il pourrait servir d’exemple. Mais aussi parce qu’il s’appliquera aux modèles accessibles dans l’État, même s’ils ont été conçus ailleurs. Or, peu d’acteurs de l’IA, si ce n’est aucun, ne peuvent se permettre de ne pas y être présents.

Pour aller plus loin:
– L’Europe se déchire sur la régulation de l’IA générative
– Le double discours d’OpenAI sur la régulation de l’IA


No Comments Yet

Comments are closed

Contactez-nous  –  Politique de confidentialité