Recherche

L'AI Act californien essuie un veto

Le gouverneur de Californie n'a pas ratifié un texte qui aurait imposé aux développeurs de modèles d'IA et à certains fournisseurs d'infra des obligations apparentées à celles de l'AI Act.

Publié par Clément Bohic le - mis à jour à
Lecture
3 min
  • Imprimer
L'AI Act californien essuie un veto
© généré par IA

Bientôt un "AI Act à l'américaine" ?

Nous avions soulevé cette possibilité début septembre. Le Parlement de Californie venait alors d'adopter une proposition de loi dite "Safe and Secure Innovation for Frontier Artificial Intelligence Models". Il l'avait transmise au gouverneur démocrate Gavin Newsom... qui a finalement mis son veto.

Le texte a divisé la classe politique américaine autant que l'écosystème tech. Présenté en début d'année, il avait depuis lors été édulcoré sur certains aspects. Les sanctions pénales, notamment, avaient disparu à la faveur exclusive de peines civiles. Les conditions dans lesquelles le procureur général pourrait lancer des enquêtes étaient par ailleurs devenues plus strictes.

La régulation par les flops, mauvaise approche ?

Dans le même esprit que l'AI Act, l'idée générale était d'imposer aux développeurs de modèles d'implémenter des mesures d'atténuation des risques. Des obligations se seraient aussi appliquées aux fournisseurs d'infrastructure.

Dans la vision de Gavin Newsom, le texte se focalise sur les modèles "les plus gros et les plus chers", ce qui pourrait donner un "faux sentiment de sécurité". Des modèles plus petits, spécialisés, pourraient se révéler aussi dangereux, poursuit le gouverneur. En outre, le texte ne tient pas compte d'éléments de contexte tels que le déploiement dans des environnements à haut risque, l'utilisation de données sensibles ou l'implication dans prises de décisions critiques.

L'intéressé se montre globalement opposé à la régulation des modèles sur la base de seuils de coût et de puissance de calcul. Une approche incompatible avec la cadence du développement technologique, veut-il croire.

Il existe de tels seuils dans l'AI Act. On en trouve aussi dans l'ordre exécutif 14110.Joe Biden l'avait signé en octobre 2023, ouvrant, entre autres, la voie à des obligations pour les entreprises développant ou ayant l'intention de développer des modèles de fondation. Par exemple, communiquer au gouvernement des évaluations de performance et des informations sur les mesures de sécurité prises. Y sont soumis les modèles dont l'entraînement a nécessité plus de 1026 flops - ou 1023 flops s'ils manipulent des données de séquences biologiques. L'ordre exécutif concerne aussi les fournisseurs IaaS américains, invités à signaler leurs transactions avec des clients qui entraînent de grands modèles susceptibles d'être utilisés à des fins de cyberoffensive.

Donald Trump entend, s'il est élu, révoquer cet EO. Il a fait de J. D. Vance, ancien capital-risqueur dans le secteur technologique, son colistier.
Kamala Harris apparaît plus nuancée, quand bien même elle a grandi dans la région de la baie de San Francisco et fut procureur général de Californie - où de nombreuses sociétés technologiques ont leur siège. On la dit généralement encline à maintenir la ligne de Joe Biden.

Il est peu probable que le Congrès vote une forme d'AI Act d'ici à la fin de ce mandat présidentiel, quand bien même diverses esquisses sont dans les tuyaux. Gavin Newsom ne juge pas impératif de légiférer à ce niveau. Il appelle néanmoins à se baser sur des "preuves empiriques". À l'image, estime-t-il, des travaux que le NIST, à travers son AI Safety Institute, mène pour développer des lignes directrices relatives aux risques pour la sécurité nationale.

Sur le même thème

Voir tous les articles Data & IA

Livres Blancs

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page