Pour gérer vos consentements :

AI Act : les grandes lignes de l’accord institutionnel

À l’issue du trilogue sur l’AI Act, que reste-t-il des propositions des eurodéputés ? Le compte rendu du Parlement est en tout cas bien plus bref que celui du Conseil.

Le texte objet de l’accord n’est pas public. Il devrait, pour l’essentiel, constituer le « brouillon final » de l’AI Act. Restera à « préciser quelques détails au niveau technique » avant que le Comité des représentants permanents puisse ratifier.

Des désaccords sur l’usage de l’IA à des fins répressives

Le Conseil avait finalisé sa position de négociation en décembre 2022. Le Parlement avait fait de même en juin 2023. Il avait notamment introduit une interdiction des logiciels de reconnaissance des émotions sur le lieu de travail, dans l’éducation, ainsi qu’à des fins répressives et dans le contrôle des migrations. L’accord ne semble avoir retenu que les deux premiers cas, soit ce sur quoi le Conseil était près à transiger.

Les eurodéputés ont aussi lâché du lest concernant l’usage de l’identification biométrique à distance dans l’espace public. Ils en voulaient l’interdiction totale. Ils ont finalement accepté des exceptions strictes. Les systèmes n’opérant pas en temps réel ne seront utilisables que pour la recherche d’une cible inculpée ou suspectée de crime grave. Ceux opérant en temps réel seront autorisés, entre autres, pour :

– Recherche ciblée de victimes
– Prévention d’actes terroristes
– Localisation ou identification d’une personne suspectée d’avoir commis un crime parmi une liste spécifique (terrorisme, trafic, meurtre, kidnapping, viol, vol à main armée, participation à une organisation criminelle…)

Le Conseil a aussi réussi à maintenir l’autorisation de déployer un système IA à haut risque sans évaluation préalable en cas d’urgence.

L’AI Act interdit l’usage de systèmes de catégorisation biométriques reposant sur des caractéristiques sensibles. Même chose pour les techniques de manipulation, la notation sociale ou le scraping massif d’images contenant des expressions faciales. Le Parlement avait proposé une liste plus longue, mais a là aussi accepté un compromis.

Mistral AI face à la régulation des modèles de fondation

L’encadrement des modèles de fondation est un autre point de débat. La France, comme l’Allemagne et l’Italie, prône une régulation moins « dure » que ne le fait le Parlement. Ce « camp de l’innovation », Thierry Breton l’a pointé du doigt, l’accusant de « défendre son business et non l’intérêt général ».

Mistral AI fait partie de ce camp. Son président-cofondateur Arthur Mensch a récemment clarifié son point de vue sur l’AI Act. Les grandes lignes de son raisonnement sont les suivantes :

– Dans sa forme première, l’AI Act était un texte relatif à la sécurité des produits… et cela devrait rester son seul focus. Établir des règles spécifiques en la matière pour les fournisseurs d’applications d’IA les incitera à concevoir des modèles et des outils permettant le développement rapide de produits sûrs.

– Désormais, il est question de réguler les modèles de fondation ; c’est-à-dire le moteur de certaines applications d’IA. Or, difficile de réguler un moteur quand on ne connaît pas ses usages : on n’a pas régulé le langage C parce qu’il était susceptible d’être utilisé pour développer des malwares.

– La notion de « risque systémique » établie dans l’AI Act est mal définie. À ce stade, les discussions à ce sujet sont très philosophiques. Elles anticipent un progrès exponentiel… que les lois de la physique semblent démentir.

– Si on devait suivre cette voie, l’AI Act a la plus mauvaise taxonomie qui soit pour encadrer le risque systémique. Les règles les moins absurdes pour déterminer les capacités d’un modèle seraient une évaluation post-entraînement (mais il faudrait se concentrer sur les applications : il est irréaliste de couvrir, en un test, tous les usages d’un modèle de fondation) et la définition d’un palier de puissance de calcul.

– Introduire un tel palier permet de stimuler l’innovation des petites entreprises. Mais cela entérine aussi l’existence de deux catégories d’entreprises. D’un côté, celles qui peuvent se permettre de faire face à de grandes exigences de conformité et donc de passer à l’échelle. De l’autre, celles qui ne le peuvent, faute d’une armée d’avocats. C’est donc très contre-productif pour l’écosystème qui émerge en Europe.

Les modèles ouverts exclus du champ de l’AI Act… sauf si « systémiques »

Le seuil de compute en question a vraisemblablement été fixé à 10 yottaflops (1025 flops). Il est susceptible d’évoluer. Les modèles entraînés avec une puissance de calcul supérieure sont dits « systémiques ». D’autres pourront l’être en fonction de critères comme le nombre d’utilisateurs professionnels ou le nombre de paramètres.

Les systèmes d’IA « généralistes » et les modèles sous-jacents devront respecter des exigences de transparence (documentation technique, conformité aux lois sur le droit d’auteur, résumés détaillés des données d’entraînement « sans préjudice des secrets commerciaux »…). Ceux dits systémiques auront à subir des évaluations spécifiques, doublées d’obligations de cybersécurité et de rapports sur l’efficacité énergétique.

Les modèles ouverts et gratuits échapperont à l’AI Act. À quelques exceptions près, dont l’aspect droit d’auteur, le résumé des données d’entraînement, les responsabilités sur la chaîne de valeur… et les modèles systémiques.

Sont également hors du champ de l’AI Act, les systèmes utilisés exclusivement à des fins militaires ou de défense. Même chose pour ceux utilisés uniquement à des fins de recherche et d’innovation. Ainsi qu’aux usages non professionnels.

Les sanctions s’élèveraient à :

– 35 M€ ou 7 % du CA annuel (le plus élevé des deux) en cas de déploiement d’une application non autorisée
– 15 M€ ou 3 % du CA pour violation des dispositions de l’AI Act
– 1,5 % du CA pour communication d’informations incorrectes

Il existe des plafonds pour les start-up et les PME, assurent les institutions européennes.

Illustration © Zerbor – Adobe Stock

Recent Posts

Legapass : comment protéger ses données privées jusque dans l’au-delà

Comment gérer les données numériques après la mort de son détenteur ? La jeune pousse…

3 jours ago

Iris, un assistant d’IA conversationnelle en langue des signes

Ivès, expert en accessibilité de la surdité, s’est associé à Sopra Steria et à IBM…

3 jours ago

GenAI : le Royaume-Uni poursuit ses investigations sur les partenariats de Microsoft et Amazon

L'Autorité de la concurrence et des marchés (CMA) a lancé la phase de recherche de…

4 jours ago

Clients de VMware : les raisons de la colère

Broadcom remplace pas moins de 168 logiciels VMware par deux grandes licences de location correspondant…

4 jours ago

Laurent Carlier – BNP Paribas Global Market : « L’IA permet de modéliser des relations plus complexes, mais il faut rester prudent »

La banque d’investissement utilise l'IA pour proposer des stratégies individualisées, en termes de rendement et…

4 jours ago

Open Compute Project : les datacenters partagent des bonnes pratiques pour l’environnement

OVHCloud partage ses efforts environnementaux au sommet de l’Open Compute Project qui se tient à…

5 jours ago