Recherche

AI Act : la Commission européenne tente de clarifier les usages interdits

Dans ses lignes directrices sur l'interprétation des usages que l'AI Act interdit, Bruxelles met en avant les interactions avec d'autres textes de loi.

Publié par Clément Bohic le - mis à jour à
Lecture
4 min
  • Imprimer
AI Act : la Commission européenne tente de clarifier les usages interdits
© généré par IA

Pour appliquer l'AI Act, faut-il se mettre dans la peau d'un "consommateur moyen" ? Pourquoi pas s'il s'agit d'évaluer le caractère trompeur d'une pratique.

Cette recommandation de la Commission européenne s'inscrit dans des lignes directrices relatives aux usages "interdits" de l'IA (article 5 du règlement).

Y sont mises en avant diverses interactions avec d'autres textes de loi. Par exemple, pour ce qui est du sujet susmentionné, avec la directive 2005/29/EC relative aux pratiques commerciales déloyales des entreprises vis-à-vis des consommateurs.

Des interactions avec le DSA

Entre autres interactions, la Commission souligne celle avec les obligations découlant du DSA pour les fournisseurs de services intermédiaires. Elle cite aussi le règlement 2017/745 relatif aux dispositifs médicaux. Sont susceptibles d'y être soumis les systèmes d'IA utilisés à des fins de diagnostic ou de traitement médical.

L'usage médical est une des exceptions que l'AI Act introduit concernant l'usage, sur les lieux de travail, de systèmes d'IA destinés à la reconnaissance d'émotions. Quoique autorisés sous cette condition, ils n'en restent pas moins soumis aux législations applicables en matière de protection des données comme de conditions de travail.

Des clés de compréhension dans le préambule de l'AI Act

Les lignes directrices que publie la Commission sont aussi l'occasion de clarifier de nombreux termes. Illustration concernant le premier des usages qu'interdit l'AI Act : le recours à des techniques "subliminales, délibérément manipulatrices ou trompeuses".

Les clés d'interprétation se trouvent parfois dans le préambule du texte. Il en est ainsi pour les "techniques trompeuses". D'après le considérant 29, elles "mettent à mal ou altèrent l'autonomie de la personne, son libre arbitre ou sa liberté de choix de telle sorte que l'individu n'est pas conscient de ces techniques ou, à supposer qu'il le soit, sans qu'il puisse échapper à la duperie ni opposer une résistance ou un contrôle auxdites techniques".

Des articulations entre les obligations des fournisseurs et des déployeurs

Dans ce contexte, il convient, estime la Commission, de clarifier l'articulation avec les obligations que l'article 50(4) fait aux déployeurs de systèmes d'IA. Parmi elles, marquer les deepfakes et certaines publications textuelles relatives à des sujets d'intérêt public. De telles divulgations constituent des mesures d'atténuation qui devraient aussi être activées à travers des fonctionnalités que le fournisseur aura embarquées à la conception. Y compris des mesures techniques permettant la détection de contenu généré ou manipulé par IA.

Des chevauchements possibles entre usages interdits

Les "techniques subliminales" ne sont pas non plus définies dans l'AI Act. Mais il est précisé qu'elles sont "au-dessous du seuil de conscience d'une personne".

Le seul recours à ces techniques n'interdit pas nécessairement la mise sur le marché ou la mise en service d'un système d'IA. Ils doivent aussi remplir les autres critères d'exclusion inscrit à l'article 5(1)(a). Dont le fait d'avoir pour objectif ou pour effet d'altérer substantiellement le comportement d'une personne ou d'un groupe de personnes en portant considérablement atteinte à leur capacité à prendre une décision éclairée.

Entre autres techniques qualifiables de subliminales, la Commission cite :

  • Présenter des stimulus d'une manière qui les rend complètement imperceptibles par l'humain dans des conditions normales
  • Attirer l'attention sur des stimulus ou des contenus pour la détourner d'autres
  • Altérer la perception du temps dans les interactions avec l'utilisateur

Pas non plus de définition pour "délibérement manipulatrices". Mais là aussi, des indications en préambule. Il faut comprendre "conçues pour ou objectivement destinées à influencer, altérer ou contrôler le comportement d'un individu d'une manière qui entrave leur autonomie et leur liberté de choix", résume la Commission. Et de faire remarquer que si certaines techniques manipulatrices n'opèrent pas sous le seuil de conscience, il peut y avoir un chevauchement avec des techniques subliminales, puisque ces dernières ont des effets manipulateurs. Exemple un système d'IA qui déploie, en fond, des sons ou des images influençant l'humeur. Ou bien un système d'IA qui façonne des messages très persuasifs sur la base des données personnelles d'un individu.

Les arrêts CJUE, autre source d'interprétation de l'AI Act

Les usages interdits couvrent aussi les systèmes d'IA qui manipulent les individus sans intention humaines. Ainsi ceux qui ont appris des techniques manipulatrices à travers leurs données d'entraînement ou dans le cadre d'un apprentissage par renforcement. Même réflexion pour ceux qui apprennent des techniques trompeuses simplement pour améliorer leurs performances sur des tâches pour lesquelles on les a conçus.

La directive 2005/29/EC peut aussi être une bonne source interpréter "altérer substantiellement les comportements humains". Ce texte interdit les pratiques commerciales injustes, trompeuses et agressives susceptibles de faire prendre aux consommateurs des décisions qu'ils n'auraient pas prises sinon. En combinant sa lecture à celle de la CJUE, la Commission européenne considère qu'il n'est pas nécessaire de prouver l'existence d'une déformation de comportement. Il suffit d'établir qu'une pratique commerciale est "susceptible" d'influencer la décision d'un consommateur moyen...

Illustration générée par IA

Sur le même thème

Voir tous les articles Data & IA

Livres Blancs #security

Voir tous les livres blancs

Vos prochains événements

Voir tous les événements

Voir tous les événements

S'abonner
au magazine
Se connecter
Retour haut de page