IA : l'UE doute sérieusement de la reconnaissance faciale
Dans le cadre de sa réflexion sur l'IA, Bruxelles projette une interdiction temporaire des systèmes de reconnaissance faciale dans les espaces publics.
Vers une interdiction des dispositifs de reconnaissance faciale dans l'espace public ?
La Commission européenne explore cette piste. Il en est question dans une ébauche de livre blanc sur l'intelligence artificielle, datée du 12 décembre 2019.
Le document pose d'autres « options réglementaires ». Entre autres, le principe d'adhésion volontaire à un label « d'éthique et de confiance » et des exigences spécifiques pour les applications hautement critiques.
Bruxelles aborde la reconnaissance faciale dans le cadre d'une réflexion sur l'usage de l'IA par les administrations publiques.
En la matière, exemple est pris sur la directive canadienne relative aux prises de décisions automatisées.
Il s'agirait d'imposer des obligations en matière d'analyses d'impact, de contrôle qualité ou encore de remédiation aux problèmes.
Sinon, il y a le RGPD
Ces obligations pourraient s'assortir de règles spécifiques aux systèmes de reconnaissance faciale implantés dans les lieux publics. Ce qu'ils soient utilisés par des acteurs du secteur public ou du secteur privé.
La Commission européenne songe à décréter une interdiction temporaire - « de 3 à 5 ans » - le temps de définir une méthodologie pour les analyses d'impact et la gestion des risques. Les activités de R&D bénéficieraient d'une exception, au même titre que certains usages destinés à assurer la sécurité du public.
Bruxelles admet qu'une telle tournure pourrait nuire au développement de ces technologies. Aussi les auteurs du livre blanc jugent-ils préférable de se concentrer, en l'état, sur la pleine implémentation des dispositions du RGPD.
Le document liste peu d'échéances, sinon début 2021, pour l'éventuelle adoption d'un texte sur les jeux de données stratégiques du secteur public.
La Commission européenne a toutefois identifié plusieurs points qu'elle estime nécessaire de faire évoluer :
- La Charte des droits fondamentaux, non applicable dans les situations qui n'impliquent que des acteurs privés.
- La directive relative à la sécurité générale des produits. D'une part, elle n'englobe pas les services. De l'autre, elle ne s'applique pas aux développeurs. Sauf s'ils sont aussi les concepteurs des produits dans lesquels leurs algorithmes trouvent place.
- L'intégration de risques « nouveaux » tels que la cybersécurité.
- La prise en compte de la « nature changeante » des produits au coucrs de leur cycle de vie, de par les mises à jour logicielles.
Photo d'illustration © mikemacmarketing via VisualHunt / CC BY
Sur le même thème
Voir tous les articles Data & IA