IA : comprendre la réglementation et les risques

GouvernanceRégulations
applications open source GPT IA générative

Les autorités réglementaires de différents pays du monde mettent en place des mesures strictes pour minimiser les risques.

L’intelligence artificielle (IA) a fait couler beaucoup d’encre ces dernières années pour son potentiel révolutionnaire. En effet, selon Gartner, les PDG et DSI pensent qu’un cinquième de leur chiffre d’affaires total pourrait provenir de « clients machines » d’ici à 2030.

Malgré son potentiel, l’IA reste évidemment associée à certains risques inhérents. Parmi les plus notables : la manipulation sociale par les algorithmes, où des acteurs malintentionnés diffusent des informations erronées à des fins personnelles, entraînent des bouleversements politiques, voire l’automatisation de l’armement.

L’IA peut porter atteinte à la vie privée et à la sécurité en collectant des données personnelles pour surveiller l’activité des utilisateurs. Cette collecte de données et l’utilisation qui en est faite pour créer des renseignements peuvent entraîner des violations de la vie privée donnant lieu à des poursuites judiciaires.

Plus important encore, la manipulation des données peut entraîner des biais. Par exemple, l’algorithme d’un géant mondial du e-commerce qui discriminait les femmes via un programme de filtre de CV s’est retrouvé sous le feu des projecteurs pour son caractère discriminatoire.

Lors de l’adoption de l’IA, ces faiblesses peuvent apparaître à trois moments clés : la phase de collecte des données, où les risques d’anomalies sont élevés, lors de la phase de conception, qui peut présenter des défauts dus à des hypothèses ou à des erreurs de codage, et enfin durant la phase de production, où l’interprétation des données n’est pas précise.

Quelles sont les normes réglementaires mondiales en matière d’IA ?

Les autorités réglementaires de différents pays du monde mettent en place des mesures strictes pour minimiser les risques. Aux États-Unis, plusieurs États exigent un audit de partialité annuel des décisions d’emploi automatisées (AEDT) prises pendant le recrutement pour mettre les résultats à disposition du public. Il existe des réglementations telles que l’Equal Opportunity Employment Commission (EEOC), qui rappelle aux entreprises qu’elles doivent rester équitables dans leurs -processus de recrutement basés sur l’IA.

Le Partenariat mondial sur l’intelligence artificielle (GPAI), quant à lui, est une initiative internationale et multipartite, qui vise à faire progresser le développement et l’utilisation responsables de l’intelligence artificielle.

Le Canada, de son côté, a proposé trois lois pour protéger la vie privée des individus : la loi sur la protection de la vie privée des consommateurs, la loi sur le Tribunal de la protection des renseignements personnels et des données, et la loi sur l’intelligence artificielle et les données (AIDA).

Le Conseil de l’Europe a publié des directives concernant la sécurité intelligente. Le règlement général sur la protection des données (RGPD) encadre la manière dont les entreprises peuvent collecter, traiter et stocker les données personnelles. Étant donné que les modèles d’IA peuvent utiliser des données personnelles, les entreprises qui prévoient d’utiliser l’IA pour stimuler leur croissance doivent s’assurer qu’elles sont conformes au RGPD, ce qui certes permet l’adoption de l’IA mais la rend également plus complexe.

Récemment, la Chine a publié des directives éthiques pour s’assurer que l’IA ne mette pas en danger la sécurité publique.

Les réglementations, un frein à l’utilisation de l’IA ?

Bien que la liste ci-dessus des organismes de réglementation ait été établie pour assurer la protection des données personnelles, garantir la sécurité mondiale et éviter les biais, dans certains cas, des réglementations telles que le RGPD peuvent entraver l’utilisation de l’IA.
Par exemple, lorsque les données ne sont pas conformes, les entreprises sont obligées de les supprimer, ce qui n’est pas le cas avec l’IA. Pourtant, cela a un impact direct sur la quantité et la qualité globales des données utilisées pour entraîner l’intelligence artificielle.

Dans l’ensemble, les réglementations telles que le RGPD attribuent une feuille de route et un cadre pour la collecte et le traitement des données personnelles. L’éthique sous-jacente à de la collecte des données doit permettre de garantir qu’il n’y aura pas de violations ou de répercussions négatives de l’intelligence liée aux données.

Pour terminer, le RGPD décrit également le droit d’obtenir une explication quant aux décisions auxquelles aboutissent les algorithmes, l’explicabilité étant essentielle à la liberté de l’IA.

L’IA : un portail vers l’avenir

En résumé, l’IA est une science fondamentale axée sur la recherche comparable à la nanotechnologie, la physique quantique et à d’autres innovations de rupture. Freiner cette science par des réglementations aura un impact sur ses progrès et, au premier chef, sur ses objectifs utilitaires. Afin de garantir l’adhésion et de maximiser les avantages de l’IA, les entreprises devront formaliser des politiques qui s’engagent à respecter des normes éthiques.

Les entreprises peuvent faire appel à tout le potentiel de l’IA, mais en veillant à ce que les directives en matière de vie privée, de sécurité, de partialité et de protection soient pleinement respectées, l’IA redessinera l’industrie, notamment pour les jeunes entreprises en quête de créativité.


Auteur
En savoir plus 
Senior Vice President, chargé de IA et de Automatisation
Infosys
Balakrishna D R est Senior Vice President en charge de l'IA et Automatisation chez Infosys
En savoir plus 

Livres blancs A la Une