Comment rendre l’IA plus sûre et plus responsable

Data & StockageMachine Learning
Google IA données publiques

Les entreprises doivent trouver un équilibre entre la quête d’’innovation et les considérations éthiques telles que la partialité, le respect de la vie privée, la violation de la propriété intellectuelle, la sécurité et la prévention des risques.

L’essor de puissants systèmes d’IA générative a ouvert le débat sur les risques et la dimension éthique de cette technologie. Les entreprises doivent trouver un équilibre entre la quête d’’innovation et les considérations éthiques telles que la partialité, le respect de la vie privée, la violation de la propriété intellectuelle, la sécurité et la prévention des risques.

Pour maintenir cet équilibre complexe, les entreprises doivent adopter une stratégie à trois volets, axée sur la mise en place de garde-fous techniques, sur des approches responsables et sur l’élaboration d’un cadre de gouvernance solide.

Garde-fous techniques

Les entreprises doivent concevoir ou adopter des solutions techniques solides pour faire face à différentes menaces. L’efficacité de ces solutions varie en fonction de la nature du cas d’usage, du type de données et du modèle ; une évaluation appropriée est donc nécessaire.

Il existe de nombreux exemples d’environnement open-source et d’outils commerciaux qui permettent de détecter les informations d’identification personnelle (PII) et de rédiger des textes, d’identifier et de limiter les biais et la toxicité, d’expliquer les données, d’assurer la sécurité, etc. Cependant, toutes ces solutions techniques ne doivent pas compromettre la précision et les performances des solutions.

Concernant l’IA générative, les entreprises doivent investir dans une couche de modération qui agira comme un garde-fou au-dessus du modèle de base. Cette couche veillera à ce que les grands modèles de langage n’utilisent pas d’informations sensibles ou confidentielles pendant la phase d’entrainement ou dans les prompts.

Un filtrage plus poussé peut être proposé pour détecter les contenus toxiques ou biaisés et restreindre certains contenus à des personnes au sein de l’entreprise, conformément à la politique en vigueur.

Il peut surveiller les entrées et les sorties pour détecter des menaces telles que les jailbreaks, l’injection de prompts, les attaques par inférence, etc. Tout prompt ou sortie non conforme peut être bloqué ou marqué en vue d’une supervision ultérieure. Ce système doit être clair et transparent afin que les utilisateurs comprennent le raisonnement qui sous-tend la décision.

Pour prévenir les hallucinations, les résultats peuvent être recoupés avec plusieurs bases de données de connaissances afin de vérifier l’exactitude des éléments. Il est important d’adopter une approche par plateforme et d’élaborer une solution globale considérant tous les facteurs de risque.

Responsible by design

Il est impératif d’intégrer des garde-fous et des bonnes pratiques à toutes les étapes du cycle de vie de l’IA.

De la préparation des données à l’ingénierie des modèles, en passant par l’optimisation, la validation et le déploiement. Une responsabilisation adéquate se doit se faire au niveau des audits, de la documentation, de la gestion des risques liés aux modèles, des tests contradictoires, de la mise en place de contrôles de la confidentialité des données.

En outre, dans le souci d’identifier toutes les potentielles défaillances, une expertise humaine doit être intégrée afin de surveiller les garde-fous techniques.

Les organisations doivent également envisager la création d’une architecture de référence de l’IA responsable, qui servira de guide complet pour tous les déploiements de cette technologie. Elle présentera tous les outils appropriés pour un scénario donné et indiquera les procédures opérationnelles pour chaque étape du cycle de vie.

Des garde-fous alignés sur les politiques des entreprises

Les entreprises ont besoin d’une politique globale couvrant les personnes, les processus et la technologie pour mettre en œuvre une utilisation responsable des systèmes d’IA. En l’absence de réglementation gouvernementale ou sectorielle spécifique, les entreprises doivent s’appuyer sur l’autorégulation pour rester sur la bonne voie et adopter des cadres reconnus tels que le cadre de gestion des risques liés à l’IA (AI Risk Management Framework) de l’Institut national des normes (NIST). Outre un cadre de gouvernance solide couvrant le cycle de vie de l’IA, il convient d’adopter une approche structurée permettant de mettre les principes en pratique, sans limiter l’innovation et l’expérimentation.

Voici quelques-uns de ces principes :

> Poser des bases solides en définissant clairement les principes, les valeurs, les cadres, puis en suivant les directives et les plans opérationnels afin de garantir un développement responsable de l’IA tout au long de son cycle de vie.
> Élaborer des méthodes d’évaluation des risques, des outils d’évaluation de la maturité de l’IA responsable, des mesures de performance, procéder à des évaluations périodiques pour contrôler et contenir les risques, effectuer une veille sur les projets de réglementation à venir et assurer l’évolutivité du cadre politique.
> Créer des systèmes permettant de conserver une documentation accessible sur les bonnes pratiques et les directives
> Examiner périodiquement l’application des bonnes pratiques MLOps pour le suivi des expériences, le contrôle des versions, la traçabilité, la gouvernance des données, la reproductibilité et la détection des dérives.
> Élaborer une feuille de route pour une IA responsable afin d’étendre les meilleures pratiques à l’ensemble des cas d’usage
> Mettre en place un conseil d’éthique de l’IA chargé d’examiner chaque cas d’usage pour détecter d’éventuelles violations ; ainsi qu’un comité d’examen composé de représentants des services juridiques, de la gestion des risques, d’experts techniques et d’experts du domaine, chargé de procéder à des audits fréquents des modèles, du développement et de la mise en œuvre.
> Établir une responsabilité des mécanismes pour prendre en compte le retour d’information et des canaux appropriés pour que les parties prenantes puissent faire part de leurs préoccupations et obtenir réparation.
> Organiser des formations périodiques adaptées aux différents profils employés afin de les sensibiliser aux meilleures pratiques.

L’engagement et la sensibilisation des acteurs sont des éléments clefs pour une IA éthique. La collaboration entre chercheurs, industriels et décideurs politiques doit permettre d’identifier les potentiels risques, de les traiter voire de les contrer. Elle peut aussi permettre d’accélérer le déploiement de garde-fous dans un environnement technologique en constante évolution sans en limiter son potentiel novateur.


Auteur
En savoir plus 
Senior Vice President, chargé de IA et de Automatisation
Infosys
Balakrishna D R est Senior Vice President en charge de l'IA et Automatisation chez Infosys
En savoir plus 

Livres blancs A la Une