{ Tribune Expert } - Bonnes pratiques pour une IA responsable
Pour les entreprises européennes, la référence principale est le règlement européen sur l'intelligence artificielle (EU AI Act). Selon la catégorie de risque, les entreprises devront répondre, en toute transparence, à différents niveaux d'obligations pour se conformer au règlement.

Si une entreprise exploite l'intelligence artificielle (IA) pour développer, tester, gérer ou fournir des applications destinées à des consommateurs, des clients ou des entités gouvernementales, elle sera probablement tenue de démontrer sa capacité à mettre en place des pratiques responsables en la matière.
La méthode la plus simple consiste à publier une documentation expliquant le fonctionnement de l'outil d'IA utilisé, y compris ses limites. Une autre approche consiste à garantir ou déclarer son alignement sur les normes d'une organisation spécialisée dans l'IA responsable (dont quelques exemples sont mentionnés ci-dessous). La plupart du temps, de nombreuses entreprises combinent ces deux méthodes.
Bien entendu, il est avant tout indispensable que les entreprises identifient clairement les pratiques d'IA responsables qu'elles ont adoptées et qu'elles prouvent qu'elles respectent constamment ces pratiques.
Ce point est particulièrement crucial pour préserver une réputation positive auprès du public. Au-delà des clients ; les employés, partenaires, analystes, médias, autorités publiques et actionnaires sont tous attentifs à ce que font et disent les entreprises - et parfois à ce qu'elles ne disent pas.
Guides pour une IA responsable
Si une entreprise n'anticipe pas ou ne voit pas l'intérêt d'adopter de manière proactive des pratiques responsables en IA, une demande de client pourrait bien la pousser à réagir. Il existe de nombreuses organisations qui proposent des guides et des recommandations sur l'IA responsable, mais toutes ne se valent pas. Nombre d'entre elles, si ce n'est toutes, peuvent aider à définir les pratiques à mettre en place.
Pour les entreprises européennes, la référence principale est le règlement européen sur l'intelligence artificielle (EU AI Act). Cette réglementation historique prévoit des exigences spécifiques auxquelles les acteurs de l'IA doivent se conformer, en adoptant une approche basée sur les risques. Les systèmes d'IA sont classés dans quatre catégories selon leur niveau de risque: prohibé/inacceptable, élevé, limité et minimal. Selon la catégorie de risque, les entreprises devront répondre, en toute transparence, à différents niveaux d'obligations pour se conformer au règlement.
Outre le règlement européen sur l'IA il existe de nombreuses autres ressources dont :
Lire aussi : { Tribune Expert } - Les trois fondements pour le leadership en ingénierie de l'IA en 2025
> Les fiches pratiques de la CNIL sur l'IA
Propose des recommandations pour concevoir et déployer des systèmes d'IA éthiques et conformes aux réglementations liées aux données, telles que le Règlement général sur la protection des données (RGPD)). Met en avant des principes clés tels que le respect des droits fondamentaux, la protection des données personnelles, la transparence des algorithmes et la gestion des risques.
> Center for Strategic and International Studies (CSIS) SAFE Innovation Framework
Il offre une stratégie législative complète pour relever les défis associés à l'IA et met l'accent sur des principes tels que la sécurité, la responsabilité, la protection des valeurs fondamentales, l'explicabilité et la promotion de l'innovation.
> Le Processus d'Hiroshima du G7 sur l'intelligence artificielle générative
Il propose un cadre collaboratif pour la gouvernance de l'IA générative aux décideurs politiques, aux développeurs et aux organisations internationales. Il vise à garantir que le développement de l'IA s'aligne sur les valeurs démocratiques et promeut la sécurité et la confiance, tout en abordant les enjeux mondiaux grâce à une gouvernance inclusive.
> La Série ISO/IEC 42001:2023
Elle est bénéfique pour les organisations de toutes tailles impliquées dans le développement, la fourniture ou l'utilisation de produits et de services basés sur l'IA. Elle fournit un cadre pour établir, mettre en oeuvre, maintenir et améliorer en continu un système de gestion de l'IA, adapté à toutes les tailles d'organisations.
> La recommandation de l'Organisation de coopération et de développement économique (OCDE)
Cette recommandation est utile aux décideurs politiques, aux développeurs d'IA et aux chefs d'entreprise, car elle propose un ensemble de principes pour une IA responsable digne de confiance, mettant en avant la croissance inclusive, les valeurs humaines, la transparence, la robustesse et la responsabilité.
> La feuille de route pour une IA responsable de Business Rountable
Elle fournit aux chefs d'entreprise, aux décideurs politiques et aux développeurs d'IA un ensemble de principes et de recommandations politiques pour guider le développement et le déploiement responsables des technologies d'IA.
> Le National Institute of Standards and Technology (NIST) AI Risk Management Framework
Précieux pour les organisations de divers secteurs en fournissant une approche structurée pour identifier, évaluer et gérer les risques associés aux technologies de l'IA, il met l'accent sur la responsabilité, la transparence et le comportement éthique dans le développement et le déploiement de l'IA.
Mise en pratique
À ce jour, il n'existe pas de règle universelle permettant de garantir des pratiques responsables en IA, en raison des évolutions rapides des systèmes d'IA et des niveaux de risque variables selon les cas d'utilisation.
Pour prendre un exemple simple : utiliser un grand modèle de langage (LLM) comme ChatGPT pour rédiger un e-mail est une activité à faible risque. En revanche, ce même modèle n'est par exemple pas conçu pour prodiguer des conseils juridiques et l'utiliser dans ce contexte représente un risque important (bien que cette utilisation ne soit pas interdite). Ce type de cas illustre le défi auquel les régulateurs sont confrontés : trouver un équilibre entre sécurité et innovation.
Les pratiques responsables en matière d'IA ne se limitent pas à la simple conformité réglementaire. Elles concernent également l'intégrité, les valeurs et, plus largement, la culture d'une personne. Bien que des formations supplémentaires et des procédures adaptées soient nécessaires pour répondre aux subtilités de l'IA et de l'IA générative, les entreprises doivent s'appuyer sur un ensemble de principes éthiques solides pour se protéger.
Les organisations doivent veiller à ce que leurs politiques et principes d'éthique prennent en compte l'IA et qu'ils s'y appliquent. Il est essentiel de définir clairement ce qui est attendu et ce qui ne doit pas être fait par les employés, partenaires, fournisseurs et clients concernant l'utilisation de l'IA, puis de communiquer efficacement sur ces attentes. Les entreprises doivent rappeler ces attentes fréquemment, et s'assurer que chacun comprend et accepte ces responsabilités et ces conditions d'engagement. Cela peut inclure des formations spécifiques pour garantir que les règles ne se perdent pas dans une boîte mail oubliée.
Les dirigeants doivent également collaborer avec l'équipe juridique de leur organisation et la tenir prête à répondre à toute question ou préoccupation d'ordre éthique, réglementaire ou liée à la responsabilité en matière d'IA. Le service juridique doit être en mesure de gérer les implications légales importantes liées à l'utilisation de l'IA. Il doit également veiller à respecter les obligations spécifiques en matière de tenue de registres, de rapports, et de transparence, entre autres, notamment en ce qui concerne l'application du règlement européen sur l'IA à l'entreprise.
* Lee McLean, conseiller juridique et spécialiste de l'IA chez Zebra Technologies
Sur le même thème
Voir tous les articles Data & IA