IA responsable : les salariés français entre espoir et inquiétude
La première édition de l'étude " Observatoire de l'IA responsable " confirme que l'IA est un sujet qui interpelle fortement les salariés. Ils souhaitent que son développement se fasse de manière éthique et responsable.

Les résultats montrent que les salariés sont partagés. Si plus de la moitié (52%) considère l'IA comme un facteur important pour le développement et le rayonnement du pays, cette proportion grimpe à 74% parmi ceux qui utilisent déjà l'IA. Les États-Unis sont perçus comme le principal bénéficiaire actuel du développement de l'IA (53% parmi les utilisateurs d'IA), devant la Chine (42%), la Corée du Sud (33%), la France (30%) et l'Union européenne (29%).
Cependant, cette perception positive ne se fait pas sans conditions. Une large majorité (près de 75%) des salariés juge nécessaire de réguler le développement de l'IA. Plus précisément, 37% estiment que c'est "tout à fait nécessaire", une opinion partagée par 85% des utilisateurs d'IA.
Équilibre entre innovation, sécurité et éthique
Les salariés sont clairs : il faut trouver un équilibre entre innovation, sécurité et responsabilité dans les projets d'IA des entreprises. Seulement 10% privilégient l'innovation à tout prix, tandis que 36% appellent à un équilibre, et 21% estiment que le respect des principes éthiques doit primer.
L'étude révèle aussi qu'une agence internationale serait perçue comme l'organisme le plus à même d'exercer les fonctions de contrôle et de régulation (30%), plus que l'État (25%) ou l'Europe (19%). Cependant, l'AI Act européen est jugé positivement par 57% des salariés, et même par 75% des utilisateurs d'IA.
Des inquiétudes sur l'emploi et la confidentialité
Les salariés n'ignorent pas les risques liés à l'IA. L'impact sur l'emploi arrive en tête des préoccupations (41%), suivi des risques liés à la confidentialité des données (33%) et à une dépendance excessive à l'IA (31%). D'autres risques sont également cités, comme la non-conformité aux réglementations (24%), le manque de transparence des tâches réalisées par l'IA (23%), ou encore l'amplification des stéréotypes.
L'IA responsable : une nécessité pour les salariés
Face à la définition d'une IA responsable (1), 63% des salariés estiment qu'elle est souhaitable ou indispensable, une conviction renforcée chez les utilisateurs d'IA (83%). Pour ces salariés, l'IA responsable doit prioritairement s'appliquer à la protection des données personnelles (36%), au respect des droits fondamentaux (27%), à l'amélioration du bien-être humain (25%), au respect de l'humain (24%), et à l'éthique.
Près de 8 salariés sur 10 estiment qu'une IA responsable doit respecter l'être humain, sa santé, son bien-être et ses droits. L'IA responsable est également perçue comme un facteur d'efficacité dans le travail (44%), un outil d'aide à la décision (39%), et comme un moyen de consommer moins de ressources.
Mise en oeuvre : des efforts à faire
Malgré ces convictions, les salariés sont partagés quant à la manière dont leurs entreprises mettent en oeuvre l'IA responsable. La moitié des salariés (50%) évaluent la mise en place de l'IA responsable dans leur entreprise à un niveau de 4 sur 10. Seuls 9% d'entre eux indiquent pouvoir se référer à une charte éthique ou à un comité d'éthique concernant l'IA. De ce fait, 44% des salariés souhaitent une surveillance de l'IA et 42% appellent à ce que l'entreprise garantisse une utilisation de l'IA selon des principes éthiques.
Les entreprises ont les cartes en main pour réussir
Les salariés identifient les compétences internes en matière d'IA (28%), la sensibilisation aux enjeux et la formation (22%), et la motivation au changement (20%) comme des atouts pour une acculturation réussie à l'IA responsable. Ils soulignent cependant les freins à lever, tels que le manque de compétences internes (30%), la complexité technique (26%), les coûts (24%), la résistance au changement (22%) ou le manque d'engagement de la direction.
L'urgence d'une IA responsable et maîtrisée
Les entreprises doivent prendre en compte ces préoccupations et mettent en oeuvre des stratégies qui placent l'éthique, la transparence et la protection des données au coeur de leurs projets d'IA. La sensibilisation, la formation et la mise en place de chartes éthiques sont des étapes indispensables pour une adoption responsable et efficace de l'IA en entreprise.
(1) La définition de l'IA responsable proposée aux salariés interrogés était libellée de cette façon : une intelligence artificielle responsable est conçue pour respecter des principes éthiques, garantir la transparence et minimiser les risques potentiels, y compris les biais dans ses algorithmes. Elle favorise l'inclusion sociale et la protection des données, tout en étant capable de choix explicables. De plus, elle vise à améliorer le bien-être humain sans causer de dommages sociaux, environnementaux ou de santé.
* Réalisée par Impact IA, le think & do tank de l'IA responsable, en partenariat avec KPMG en France et BNP Paribas. L'Observatoire de l'IA responsable a interrogé un échantillon représentatif de 1000 salariés du secteur privé en France.
Sur le même thème
Voir tous les articles Data & IA