Shadow AI : quand les salariés français s'emparent de l'IA...en secret
Une étude de l'Inria et de datacraft révèle l'ampleur du phénomène "Shadow AI" dans les entreprises françaises. Cette utilisation informelle et non déclarée d'outils d'IA générative par les collaborateurs bouleverse déjà les organisations.

Ils reformulent leurs e-mails avec ChatGPT, traduisent des documents techniques, structurent leurs présentations ou font de la veille avec des outils d'intelligence artificielle. On connaissait le Shadow IT. Il faut désormais composer avec le Shadow AI.
Un ensemble de pratiques qui se développent en silence, souvent hors des radars hiérarchiques. L'étude menée par l'Inria et datacraft estime que le phénomène concerne aujourd'hui une part significative des salariés français. Menée auprès de 14 entreprises " pionnières" françaises - dont Airbus, l'Assurance Maladie, L'Oréal, le Crédit Agricole, le CHU de Montpellier, la MAIF ou encore le Ministère des Armées - elle révèle une appropriation informelle de l'IA par les collaborateurs, motivée par la recherche d'efficacité, de créativité ou d'autonomie.
Premier constat : malgré une décennie d'investissements dans des PoC, seuls 20% des projets d'IA pilotés par les entreprises sont industrialisés. Ce décalage entre les ambitions stratégiques et les usages réels sur le terrain est souvent lié à des infrastructures inadaptées, des données de faible qualité, un manque de clarté sur les objectifs, et une inadéquation avec le travail réel. Les approches "par le haut", axées sur la rationalisation et la standardisation, ignorent fréquemment les dynamiques concrètes du travail et les compétences tacites, entraînant rejet ou indifférence de la part des collaborateurs.
Une constellation d'usages plus ou moins visibles
À l'inverse, les usages informels se développent précisément parce qu'ils répondent à des besoins concrets et reposent sur l'autonomie des pratiques. Les collaborateurs utilisent l'IA générative pour des tâches variées. Une démarche qui s'apparente à du "bricolage" mais qui exploite de façon créative des ressources disponibles, mêlant expérimentation, itération et ajustement permanent. Dans ce contexte, la capacité à "prompter" et à vérifier se mue en compétence clé.
Le Shadow AI recouvre une réalité complexe. L'enquête identifie plusieurs niveaux : de la clandestinité totale ("Il s'en servait vraiment, sur de vrais patients, avec de vraies données, sans aucun filet de sécurité") à la tolérance assumée ("On a aussi choisi de faire confiance aux employés"). Le spectre comprend aussi des formes plus insidieuses : des IA intégrées à des logiciels officiels mais non identifiées comme telles, ou encore des usages masqués aux clients pour préserver la valeur vendue ("Le client achète surtout du temps humain, pas une IA").
Malgré son potentiel, le Shadow AI n'est pas sans risques. Pour les organisations, il engendre des failles en matière de sécurité, de conformité réglementaire, de gouvernance des données et de souveraineté technologique. L'utilisation d'outils non validés peut transférer des informations sensibles sur des serveurs externes, introduire des biais ou générer des erreurs factuelles, compromettant ainsi la qualité et la confidentialité du travail.
Du côté des collaborateurs ces pratiques informelles peuvent générer un inconfort moral et une pression psychologique. L'étude souligne cette "ambivalence forte" : pour ces utilisateurs, "l'IA est autant un levier d'efficacité qu'un facteur de déstabilisation cognitive, affective et professionnelle".
Elle souligne que le Shadow AI peut être une opportunité stratégique s'il est bien accompagné. Toutes ces pratiques représentent un terrain d'expérimentation et pourraient faire de ce "bricolage" un véritable accélérateur pour redéfinir les pratiques professionnelles.
Quatre recommandations clés pour transformer le "Shadow AI" en opportunité stratégique
- Négocier collectivement la sortie du Shadow AI
Il s'agit d'accompagner les organisations vers une régulation progressive des usages informels de l'IA, en partant du réel plutôt que du prescriptif. Cette démarche en trois temps - "piloter" (rendre les usages visibles, poser un cadre minimal), "partager" (créer des espaces d'échange), et "sécuriser" (fournir des outils validés et un cadre légal) - est essentielle. - Organiser des ateliers pour co-définir la qualité du travail avec l'IA
Ces ateliers visent à mettre en discussion les transformations du travail induites par l'IA, en faisant émerger des critères partagés de qualité, au-delà des seules normes techniques. - Co-construire un cadre de confiance
La réponse aux usages informels ne peut être ni l'interdiction ni l'ouverture sans limite. Il faut mettre en place un cadre de confiance clair, souple et évolutif, définissant les données et usages permis, explicitant les responsabilités, et prévoyant des mécanismes de supervision légers. Ce cadre doit être co-construit avec les acteurs concernés, y compris les représentants du personnel, pour gagner en légitimité. - Élaborer un parcours de formation holistique
Les compétences liées à l'IA générative dépassent largement les aspects techniques. Il est crucial de former les professionnels à la compréhension des limites des modèles, à l'évaluation critique des productions générées et à l'exercice d'un jugement professionnel sur ce qui peut ou non être délégué
L'étude de datacraft et Inria : "L'Intelligence Artificielle générative au travail : Accompagner et sécuriser les initiatives des collaborateurs " est disponible ici
Sur le même thème
Voir tous les articles Data & IA