Shadow AI : 78% des salariés utilisent l’IA en secret et créent des risques

Orlene Briard
Lecture en 8 min
shadow-ai-78-des-salaries-utilisent-l-ia-en-cachette-et-exposent-leur-entreprise
L'essentiel

Un recours massif à la *Bring Your Own AI* transforme les entreprises en zones à risque : près de 75 % des salariés utilisent des outils d'IA non approuvés, 78 % des utilisateurs apportent leurs propres solutions, et ce phénomène touche particulièrement les PME. Les employés valorisent gains de temps, créativité et productivité, mais l'utilisation non supervisée expose des données sensibles, accroît les cyberrisques et favorise la fuite de savoir-faire. Beaucoup minimisent les dangers et n'osent pas avouer cet usage, créant une omerta. préconise d'encadrer plutôt que d'interdire, en fournissant des outils d'IA sécurisés intégrés au travail (par ex. Microsoft Copilot) pour protéger les actifs, retenir les talents et préserver la compétitivité face à la « Shadow AI ».

Un phénomène inquiétant prend de l'ampleur dans les entreprises. D'après le Work Trend Index de Microsoft, près de 75 % des salariés recourent à des outils d' non validés par leur hiérarchie. Cette pratique, baptisée “Bring Your Own AI” (BYOAI), transforme les entreprises en terrains minés exposés à des risques de sécurité majeurs.

Le BYOAI, une bombe à retardement pour les entreprises

D'après les données de Microsoft, 78 % des utilisateurs d'IA apportent leurs propres outils au travail. Ce phénomène affecte tout particulièrement les petites et moyennes entreprises, pour lesquelles le taux atteint 80 %. Contrairement aux conceptions courantes, il ne s'agit pas uniquement d'une tendance générationnelle restreinte à la génération Z.

La problématique excède la seule question de l'efficacité. 75 % des professionnels du savoir recourent déjà à l'intelligence artificielle dans le cadre de leur activité professionnelle, et 46 % d'entre eux ont entamé cette utilisation depuis moins de six mois. Les utilisateurs déclarent que l'intelligence artificielle leur permet de gagner du temps (90 %), de se focaliser sur leurs tâches les plus essentielles (85 %), d'accroître leur créativité (84 %) et d'apprécier davantage leur activité professionnelle (83 %). Cependant, cette adoption anarchique engendre un angle mort considérable.

La moitié des employés reconnaissent recourir à des outils non autorisés, et ils ne cesseraient pas cette pratique même en cas d'interdiction. L'incitation est évidente : moins de friction, meilleures performances, et avec elles, de meilleures évaluations et opportunités. Cette réalité sociologique excède les seules considérations d'ordre technologique.

Des données sensibles exposées

Les risques de cette pratique sont considérables. Lorsqu'un salarié insère des informations sensibles dans un chatbot accessible au public, il en perd immédiatement la maîtrise. Extraits de code, listes de clients, stratégies commerciales : tout peut se voir exposé.

Motivés par les gains de temps et de productivité perçus, cette tendance soulève d'importants problèmes de sécurité des données et de confidentialité. L'emploi non autorisé d'outils d'intelligence artificielle est susceptible de divulguer involontairement des informations sensibles de l' à des plateformes externes ou d'entraîner des manquements aux politiques internes. L'absence de supervision de ces outils accroît également la vulnérabilité aux failles de sécurité et aux cybermenaces.

- Advertisement -

De surcroît, une part préoccupante des personnes interrogées manifeste une compréhension ou une inquiétude quant aux risques liés à l'utilisation d'assistants IA externes non autorisés. Seul un tiers (32 %) des personnes interrogées expriment une préoccupation quant à la confidentialité des données d'entreprise ou clients saisies dans des outils d'IA grand public, tandis que seulement 29 % manifestent une inquiétude relative à la sécurité des systèmes informatiques de leur organisation. Cette insouciance amplifie les dangers.

Les dirigeants dépassés par le phénomène

De manière paradoxale, les entreprises figurent fréquemment parmi les dernières à être informées. Les responsables, accaparés par d'autres priorités, tardent à réguler l'utilisation de l'IA. Cette lenteur incite les employés, animés par le désir d'innover, à s'engager dans des prises de risques excessives.

Cette démarche implique de renoncer aux avantages découlant d'une exploitation stratégique à grande échelle de l'intelligence artificielle. Elle compromet également la sécurité des données de l'entreprise dans un contexte où la priorité absolue des dirigeants pour l'année à venir demeure la cybersécurité et la protection des informations. La contradiction est flagrante.

De plus, les employés déclarent se tourner vers les outils Shadow AI pour leur facilité et leur familiarité. Quatre personnes sur dix (41 %) déclarent que c'est ce qu'elles emploient dans leur vie personnelle, tandis que 28 % indiquent que leur entreprise ne propose aucune option approuvée pour le travail. L'absence de cadre institutionnel adéquat favorise ainsi les conduites à risque.

Un silence pesant autour de l'utilisation de l'IA

Un aspect encore plus troublant émerge des données. 52 % des individus recourant à l'IA dans leur activité professionnelle éprouvent une certaine réticence à reconnaître son emploi pour leurs missions les plus cruciales. 53 % des personnes qui utilisent l'IA au travail craignent que son emploi pour des tâches importantes les rende remplaçables.

Cette crainte engendre un cercle vicieux. Les collaborateurs recourent à des outils non autorisés afin de maintenir leur efficacité, mais hésitent à en faire état par crainte d'être perçus comme dépassés. Cette omerta empêche les entreprises de mesurer l'ampleur réelle du phénomène et d'agir en conséquence.

Cette « Shadow AI » constitue l'évolution logique du « Shadow IT », mais cette fois avec des répercussions qualitatives : un modèle externe peut certes entraîner une fuite de données, mais il est également susceptible d'absorber les savoirs tacites de l'organisation — pour ensuite s'en aller avec le collaborateur lors de sa démission. La fuite de savoir-faire devient un risque majeur.

Microsoft prône l'encadrement plutôt que l'interdiction

Confronté à ce constat préoccupant, Microsoft ne recommande pas une interdiction intégrale. Une telle démarche s'avérerait contre-productive et entraînerait le départ des talents. Au contraire, le géant technologique invite instamment les entreprises à reprendre judicieusement le contrôle.

“Les travailleurs britanniques adoptent l'IA comme jamais auparavant, débloquant de nouveaux niveaux de productivité et de créativité. Mais, l'enthousiasme seul ne suffit pas”, déclare Darren Hardman, PDG de Microsoft UK & Ireland. “Les entreprises doivent s'assurer que les outils d'IA en usage sont conçus pour le lieu de travail, pas seulement pour le salon.”

La solution recommandée consiste à mettre à disposition des outils d'IA officiels, sécurisés et intégrés à l'environnement professionnel, tels que Microsoft Copilot. Offrir une alternative validée permet aux entreprises de booster la productivité tout en protégeant leurs actifs les plus précieux. Il convient de diriger l' plutôt que de la réprimer.

L'urgence d'agir face à la menace concurrentielle

82 % des dirigeants estiment que l'année 2025 constitue un tournant décisif pour réévaluer les éléments fondamentaux de leur stratégie et de leurs opérations. Il est impératif que l'époque du « Shadow AI » prenne fin dans les plus brefs délais. Les enjeux excèdent la seule problématique sécuritaire.

Les entreprises qui feraient abstraction de cette tendance s'exposeraient à un double risque. D'une part, des divulgations de données d'ampleur considérable et susceptibles d'entraîner des conséquences désastreuses. Par ailleurs, il existe un risque que leurs concurrents plus réactifs prennent une avance déterminante. Les entreprises qui saisiront cette réalité en amont seront celles qui sauront capter la valeur. Celles qui ne le font pas continueront à perdre des talents.

La course est lancée. Entre le respect des exigences réglementaires, la protection des données et la préservation de la compétitivité, il incombe aux dirigeants de déterminer l'équilibre adéquat. L'IA ne constitue plus un simple luxe, mais s'impose désormais comme une nécessité. Il convient désormais de procéder à son adoption de manière sécurisée et stratégique.

Partager cet article
Passionnée par l’IA, j’aide les marques à comprendre et utiliser cette technologie pour créer des stratégies marketing innovantes, tout en restant centrée sur l’humain.