Le shadow AI désigne l’utilisation non approuvée d’outils et de fonctionnalités d’IA générative par les employés. En savoir plus sur les risques du shadow AI et ce que les équipes informatiques peuvent faire pour les éviter.
Dernière mise à jour 30 octobre 2025
L’essor des technologies innovantes éveille la curiosité, surtout lorsqu’il s’agit de l’intelligence artificielle (IA) et des outils d’automatisation qui améliorent la productivité. Bien que l’ingéniosité progresse à grands pas, certaines entreprises restent prudentes, voire résistantes, face à l’adoption de la technologie, même après réflexion.
Cependant, la résistance au changement n’empêche pas les employés d’utiliser l’IA en secret, d’autant plus que les outils comme Microsoft Copilot, ChatGPT et Claude rendent cette technologie plus accessible. C’est ce que l’on appelle le shadow AI, un phénomène qui se répand dans plusieurs secteurs.
Utilisez notre guide pour en savoir plus sur le shadow AI, son essor dans l’expérience client (CX) et d’autres secteurs, ses risques ainsi que les stratégies pour l’éviter.
Le shadow AI désigne l’utilisation d’outils d’IA externes non autorisés, sans l’accord de l’entreprise ou la supervision des équipes informatiques. Les employés de nombreux secteurs se tournent vers le shadow AI, comme :
Générateurs de contenu pour écrire des e-mails
Outils d’analyse basés sur l’IA pour optimiser le reporting
Outils RH basés sur l’IA pour sélectionner les candidats
Générateurs d’images basés sur l’IA
Assistants de codage basés sur l’IA installés de manière confidentielle
Outils d’évaluation des risques pour analyser les risques de crédit ou de fraude
Assistants de service basés sur l’IA non autorisés
Outils de productivité basés sur l’IA non approuvés
Le shadow AI prévaut dans les entreprises qui ne souhaitent ou ne peuvent pas mettre en œuvre l’IA dans le service client ou dans d’autres secteurs.
Le shadow AI vs. le shadow IT
Le shadow AI et le shadow IT désignent tous deux l’utilisation interdite d’une technologie au sein d’une organisation, mais leur principale différence est liée aux types de technologies utilisées et aux risques encourus :
Shadow AI : utilisation des outils et technologies d’IA sans l’approbation des équipes informatiques ou de gestion des données.
Shadow IT : utilisation de logiciels, matériels ou infrastructures informatiques, généralement sur un réseau d’entreprise.
Le shadow IT se limite aux équipes ou à certains membres de l’équipe utilisant des outils non autorisés, tandis que le shadow AI peut survenir dans toute l’organisation.
Les différences entre le shadow AI et le shadow IT
Shadow AI
Shadow IT
Définition
Utilisation d’outils et de technologies d’IA sans l’approbation des équipes IT ou de gestion des données
Utilisation de logiciels, matériels ou infrastructures informatiques non approuvés sur un réseau d’entreprise
Adoption
Adopté par des employés individuels cherchant à améliorer la productivité et la commodité des outils
Adopté par les employés ou les équipes pour résoudre les difficultés informatiques en temps réel
Gouvernance et conformité
Manque de supervision et de contrôle de l’équipe informatique ou en charge des données
Manque de supervision informatique ou organisationnelle plus importante
Risques
Protection des données
Biais du modèle d’IA
Violations de la conformité
Manque de transparence
Fuites de données
Conformité réglementaire
Menaces de sécurité réseau
Impact culturel
Encourage l’innovation, mais risque d’être incohérent dans l’utilisation des données et la prise de décision
Favorise l’agilité mais peut fragiliser la cohésion de l’environnement informatique et la collaboration entre équipes
Exemple
L’équipe du service client utilise un outil d’IA non approuvé pour analyser le sentiment client
L’employé utilise un service d’hébergement non approuvé pour stocker et partager des fichiers de travail
L’essor du shadow AI
Le développement rapide de l’IA sous toutes ses formes, notamment l’IA générative et conversationnelle, a donné lieu à une adoption croissante par les utilisateurs eux-mêmes. L’accessibilité accrue des outils d’IA destinés aux consommateurs (qui nécessitent peu ou pas de connaissances techniques) et le manque de régulations officielles de l’IA donnent aux employés la possibilité d’utiliser des solutions d’IA non approuvées.
Selon notre Rapport CX Trends 2025, le shadow AI a augmenté de 250 % d’une année sur l’autre dans certains secteurs, exposant les entreprises à des risques majeurs. Cette tendance n’est pas sans conséquences pour la sécurité des données, la conformité et l’éthique professionnelle, puisque de nombreux employés ont recours au shadow AI, au lieu d’opter pour des solutions autorisées par l’entreprise, car :
Ils ne sont pas satisfaits des outils existants.
Ils peuvent facilement accéder et utiliser les solutions disponibles.
S’ils n’investissent pas rapidement dans l’IA, en raison de freins budgétaires, techniques ou organisationnels, les adeptes d’une une approche conservatrice de la CX verront cette tendance se renforcer encore davantage. Face à cette transformation, de nombreux adeptes d’une approche avant-gardiste de la CX réussissent à concilier l’usage d’outils IA certifiés, comme les agents IA et l’automatisation de l’expérience client (CXA), et un contrôle rigoureux.
Risques liés au shadow AI
S’il n’est pas correctement géré ou atténué, le shadow AI présente de graves risques organisationnels, notamment :
Vulnérabilités de sécurité : de l’accès non sécurisé aux données aux fuites de données, le shadow AI contourne souvent les mesures de sécurité classiques et rend les entreprises vulnérables aux attaques.
Intégrité des informations : en raison de l’absence de supervision et de sécurité adéquates, le shadow AI peut mettre en péril l’intégrité des données de l’entreprise.
Défis de conformité : si les employés partagent des données sensibles avec des plateformes d’IA tierces sans l’autorisation de l’entreprise ou à son insu, le risque de violation des réglementations et des accords de non-divulgation augmente.
Menaces de cybersécurité : l’utilisation d’outils non approuvés et non vérifiés présente un risque d’introduire des bugs, des logiciels malveillants ou des erreurs de code dans les systèmes de l’entreprise.
Qualité incohérente : les solutions d’IA isolées et non compatibles entre elles peuvent produire des résultats incohérents ou peu fiables qui nuisent aux relations avec les clients ou à la réputation des employés.
Même si les employés ont recours au shadow AI pour améliorer leur efficacité, leurs actions peuvent avoir un impact négatif sur l’utilisation des ressources, l’évolutivité des projets et la confidentialité des données clients
Gestion et atténuation du shadow AI
L’usage de l’IA en milieu professionnel s’impose de manière durable, il est donc vain de chercher à éliminer le shadow AI sans adopter de solutions adaptées à l’échelle de l’organisation. Voici une liste des bonnes pratiques pour gérer et atténuer les risques afin de faciliter le changement :
Autorisez les outils d’IA : si vous souhaitez atténuer le recours au shadow AI, fournissez à vos employés des outils qui leur facilitent la vie. Les outils autorisés ont souvent des licences d’entreprise qui offrent un niveau de sécurité supplémentaire.
Définissez des directives claires sur l’utilisation de l’IA. Mettez au point des directives claires et concises pour encadrer l’utilisation de l’IA au sein de votre entreprise. Pour les marques du secteur des services, suivez les bonnes pratiques en matière d’éthique de l’IA dans la CX.
Développez un cadre de gouvernance de l’IA. Tenez compte des biais et des différences culturelles lors de la création de politiques et de pratiques pour guider l’usage des systèmes d’IA.
Créez un centre d’excellence (CdE) consacré à l’IA. Mettez sur pied une équipe ou un service impartial et diversifié qui gère et dirige les initiatives d’IA de l’entreprise.
Priorisez l’éducation et la formation à l’IA. Ces formations doivent traiter des risques associés à l’usage de l’IA et fournir un guide d’utilisation des outils ou solutions concernées.
Créez une culture axée sur une utilisation sécurisée de l’IA. Avec votre gouvernance en place, appuyez-vous sur des outils d’IA, comme une base de connaissances enrichie par l’IA, pour faire comprendre à vos équipes que l’usage de l’IA est encouragé dans l’organisation.
Favorisez l’alignement des fonctions métier et des services IT. Assurez-vous que les outils d’IA répondent aux besoins opérationnels et respectent les normes de sécurité, de conformité et de performance.
Fournissez des opportunités d’expérimentation sécurisées. Créez des environnements dédiés à l’expérimentation pour permettre aux équipes d’explorer de nouvelles applications de l’IA dans des cadres sûrs et surveillés.
Encouragez la transparence en matière d’IA. Communiquez ouvertement avec vos équipes sur la nécessité de promouvoir une adoption responsable de l’IA, en leur montrant le fonctionnement des outils utilisés et l’usage qui sera fait des données.
Utilisez la quality assurance (QA) et les outils de surveillance. Analysez régulièrement les données issues du suivi de la qualité pour surveiller l’éventuelle utilisation du shadow AI, à travers la régularité et la fiabilité du travail fourni.
Surveillez les indicateurs de risque. Surveillez les modèles de données inhabituels, les pics de productivité inexpliqués, les incohérences dans les réponses ou la documentation, et les résultats de travail inattendus (négatifs et positifs).
Évaluez les risques d’utilisation actuelle. Utilisez des outils de surveillance du réseau, des enquêtes anonymes auprès des employés et des analyses de dépenses pour obtenir des commentaires sur les outils en cours d’utilisation et le recours éventuel au shadow AI.
Reconnaissez et intégrez les innovations. Reconnaissez les innovations utiles issues du shadow AI et intégrez-les dans vos systèmes internes pour encourager la créativité dans un cadre sécurisé.
Renforcez les contrôles d’accès. Gérez les données sensibles en activant manuellement les accès pour assurer la protection des données clients, même si les employés utilisent le shadow AI.
Il est temps d’accepter l’essor de l’IA. Notre Rapport CX Trends 2025 a révélé que 93 % des adeptes d’une approche avant-gardiste de la CX conviennent que l’usage d’outils IA autorisés favorise l’appropriation de la technologie et de ses usages avancés, tout en limitant les risques liés aux solutions non approuvées.
Questions fréquentes
Voici quelques solutions pour éviter le shadow AI :
Offrir des outils autorisés
Améliorer l’agilité informatique
Créer et respecter des normes de gouvernance claires
Fournir des environnements d’expérimentation sûrs
Favoriser une communication ouverte entre les services
Former les employés aux risques et à l’utilisation de l’IA
Le shadow AI se produit lorsque les employés ou les équipes cherchent à améliorer leur productivité ou à automatiser des tâches répétitives en adoptant des outils et des solutions d’IA avant de (ou sans) demander l’autorisation des équipes informatiques ou de gestion des données.
Du succès clients au retail, les employés de nombreux secteurs ont recours au shadow AI malgré les risques, car il :
Favorise l’innovation : le shadow AI permet aux utilisateurs d’essayer de nouveaux outils d’IA, de tester de nouvelles idées et approches de manière autonome, et de profiter de progrès technologiques en dehors du contrôle des services informatiques.
Booste la productivité : avec les outils adaptés (ou plus puissants) offerts par le shadow AI, les employés peuvent résoudre les problèmes, mettre à jour les workflows et terminer leurs tâches efficacement.
Améliore l’autonomie : le shadow AI permet aux employés de rechercher et de choisir de manière autonome des outils d’IA qui répondent à leurs besoins, ce qui augmente l’engagement des collaborateurs.
Fait ressortir les opportunités : les employés qui ont recours au shadow AI peuvent mettre en évidence les domaines où les outils d’une entreprise sont insuffisants et les domaines dans lesquels il est possible d’améliorer l’utilisation de l’IA autorisée.
Personnalise les solutions : grâce au shadow AI, les employés peuvent personnaliser les solutions d’IA selon leurs objectifs et besoins spécifiques, ce qui leur permet de profiter de solutions adaptées, à la place des outils standard généralement proposés par les équipes informatiques.
Bien que le shadow AI présente de nombreux risques en matière de sécurité des données, plusieurs défis subsistent pour en limiter l’usage, notamment :
Normalisation des techniques de prévention
Inefficacité des ressources au sein des équipes qui utilisent des outils basés sur l’IA
Conflits et désaccords organisationnels
Bien que les avantages de la gestion et de l’atténuation du shadow AI l’emportent de loin sur les défis, ces derniers doivent néanmoins être pris en compte.
Toute utilisation non autorisée ou non vérifiée de l’IA peut être considérée comme du shadow AI, notamment :
Bots ou assistants basés sur l’IA comme les assistants IA vocaux
Boostez votre entreprise avec des outils d’IA approuvés
Alors que les organisations jonglent entre le shadow AI et les solutions d’IA approuvées, la clé du succès réside dans une gestion proactive qui met l’accent sur la gouvernance technologique et la responsabilisation des employés.
En mettant en place des stratégies solides et en s’appuyant sur des outils validés, les entreprises peuvent non seulement mieux accompagner leurs équipes, mais aussi convertir les défis du shadow AI en leviers d’innovation et de développement. L’adoption d’outils d’IA approuvés, comme le copilote IA de Zendesk, permet aussi d’améliorer les performances de vos équipes via des réponses suggérées, des analyses en temps réel et des conseils personnalisés.