Skip to main content
shadow-ai data-privacy compliance

L'IA fantôme est déjà dans votre entreprise — vous ne le savez juste pas encore

Par amaiko 7 min de lecture
Visualisation abstraite de l'utilisation cachée de l'IA se propageant dans une organisation

Mardi dernier, quelqu’un de votre équipe financière a collé un contrat client confidentiel dans ChatGPT pour résumer les conditions de paiement. Quelqu’un du marketing a téléchargé votre présentation de revenus du T1 dans un outil d’IA pour générer du contenu pour les réseaux sociaux. Quelqu’un de l’ingénierie a injecté du code source propriétaire dans un assistant de code pour déboguer un problème en production.

Personne n’a prévenu la DSI. Personne n’a vérifié une politique. Personne n’y a réfléchi à deux fois.

Bienvenue dans l’IA fantôme — et elle est déjà partout dans votre organisation.

L’ampleur du problème

Le Work Trend Index 2024 de Microsoft a révélé un chiffre qui devrait empêcher tout RSSI de dormir : 78 % des utilisateurs d’IA au travail apportent leurs propres outils — une tendance que Microsoft appelle BYOAI (Bring Your Own AI). Dans les petites et moyennes entreprises, le chiffre est encore plus élevé, à 80 %.

Ce ne sont pas quelques early adopters passionnés de technologie. C’est la majorité de vos effectifs.

Le Generative AI Snapshot de Salesforce a confirmé la tendance : plus de la moitié des employés utilisant l’IA générative au travail le font sans approbation formelle de l’employeur. Et l’étude de BlackBerry en 2024 a révélé que 75 % des organisations dans le monde mettent en place ou envisagent des interdictions de ChatGPT et d’outils similaires.

L’écart est vertigineux. Les employés utilisent l’IA que vous l’approuviez ou non. La seule question est de savoir si vous en êtes informé.

À quoi ressemble réellement l’IA fantôme

L’IA fantôme n’est pas un acte délibéré d’espionnage industriel. Ce sont des personnes qui essaient d’être plus productives avec les outils à leur disposition. Et c’est précisément ce qui la rend si dangereuse — elle naît de bonnes intentions.

Voici à quoi cela ressemble en pratique : un commercial colle l’email d’un prospect dans ChatGPT pour rédiger une réponse. Un chef de produit télécharge des notes de réunion dans un résumeur IA. Une collaboratrice RH saisit des évaluations de performance dans un assistant d’écriture pour les entretiens de fin d’année. Un développeur colle des logs d’erreurs — contenant des données clients — dans un assistant de code.

Chacune de ces actions envoie des données d’entreprise à un service tiers avec lequel votre organisation n’a aucun accord, aucune piste d’audit et aucun contrôle.

Samsung l’a appris à ses dépens. En 2023, des ingénieurs Samsung ont collé du code source propriétaire de semi-conducteurs dans ChatGPT à au moins trois reprises en un seul mois. Le code a été transmis aux serveurs d’OpenAI, où il est potentiellement devenu des données d’entraînement. La réponse de Samsung a été une interdiction d’urgence à l’échelle de l’entreprise. Le mal était déjà fait.

Samsung n’est pas l’exception — c’est simplement l’entreprise qui a fait les gros titres. L’étude de CybSafe en 2024 a révélé que 38 % des employés admettent partager des informations professionnelles sensibles avec des outils d’IA sans que leur employeur le sache. Le chiffre réel est presque certainement plus élevé.

La bombe à retardement du RGPD

Si vous opérez en Europe — ou traitez des données de résidents européens — l’IA fantôme n’est pas seulement un problème de sécurité. C’est une violation réglementaire en attente de sanction.

En vertu du RGPD, tout transfert de données personnelles à un tiers nécessite une base juridique, un accord de traitement des données et — si les données quittent l’UE — des garanties adéquates en vertu du Chapitre V. Lorsqu’un employé colle un email client contenant des noms, adresses ou détails contractuels dans ChatGPT, il déclenche les trois exigences simultanément. (Nous avons couvert en détail le paysage de la conformité RGPD et IA.)

Aucune de ces exigences n’est satisfaite dans un scénario d’IA fantôme. Il n’y a pas de DPA avec OpenAI. Il n’y a aucun enregistrement du transfert. Il n’y a pas de base juridique au-delà de « j’avais besoin d’un résumé rapide ». L’article 30 du RGPD oblige les organisations à tenir des registres de toutes les activités de traitement — l’IA fantôme crée des activités de traitement que personne ne répertorie.

Le Comité européen de la protection des données a spécifiquement signalé les services d’IA comme des sous-traitants de données à haut risque. Et les amendes RGPD ne sont pas théoriques — l’application a dépassé 4,5 milliards d’euros depuis 2018, avec des pénalités pouvant atteindre 4 % du chiffre d’affaires annuel mondial.

Un employé qui passe 30 secondes à coller des données clients dans un outil d’IA gratuit pourrait déclencher une amende qui dépasse le gain de productivité de plusieurs ordres de grandeur.

Pourquoi interdire l’IA ne fonctionne pas

L’instinct de Samsung — tout interdire — est la réponse d’entreprise la plus courante à l’IA fantôme. C’est aussi la moins efficace.

Gartner avait prédit que d’ici 2025, les organisations tentant de bloquer l’utilisation de l’IA feraient face à des taux d’adoption fantôme plus élevés que celles fournissant des alternatives approuvées. Les données le confirment : l’étude de référence sur la confidentialité des données 2024 de Cisco a révélé que 63 % des employés soumis à une interdiction d’IA ont déclaré utiliser des outils d’IA générative malgré tout.

C’est intuitivement logique. On ne peut pas interdire la productivité. Les personnes qui ont expérimenté la rapidité de rédiger un email avec l’aide de l’IA, ou de voir un document complexe résumé en quelques secondes, ne reviendront pas au travail manuel. Elles cesseront simplement de vous en parler.

Interdire l’IA n’élimine pas l’IA fantôme — cela la pousse encore plus sous terre, la rendant totalement invisible pour vos équipes de sécurité et de conformité. Vous passez d’un problème que vous pourriez potentiellement gérer à un problème que vous ne pouvez même pas voir.

Le Work Trend Index de Microsoft a révélé que 52 % des personnes utilisant l’IA au travail sont réticentes à admettre qu’elles l’utilisent pour leurs tâches les plus importantes — par crainte de paraître remplaçables. Ajouter une interdiction à ce stigmate ne change pas le comportement. Cela élimine seulement le mince espoir de visibilité que vous aviez.

Les données que vous fuyez en ce moment même

Soyons concrets sur ce à quoi ressemble la fuite de données par IA fantôme.

Lorsque les employés utilisent des outils d’IA grand public, les données circulent vers des serveurs que votre organisation ne contrôle pas, sous des conditions d’utilisation que votre service juridique n’a jamais examinées. La plupart des services d’IA gratuits déclarent explicitement que les entrées des utilisateurs peuvent être utilisées pour l’entraînement des modèles. Même les offres payantes varient — le plan Team d’OpenAI n’entraîne pas ses modèles avec vos données, mais les plans gratuit et Plus le font par défaut.

Vos employés ne connaissent pas la différence. Ils ne devraient pas avoir à la connaître.

Les données à risque ne sont pas abstraites : données personnelles de clients, conditions contractuelles, projections financières, feuilles de route produit, évaluations d’employés, stratégies juridiques, code source et communications du conseil d’administration. La recherche de Cyberhaven sur l’adoption de l’IA en 2024 a révélé que 4,2 % des travailleurs du savoir ont collé des données confidentielles d’entreprise dans ChatGPT — et ce n’est qu’un seul outil, auto-déclaré, par des personnes prêtes à l’admettre.

Pour une entreprise de 1 000 travailleurs du savoir, ce sont 42 personnes qui ont déjà envoyé des données sensibles à un service avec lequel vous n’avez aucun contrat. Le mois dernier.

La vraie solution : une IA que les gens veulent utiliser, là où ils travaillent déjà

Le schéma est clair. Les gens veulent l’IA. Les interdictions échouent. Ignorer le problème est irresponsable. La seule stratégie viable est de fournir un outil d’IA approuvé qui soit suffisamment bon pour que les gens le préfèrent réellement à celui qu’ils apportent eux-mêmes.

C’est là que la plupart des entreprises échouent. Elles déploient un outil d’IA « approuvé » qui est plus difficile d’accès, moins performant, ou enfoui dans une plateforme que personne n’ouvre. Les employés l’essaient une fois, le trouvent maladroit, et retournent à ChatGPT dans un onglet de navigateur. L’IA fantôme gagne.

L’outil approuvé doit remplir trois critères. Premièrement, il doit être là où les gens travaillent déjà — pas une autre application, pas un autre identifiant, pas un autre onglet. (C’est pourquoi l’IA appartient à Microsoft Teams, pas dans une fenêtre de navigateur séparée.) Deuxièmement, il doit être véritablement utile — pas une version édulcorée, limitée jusqu’à l’inutilité de ce qu’on peut obtenir gratuitement. Troisièmement, il doit être conforme par conception — prêt pour le RGPD, souverain en matière de données, avec des accords de traitement appropriés et des pistes d’audit intégrées.

Si vous réunissez ces trois conditions, l’IA fantôme se résout d’elle-même. Non pas parce que vous avez interdit les alternatives, mais parce que l’option approuvée est tout simplement meilleure que de coller des données dans un outil grand public en espérant que personne ne s’en aperçoive.

Du risque invisible au contrôle visible

L’IA fantôme n’est pas un problème futur. Vos employés utilisent des outils d’IA non autorisés aujourd’hui. La question n’est pas de savoir si des données fuient — mais combien.

amaiko est conçu exactement pour ce scénario. Il vit à l’intérieur de Microsoft Teams — l’outil que votre équipe a déjà ouvert toute la journée. Il offre une véritable capacité d’IA avec une mémoire persistante entre les conversations, pour que personne n’ait besoin d’aller ailleurs. Et il est conforme au RGPD par architecture : hébergé dans l’UE, avec des accords de traitement des données appropriés, sans entraînement sur vos données, et avec des pistes d’audit complètes.

Pas d’ombre. Pas de fuite. Pas de simulation que le problème n’existe pas.

Les entreprises qui navigueront bien dans cette situation ne sont pas celles avec les interdictions les plus strictes. Ce sont celles qui ont donné à leurs équipes une IA qui vaut la peine d’être utilisée — avant que l’IA de quelqu’un d’autre n’arrive en premier.

Continuer la lecture