On entend tout et n’importe quoi sur la sécurité des assistants IA. Entre fantasmes, peurs légitimes et approximations techniques, il devient difficile de savoir à quoi s’en tenir.
Alors soyons clairs.
Microsoft Copilot, dans un environnement Microsoft 365, n’est pas un outil magique. Mais il repose sur une architecture de sécurité beaucoup plus structurée et gouvernable que ce que la plupart des gens imaginent.
Si vous utilisez Copilot dans votre organisation, voici exactement ce qui se passe avec vos conversations et vos fichiers.
Vos conversations Copilot ne sont pas “dans le vide”
Quand vous échangez avec Copilot dans Microsoft 365, vos prompts et les réponses générées ne disparaissent pas dans un service opaque.
Ils sont stockés dans votre environnement Microsoft 365.
Plus précisément:
- Les interactions Copilot (prompts + réponses) sont stockées
- Dans des dossiers cachés de votre boîte aux lettres Exchange Online
- Accessibles par les mécanismes de conformité (eDiscovery, rétention, audit)
Ce n’est pas un courriel, et ce n’est pas visible dans Outlook, mais c’est bien adossé à votre mailbox.
Traduction concrète:
vos conversations Copilot entrent dans le même cadre de gouvernance et d’audit que vos emails professionnels.
flowchart TD
A[Vous posez une question<br> à Copilot] --> B[Prompt envoyé]
B --> C[Réponse générée]
B --> D[Stockage du prompt]
C --> E[Stockage de la réponse]
D --> F[Dossier caché Exchange<br>Online]
E --> F
F --> G[eDiscovery / conformité /<br> rétention]
Ce que ça change pour vous:
- Vos conversations peuvent être auditées
- Elles peuvent être soumises à des politiques de rétention
- Elles font partie du patrimoine informationnel de votre organisation
Copilot ne voit que ce que vous avez le droit de voir
C’est probablement le point le plus important.
Copilot n’a pas de super-pouvoirs d’accès.
Il fonctionne strictement avec vos permissions existantes :
- SharePoint
- OneDrive
- Teams
- Exchange
Si vous n’avez pas accès à un document, Copilot ne peut pas vous le révéler et vous permettre de le voir ni d’accéder à son contenu.
Si un fichier est mal sécurisé dans votre organisation… Copilot le verra aussi.
Autrement dit:
Copilot n’est pas un problème de sécurité.
Copilot est un révélateur de vos problèmes de sécurité existants.
Cas n°1: Le fichier est déjà dans OneDrive, SharePoint ou Teams
C’est le scénario idéal.
Si votre document est déjà dans Microsoft 365:
- Copilot y accède directement
- Aucune copie n’est créée
- Les permissions restent intactes
flowchart TD
A[Fichier dans OneDrive /<br> SharePoint / Teams] --> B[Copilot reçoit la demande]
B --> C[Accès via permissions<br> existantes]
C --> D[Analyse du contenu]
D --> E[Réponse générée]
A -.-> F[Aucune duplication<br> du fichier]
Conséquence:
- Pas de fuite
- Pas de déplacement
- Pas de duplication inutile
Conclusion simple:
si votre contenu est bien gouverné, Copilot est sécuritaire.
Cas n°2: Vous téléversez un fichier depuis votre ordinateur
Là, les choses deviennent intéressantes.
Si vous envoyez un fichier local (ex.: dossier Téléchargements):
Copilot ne peut pas l’utiliser directement.
Il doit d’abord le ramener dans votre environnement sécurisé.
Ce qui se passe réellement:
- Le fichier est téléversé
- Il est stocké dans votre OneDrive for Business
- Dans le dossier:
Microsoft Copilot Chat Files - Ensuite seulement, Copilot peut l’analyser
flowchart TD
A[Fichier local sur<br> votre appareil] --> B[Téléversement dans Copilot]
B --> C[Stockage dans OneDrive<br> for Business]
C --> D[Dossier Copilot Chat Files]
D --> E[Analyse du contenu]
E --> F[Réponse Copilot]
Traduction concrète:
- Votre fichier ne reste pas dans une “zone grise”
- Il est intégré à votre environnement Microsoft 365
- Il hérite de vos politiques de sécurité
MAIS…
Il y a une limite importante:
- Les politiques DLP ne peuvent pas analyser le contenu interne du fichier au moment du prompt
Donc :
Oui, c’est sécurisé côté stockage
Non, ce n’est pas totalement contrôlé côté analyse en temps réel
Cas n°3: Microsoft 365 Copilot Chat sans licence premium
Beaucoup de confusion ici.
Même sans licence Microsoft 365 Copilot:
- Vous pouvez utiliser Copilot Chat
- Avec Enterprise Data Protection (si compte Entra)
MAIS:
Copilot n’a pas accès:
- À vos fichiers OneDrive
- Aux documents SharePoint
- Au Microsoft Graph complet
Il ne travaille que sur :
- Ce que vous collez
- Ce que vous téléversez
- Ce que les agents autorisés exposent
Résultat:
- Surface d’exposition très limitée
- Risque réduit par défaut
Cas n°4: Copilot grand public (compte personnel)
Ici, il faut arrêter de tout mélanger.
Avec un compte Microsoft personnel:
- Les fichiers sont stockés de manière sécurisée
- Généralement dans votre OneDrive personnel
- Avec une durée de conservation (jusqu’à 18 mois)
Important:
Microsoft indique que:
- Le contenu des fichiers téléversés n’est pas utilisé pour entraîner les modèles
- MAIS certaines interactions peuvent être utilisées pour améliorer le service (selon configuration)
Traduction:
- Ce n’est pas le même niveau de garantie que l’entreprise
- Mais ce n’est pas non plus une exposition publique
Comparaison avec ChatGPT et Gemini: stop aux mythes
Soyons rigoureux.
Chaque éditeur apporte sa vision aux contenus. Mais il ne s’agit pas ici seulement de technologie. Toutes ces questions amènent des interrogations légitimes mais qui ne doivent pas faire perdre leur focus à vos organisations: générer des profits.
Dès lors que votre temps est utilisé pour répondre à des questions qui ne concernent pas directement votre activité professionnelle, c’est une perte de votre temps. Une perte sèche.
Oui, la technologie peut et doit vous faire gagner du temps. Mettre en place une gouvernance des données est un investissement conséquent en temps. Le genre d’investissement qu’une organisation ne peut pas remettre en cause tous les matins.
Alors oui, techniquement, ces technologies sont différentes et oui chaque éditeurs à sa propre stratégie mais la vraie différence est ailleurs: La gouvernance… Et sa stabilité.
| Environnement | Usage des données | Gouvernance |
|---|---|---|
| Microsoft 365 Copilot | Encadré par tenant + Purview | Très fort |
| ChatGPT Enterprise | Pas utilisé pour entraînement | Fort |
| Google Workspace + Gemini | Pas utilisé pour entraînement | Fort |
| Versions grand public | Peut être utilisé selon paramètres | Variable |
Le vrai sujet n’est pas “public vs privé”.
Le vrai sujet est:
- Qui contrôle les données
- Où elles sont stockées
- Et sous quelles règles contractuelles
Ce que vous devez retenir
Soyons directs.
Microsoft Copilot est sécuritaire si votre environnement l’est déjà.
Sinon?
Il va simplement exposer vos failles plus rapidement.
Voici les vraies règles:
1. Structurez votre information
- SharePoint bien organisé et si ce n’est pas le cas, créez de nouvelles structures et déplacer les données. Cela permet de reviser les autorisations et permissions sans perdre tout votre temps dans la mise à jour.
- OneDrive utilisé comme espace de travail, pas d’archive et mettez en place pour cela les outils d’automatisations pour vous aider.
2. Nettoyez vos permissions
- Trop d’accès = Copilot amplifie le problème
3. Mettez en place Purview
- Étiquettes et politiques de Sensibilité
- Politiques de Prévention de Perte de Données (Data Lost Prevention)
- Étiquettes et politiques de Rétention
4. Éduquez vos utilisateurs
- Upload = stockage dans OneDrive pour le travail individuel
- Appliquer des bonnes pratiques de nettoyage (Compagne annuelle ou demestriel)
- Les contenus ne doivent pas rester “temporairement” stockés. Ils doivent être suivis.
Que deviennent vos requêtes (prompts)?
Et peuvent-elles sortir de votre environnement Microsoft 365 ?
C’est une question essentielle, et souvent mal comprise.
Jusqu’ici, on a parlé des fichiers. Mais le vrai cœur de l’usage Copilot, ce sont vos requêtes:
- Ce que vous tapez
- Ce que vous demandez
- Ce que vous révélez implicitement
Et c’est là que se joue une grande partie du risque réel.
Dans Microsoft 365 Copilot : vos requêtes restent dans votre tenant
Dans un environnement Microsoft 365 avec un compte Entra:
- Vos prompts (requêtes)
- Et les réponses générées
sont:
- stockés dans votre environnement Microsoft 365
- dans des dossiers cachés Exchange (comme vu précédemment)
- soumis aux politiques de conformité (Purview, eDiscovery, rétention)
Et surtout:
- ils ne sont pas utilisés pour entraîner les modèles de Microsoft
C’est un point clé.
Vos données restent vos données.
Elles ne servent pas à améliorer le modèle global.
Représentation simplifiée
flowchart TD
A[Utilisateur tape un prompt] --> B[Copilot traite la requête]
B --> C[Réponse générée]
A --> D[Stockage du prompt]
C --> E[Stockage de la réponse]
D --> F[Exchange Online<br> dossier caché]
E --> F
F --> G[Purview / conformité]
Conclusion:
- Vos requêtes restent dans votre périmètre de sécurité Microsoft 365
- Elles sont traçables et gouvernables
Le point critique: le traitement par le modèle (ce qui sort temporairement)
Maintenant, soyons honnêtes et précis.
Quand vous envoyez un prompt:
- Il est traité par un modèle de langage hébergé dans l’infrastructure Microsoft (Azure OpenAI)
Cela implique:
- un traitement en mémoire (et donc pas conservé de manière persistante)
- dans un environnement contrôlé Microsoft
Mais:
- ce traitement ne correspond pas à un stockage externe persistant
- il ne constitue pas une “fuite” de données
Microsoft encadre ce point contractuellement via:
- Enterprise Data Protection
- engagements de non-utilisation pour l’entraînement
Les vrais cas où vos requêtes peuvent sortir de votre environnement
C’est ici que ça devient intéressant.
Vos requêtes peuvent sortir de l’environnement sécurisé M365… mais pas à cause de Copilot lui-même.
Elles sortent à cause de vos usages.
Voici les scénarios réels.
Cas n°1: Copier-coller vers un autre outil (ChatGPT, Gemini, etc.)
C’est le cas le plus courant.
Vous prenez:
- une réponse Copilot
- ou un prompt interne
et vous le collez ailleurs
flowchart TD
A[Prompt Copilot] --> B[Utilisateur copie]
B --> C[Collage dans autre outil]
C --> D[Données hors M365]
À partir de ce moment:
- vous sortez du cadre Microsoft 365
- vous perdez les garanties de gouvernance M365
Et là, oui:
- les règles changent complètement selon l’outil utilisé
Cas n°2: Connecteurs ou plugins externes
Dans certains cas:
- Copilot peut interagir avec des systèmes externes
- via des connecteurs ou des agents
Si ces systèmes sont mal gouvernés:
- vos données peuvent transiter en dehors de M365
Exemple typique:
- API externe
- service SaaS tiers
- agent mal configuré
flowchart TD
A[Prompt Copilot] --> B[Agent / Connecteur]
B --> C[Système externe]
C --> D[Sortie du périmètre M365]
Ici, le risque ne vient pas de Copilot, mais de l’architecture autour.
Cas n°3: Partage humain (le facteur numéro 1)
Le plus gros risque, soyons francs, c’est vous.
- Capture d’écran
- Email transféré
- Message Teams copié
- Document généré et partagé
Copilot ne protège pas contre ça.
flowchart TD
A[Prompt ou réponse Copilot] --> B[Utilisateur partage]
B --> C[Email / Teams / externe]
C --> D[Diffusion hors contrôle]
Ce qui ne se passe PAS (et qu’on entend souvent)
Soyons très clairs.
Dans Microsoft 365 Copilot :
❌ Vos prompts ne sont pas envoyés sur internet
❌ Ils ne sont pas indexés par un moteur public
❌ Ils ne sont pas utilisés pour entraîner les modèles globaux
❌ Ils ne deviennent pas accessibles à d’autres clients
Ces affirmations sont souvent répétées… et elles sont fausses.
Ce que vous devez vraiment surveiller
Le vrai sujet n’est pas “Copilot est-il sécurisé ?”
Le vrai sujet est:
Que faites-vous de ce que Copilot produit?
Les risques réels sont:
- Mauvaise classification de l’information
- Permissions trop larges
- Export hors environnement
- Mauvaise utilisation humaine
Recommandations concrètes
Voici ce que vous devez faire immédiatement si vous utilisez Copilot.
1. Encadrer les usages
- Sensibiliser au copier-coller vers l’extérieur
- Définir des règles claires
- Former vos usagers à Copilot Pages
2. Sécuriser les connecteurs
- Valider les agents et intégrations
- Contrôler les flux de données
- Mettre en place une gouvernance des Agents. Vous pouvez utiliser éventuellement Agent365 mais ce n’est pas une solution « magique ».
3. Renforcer Purview
- Labels de sensibilité
- Audit
- DLP sur les prompts (texte)
Définir une gouvernance GLOBALE des actifs informationnels. Vous pouvez utiliser éventuellement Purview mais, la non plus, ce n’est pas une solution « magique ».
4. Former vos utilisateurs
- Ce qu’ils écrivent dans Copilot compte
- Un prompt peut contenir de la donnée sensible
Conclusion
Microsoft Copilot n’est ni dangereux, ni magique.
Il est cohérent avec l’architecture Microsoft 365 :
- Conversations → Exchange
- Fichiers → OneDrive / SharePoint
- Accès → Microsoft Graph + permissions
- Gouvernance → Purview
Ce qui fait la différence, ce n’est pas Copilot.
C’est votre maturité documentaire.
Si votre information est propre, structurée et gouvernée
Copilot devient un accélérateur incroyable
Si elle ne l’est pas
Copilot devient un amplificateur de chaos
Et c’est là que tout se joue en particulier dans votre stratégie d’accompagnement de vos utilisateurs.




























