samedi, avril 18, 2026
  • Historique
  • Contact
  • A propos
Tales from the Scarf
  • Accueil
  • Engagements
    • Tout
    • Conférence
    • Cours
    Formateur en costume noir, bras croisés, devant des participants joyeux pendant une journée de formation à distance sur les Agents Copilot (Copilot Studio).

    Agent in a Day (à distance) — le 13 février 2026

    Conférencier brun en costume vu de dos, parlant avec les mains devant une salle pleine où plusieurs participants lèvent la main pour poser des questions.

    Rebuild 2025 à Nantes : SharePoint, Copilot et des agents qui travaillent enfin pour vos documents

    Femme afro-canadienne concentrée devant son écran d’ordinateur dans un bureau moderne et végétalisé, épaulée par un petit robot qui écoute ses instructions vocales pour automatiser ses tâches via Copilot et Power Automate Desktop.

    Quand les API manquent, la voix devient le langage de l’automatisation

    QR Code permettant de s’inscrire à la cohorte « PowerUP votre Gouvernance Power Platform » – programme de formation hybride en présentiel et virtuel à Montréal, Québec et Ottawa.

    PowerUP votre Gouvernance Power Platform : inscrivez-vous dès maintenant !

    Illustration vectorielle montrant une interface utilisateur sur écran, un schéma de flux applicatif et un bouclier de sécurité, représentant les fonctionnalités clés des environnements gérés dans Microsoft Power Platform.

    Mise à jour 2025 – Power Platform : Environnements Gérés

    Trending Tags

    • SPSEvent
  • Activités
    • Tout
    • Annonce
    • Article
    • Astuce
    • Guide
    • Session
    Environnement de travail nocturne illustrant la sécurité des données avec Microsoft Copilot dans Microsoft 365, avec écrans affichant un cadenas numérique et des fichiers cloud protégés

    Microsoft Copilot est-il vraiment sécuritaire?

    Utilisateur analysant des documents OneDrive for Business dans Microsoft 365 Copilot en mode Travail avec plusieurs versions de fichiers illustrant la pollution du contexte

    OneDrive for Business: l’angle mort qui dégrade Microsoft 365 Copilot en mode «Travail»

    Utilisation de Microsoft Copilot sur smartphone en entreprise illustrant la contextualisation d’un agent avec mémoire, instructions et données Microsoft Graph

    Agent Copilot, le grand angle mort du contexte

    Illustration réaliste de Microsoft Copilot au centre, relié a Word, Excel et PowerPoint par des agents, symbolisant le passage de “Copilot dans les applications” a “Office dans Copilot” via MCP.

    De «Copilot dans Office» à «Office dans Copilot»

    Professionnels travaillant dans un bureau moderne pendant qu’une intelligence artificielle assiste les tâches administratives sur un écran holographique, illustrant l’adoption de l’IA comme Microsoft Copilot dans le travail quotidien.

    L’IA ne devrait pas faire le travail des experts

    Trending Tags

    • Gouvernance
    • Microsoft 365
    • Power Platform
  • Innovation
    • Tout
    • Idée
    • Projet
    • Trouvaille
    Professionnels travaillant dans un bureau moderne pendant qu’une intelligence artificielle assiste les tâches administratives sur un écran holographique, illustrant l’adoption de l’IA comme Microsoft Copilot dans le travail quotidien.

    L’IA ne devrait pas faire le travail des experts

    Scène de bureau illustrant une refonte de documentation: écran affichant un projet de centralisation, notes et dépôts versionnés, symbole du passage vers Learn et le docs-as-code.

    Pourquoi Microsoft a réécrit sa propre mémoire

    Bannière de Noël dans un chalet : cadeaux sous un sapin, étiquetés “Inventaire des fichiers”, “Recherche de doublons”, “Déplacement vers SharePoint” et “Détection PII & Loi 25” pour illustrer le ménage OneDrive avec Copilot.

    Grand ménage de OneDrive avec Copilot

    Gros plan d'un professionnel en train d'interagir avec une interface d'IA sur un ordinateur portable. L'écran affiche "Résumé", "Actions" et "Prochaines étapes" avec des lignes lumineuses les reliant à des cartes physiques sur le bureau marquées "Décision", "Action" et "Échéance". Un carnet à côté montre le texte "OCAR". Le portable, les cartes et le carnet sont nets, le fond est flou. La scène est éclairée par une lumière douce de fin d'après-midi.

    Conversation : l’unité d’œuvre de la productivité

    Analyste en open space sur un laptop affichant un audit de qualité; icônes NFT/Ethereum se transforment en dollars devant une salle de marché.

    L’avenir des biens informationnels et la notion d’Entreprise Brain

  • Personnel
    • Tout
    • Cocktails
    • Horse-Ball
    • Santé
    Illustration dystopique inspirée de 1984 montrant la surveillance et le pouvoir des grandes entreprises technologiques dans l’intelligence artificielle

    1984, Copilot et le pouvoir : sommes-nous en train de rejouer Orwell ?

    Représentation d’un Denis Diderot robotisé s’adressant à une foule dans une rue du Paris du XVIIIᵉ siècle, illustrant la transmission du savoir, l’éducation et l’héritage des Lumières à l’ère de l’intelligence artificielle.

    Éducation, lecture, éveil : la seule ligne de défense

    Robot humanoïde portant un costume de directeur marketing dans un bureau moderne, symbole de la fabrication industrielle de récits crédibles et de la manipulation de la perception à l’ère de l’intelligence artificielle.

    Le vrai, le faux : l’IA générative n’a rien “inventé”

    Un homme d’une cinquantaine d’années se déconnecte calmement de flux numériques symboliques, illustrant la libération personnelle face à la dépendance aux technologies et aux plateformes d’intelligence artificielle.

    Et vous? Que signifie Liberté pour vous?

    Carte stylisée du monde divisée en deux, avec les États-Unis en rouge vif contrastant avec un reste du monde en gris pâle, représentant une opposition géopolitique binaire.

    Les États Unis d’Amérique: Avec « Lui » ou Contre « Eux »

Pas de résultat
Voir tous les résultats
Tales from the Scarf
  • Accueil
  • Engagements
    • Tout
    • Conférence
    • Cours
    Formateur en costume noir, bras croisés, devant des participants joyeux pendant une journée de formation à distance sur les Agents Copilot (Copilot Studio).

    Agent in a Day (à distance) — le 13 février 2026

    Conférencier brun en costume vu de dos, parlant avec les mains devant une salle pleine où plusieurs participants lèvent la main pour poser des questions.

    Rebuild 2025 à Nantes : SharePoint, Copilot et des agents qui travaillent enfin pour vos documents

    Femme afro-canadienne concentrée devant son écran d’ordinateur dans un bureau moderne et végétalisé, épaulée par un petit robot qui écoute ses instructions vocales pour automatiser ses tâches via Copilot et Power Automate Desktop.

    Quand les API manquent, la voix devient le langage de l’automatisation

    QR Code permettant de s’inscrire à la cohorte « PowerUP votre Gouvernance Power Platform » – programme de formation hybride en présentiel et virtuel à Montréal, Québec et Ottawa.

    PowerUP votre Gouvernance Power Platform : inscrivez-vous dès maintenant !

    Illustration vectorielle montrant une interface utilisateur sur écran, un schéma de flux applicatif et un bouclier de sécurité, représentant les fonctionnalités clés des environnements gérés dans Microsoft Power Platform.

    Mise à jour 2025 – Power Platform : Environnements Gérés

    Trending Tags

    • SPSEvent
  • Activités
    • Tout
    • Annonce
    • Article
    • Astuce
    • Guide
    • Session
    Environnement de travail nocturne illustrant la sécurité des données avec Microsoft Copilot dans Microsoft 365, avec écrans affichant un cadenas numérique et des fichiers cloud protégés

    Microsoft Copilot est-il vraiment sécuritaire?

    Utilisateur analysant des documents OneDrive for Business dans Microsoft 365 Copilot en mode Travail avec plusieurs versions de fichiers illustrant la pollution du contexte

    OneDrive for Business: l’angle mort qui dégrade Microsoft 365 Copilot en mode «Travail»

    Utilisation de Microsoft Copilot sur smartphone en entreprise illustrant la contextualisation d’un agent avec mémoire, instructions et données Microsoft Graph

    Agent Copilot, le grand angle mort du contexte

    Illustration réaliste de Microsoft Copilot au centre, relié a Word, Excel et PowerPoint par des agents, symbolisant le passage de “Copilot dans les applications” a “Office dans Copilot” via MCP.

    De «Copilot dans Office» à «Office dans Copilot»

    Professionnels travaillant dans un bureau moderne pendant qu’une intelligence artificielle assiste les tâches administratives sur un écran holographique, illustrant l’adoption de l’IA comme Microsoft Copilot dans le travail quotidien.

    L’IA ne devrait pas faire le travail des experts

    Trending Tags

    • Gouvernance
    • Microsoft 365
    • Power Platform
  • Innovation
    • Tout
    • Idée
    • Projet
    • Trouvaille
    Professionnels travaillant dans un bureau moderne pendant qu’une intelligence artificielle assiste les tâches administratives sur un écran holographique, illustrant l’adoption de l’IA comme Microsoft Copilot dans le travail quotidien.

    L’IA ne devrait pas faire le travail des experts

    Scène de bureau illustrant une refonte de documentation: écran affichant un projet de centralisation, notes et dépôts versionnés, symbole du passage vers Learn et le docs-as-code.

    Pourquoi Microsoft a réécrit sa propre mémoire

    Bannière de Noël dans un chalet : cadeaux sous un sapin, étiquetés “Inventaire des fichiers”, “Recherche de doublons”, “Déplacement vers SharePoint” et “Détection PII & Loi 25” pour illustrer le ménage OneDrive avec Copilot.

    Grand ménage de OneDrive avec Copilot

    Gros plan d'un professionnel en train d'interagir avec une interface d'IA sur un ordinateur portable. L'écran affiche "Résumé", "Actions" et "Prochaines étapes" avec des lignes lumineuses les reliant à des cartes physiques sur le bureau marquées "Décision", "Action" et "Échéance". Un carnet à côté montre le texte "OCAR". Le portable, les cartes et le carnet sont nets, le fond est flou. La scène est éclairée par une lumière douce de fin d'après-midi.

    Conversation : l’unité d’œuvre de la productivité

    Analyste en open space sur un laptop affichant un audit de qualité; icônes NFT/Ethereum se transforment en dollars devant une salle de marché.

    L’avenir des biens informationnels et la notion d’Entreprise Brain

  • Personnel
    • Tout
    • Cocktails
    • Horse-Ball
    • Santé
    Illustration dystopique inspirée de 1984 montrant la surveillance et le pouvoir des grandes entreprises technologiques dans l’intelligence artificielle

    1984, Copilot et le pouvoir : sommes-nous en train de rejouer Orwell ?

    Représentation d’un Denis Diderot robotisé s’adressant à une foule dans une rue du Paris du XVIIIᵉ siècle, illustrant la transmission du savoir, l’éducation et l’héritage des Lumières à l’ère de l’intelligence artificielle.

    Éducation, lecture, éveil : la seule ligne de défense

    Robot humanoïde portant un costume de directeur marketing dans un bureau moderne, symbole de la fabrication industrielle de récits crédibles et de la manipulation de la perception à l’ère de l’intelligence artificielle.

    Le vrai, le faux : l’IA générative n’a rien “inventé”

    Un homme d’une cinquantaine d’années se déconnecte calmement de flux numériques symboliques, illustrant la libération personnelle face à la dépendance aux technologies et aux plateformes d’intelligence artificielle.

    Et vous? Que signifie Liberté pour vous?

    Carte stylisée du monde divisée en deux, avec les États-Unis en rouge vif contrastant avec un reste du monde en gris pâle, représentant une opposition géopolitique binaire.

    Les États Unis d’Amérique: Avec « Lui » ou Contre « Eux »

Pas de résultat
Voir tous les résultats
Tales from the Scarf
Pas de résultat
Voir tous les résultats
Accueil Activité Article

Microsoft Copilot est-il vraiment sécuritaire?

Nicolas Georgeault Par Nicolas Georgeault
13 avril 2026
Dans Article
Temps de lecture: 19 mins de lecture
22
A A
0
Environnement de travail nocturne illustrant la sécurité des données avec Microsoft Copilot dans Microsoft 365, avec écrans affichant un cadenas numérique et des fichiers cloud protégés

Microsoft Copilot s’appuie sur l’infrastructure sécurisée de Microsoft 365 pour protéger les conversations, les fichiers et les données utilisateur.

32
PARTAGES
289
VUES

On entend tout et n’importe quoi sur la sécurité des assistants IA. Entre fantasmes, peurs légitimes et approximations techniques, il devient difficile de savoir à quoi s’en tenir.

Alors soyons clairs.

You might also like

OneDrive for Business: l’angle mort qui dégrade Microsoft 365 Copilot en mode «Travail»

1984, Copilot et le pouvoir : sommes-nous en train de rejouer Orwell ?

Agent Copilot, le grand angle mort du contexte

Microsoft Copilot, dans un environnement Microsoft 365, n’est pas un outil magique. Mais il repose sur une architecture de sécurité beaucoup plus structurée et gouvernable que ce que la plupart des gens imaginent.

Si vous utilisez Copilot dans votre organisation, voici exactement ce qui se passe avec vos conversations et vos fichiers.

Vos conversations Copilot ne sont pas “dans le vide”

Quand vous échangez avec Copilot dans Microsoft 365, vos prompts et les réponses générées ne disparaissent pas dans un service opaque.

Ils sont stockés dans votre environnement Microsoft 365.

Plus précisément:

  • Les interactions Copilot (prompts + réponses) sont stockées
  • Dans des dossiers cachés de votre boîte aux lettres Exchange Online
  • Accessibles par les mécanismes de conformité (eDiscovery, rétention, audit)

Ce n’est pas un courriel, et ce n’est pas visible dans Outlook, mais c’est bien adossé à votre mailbox.

Traduction concrète:
vos conversations Copilot entrent dans le même cadre de gouvernance et d’audit que vos emails professionnels.

flowchart TD
    A[Vous posez une question<br> à Copilot] --> B[Prompt envoyé]
    B --> C[Réponse générée]
    B --> D[Stockage du prompt]
    C --> E[Stockage de la réponse]
    D --> F[Dossier caché Exchange<br>Online]
    E --> F
    F --> G[eDiscovery / conformité /<br> rétention]

Ce que ça change pour vous:

  • Vos conversations peuvent être auditées
  • Elles peuvent être soumises à des politiques de rétention
  • Elles font partie du patrimoine informationnel de votre organisation

Copilot ne voit que ce que vous avez le droit de voir

C’est probablement le point le plus important.

Copilot n’a pas de super-pouvoirs d’accès.

Il fonctionne strictement avec vos permissions existantes :

  • SharePoint
  • OneDrive
  • Teams
  • Exchange

Si vous n’avez pas accès à un document, Copilot ne peut pas vous le révéler et vous permettre de le voir ni d’accéder à son contenu.

Si un fichier est mal sécurisé dans votre organisation… Copilot le verra aussi.

Autrement dit:

Copilot n’est pas un problème de sécurité.
Copilot est un révélateur de vos problèmes de sécurité existants.

Cas n°1: Le fichier est déjà dans OneDrive, SharePoint ou Teams

C’est le scénario idéal.

Si votre document est déjà dans Microsoft 365:

  • Copilot y accède directement
  • Aucune copie n’est créée
  • Les permissions restent intactes
flowchart TD
    A[Fichier dans OneDrive /<br> SharePoint / Teams] --> B[Copilot reçoit la demande]
    B --> C[Accès via permissions<br> existantes]
    C --> D[Analyse du contenu]
    D --> E[Réponse générée]
    A -.-> F[Aucune duplication<br> du fichier]

Conséquence:

  • Pas de fuite
  • Pas de déplacement
  • Pas de duplication inutile

Conclusion simple:
si votre contenu est bien gouverné, Copilot est sécuritaire.

Cas n°2: Vous téléversez un fichier depuis votre ordinateur

Là, les choses deviennent intéressantes.

Si vous envoyez un fichier local (ex.: dossier Téléchargements):

Copilot ne peut pas l’utiliser directement.

Il doit d’abord le ramener dans votre environnement sécurisé.

Ce qui se passe réellement:

  1. Le fichier est téléversé
  2. Il est stocké dans votre OneDrive for Business
  3. Dans le dossier:
    Microsoft Copilot Chat Files
  4. Ensuite seulement, Copilot peut l’analyser
flowchart TD
    A[Fichier local sur<br> votre appareil] --> B[Téléversement dans Copilot]
    B --> C[Stockage dans OneDrive<br> for Business]
    C --> D[Dossier Copilot Chat Files]
    D --> E[Analyse du contenu]
    E --> F[Réponse Copilot]

Traduction concrète:

  • Votre fichier ne reste pas dans une “zone grise”
  • Il est intégré à votre environnement Microsoft 365
  • Il hérite de vos politiques de sécurité

MAIS…

Il y a une limite importante:

  • Les politiques DLP ne peuvent pas analyser le contenu interne du fichier au moment du prompt

Donc :

Oui, c’est sécurisé côté stockage
Non, ce n’est pas totalement contrôlé côté analyse en temps réel

Cas n°3: Microsoft 365 Copilot Chat sans licence premium

Beaucoup de confusion ici.

Même sans licence Microsoft 365 Copilot:

  • Vous pouvez utiliser Copilot Chat
  • Avec Enterprise Data Protection (si compte Entra)

MAIS:

Copilot n’a pas accès:

  • À vos fichiers OneDrive
  • Aux documents SharePoint
  • Au Microsoft Graph complet

Il ne travaille que sur :

  • Ce que vous collez
  • Ce que vous téléversez
  • Ce que les agents autorisés exposent

Résultat:

  • Surface d’exposition très limitée
  • Risque réduit par défaut

Cas n°4: Copilot grand public (compte personnel)

Ici, il faut arrêter de tout mélanger.

Avec un compte Microsoft personnel:

  • Les fichiers sont stockés de manière sécurisée
  • Généralement dans votre OneDrive personnel
  • Avec une durée de conservation (jusqu’à 18 mois)

Important:

Microsoft indique que:

  • Le contenu des fichiers téléversés n’est pas utilisé pour entraîner les modèles
  • MAIS certaines interactions peuvent être utilisées pour améliorer le service (selon configuration)

Traduction:

  • Ce n’est pas le même niveau de garantie que l’entreprise
  • Mais ce n’est pas non plus une exposition publique

Comparaison avec ChatGPT et Gemini: stop aux mythes

Soyons rigoureux.

Chaque éditeur apporte sa vision aux contenus. Mais il ne s’agit pas ici seulement de technologie. Toutes ces questions amènent des interrogations légitimes mais qui ne doivent pas faire perdre leur focus à vos organisations: générer des profits.

Dès lors que votre temps est utilisé pour répondre à des questions qui ne concernent pas directement votre activité professionnelle, c’est une perte de votre temps. Une perte sèche.

Oui, la technologie peut et doit vous faire gagner du temps. Mettre en place une gouvernance des données est un investissement conséquent en temps. Le genre d’investissement qu’une organisation ne peut pas remettre en cause tous les matins.

Alors oui, techniquement, ces technologies sont différentes et oui chaque éditeurs à sa propre stratégie mais la vraie différence est ailleurs: La gouvernance… Et sa stabilité.

EnvironnementUsage des donnéesGouvernance
Microsoft 365 CopilotEncadré par tenant + PurviewTrès fort
ChatGPT EnterprisePas utilisé pour entraînementFort
Google Workspace + GeminiPas utilisé pour entraînementFort
Versions grand publicPeut être utilisé selon paramètresVariable

Le vrai sujet n’est pas “public vs privé”.

Le vrai sujet est:

  • Qui contrôle les données
  • Où elles sont stockées
  • Et sous quelles règles contractuelles

Ce que vous devez retenir

Soyons directs.

Microsoft Copilot est sécuritaire si votre environnement l’est déjà.

Sinon?

Il va simplement exposer vos failles plus rapidement.

Voici les vraies règles:

1. Structurez votre information

  • SharePoint bien organisé et si ce n’est pas le cas, créez de nouvelles structures et déplacer les données. Cela permet de reviser les autorisations et permissions sans perdre tout votre temps dans la mise à jour.
  • OneDrive utilisé comme espace de travail, pas d’archive et mettez en place pour cela les outils d’automatisations pour vous aider.

2. Nettoyez vos permissions

  • Trop d’accès = Copilot amplifie le problème

3. Mettez en place Purview

  • Étiquettes et politiques de Sensibilité
  • Politiques de Prévention de Perte de Données (Data Lost Prevention)
  • Étiquettes et politiques de Rétention

4. Éduquez vos utilisateurs

  • Upload = stockage dans OneDrive pour le travail individuel
  • Appliquer des bonnes pratiques de nettoyage (Compagne annuelle ou demestriel)
  • Les contenus ne doivent pas rester “temporairement” stockés. Ils doivent être suivis.

Que deviennent vos requêtes (prompts)?

Et peuvent-elles sortir de votre environnement Microsoft 365 ?

C’est une question essentielle, et souvent mal comprise.

Jusqu’ici, on a parlé des fichiers. Mais le vrai cœur de l’usage Copilot, ce sont vos requêtes:

  • Ce que vous tapez
  • Ce que vous demandez
  • Ce que vous révélez implicitement

Et c’est là que se joue une grande partie du risque réel.

Dans Microsoft 365 Copilot : vos requêtes restent dans votre tenant

Dans un environnement Microsoft 365 avec un compte Entra:

  • Vos prompts (requêtes)
  • Et les réponses générées

sont:

  • stockés dans votre environnement Microsoft 365
  • dans des dossiers cachés Exchange (comme vu précédemment)
  • soumis aux politiques de conformité (Purview, eDiscovery, rétention)

Et surtout:

  • ils ne sont pas utilisés pour entraîner les modèles de Microsoft

C’est un point clé.

Vos données restent vos données.
Elles ne servent pas à améliorer le modèle global.

Représentation simplifiée

flowchart TD
    A[Utilisateur tape un prompt] --> B[Copilot traite la requête]
    B --> C[Réponse générée]
    A --> D[Stockage du prompt]
    C --> E[Stockage de la réponse]
    D --> F[Exchange Online<br> dossier caché]
    E --> F
    F --> G[Purview / conformité]

Conclusion:

  • Vos requêtes restent dans votre périmètre de sécurité Microsoft 365
  • Elles sont traçables et gouvernables

Le point critique: le traitement par le modèle (ce qui sort temporairement)

Maintenant, soyons honnêtes et précis.

Quand vous envoyez un prompt:

  • Il est traité par un modèle de langage hébergé dans l’infrastructure Microsoft (Azure OpenAI)

Cela implique:

  • un traitement en mémoire (et donc pas conservé de manière persistante)
  • dans un environnement contrôlé Microsoft

Mais:

  • ce traitement ne correspond pas à un stockage externe persistant
  • il ne constitue pas une “fuite” de données

Microsoft encadre ce point contractuellement via:

  • Enterprise Data Protection
  • engagements de non-utilisation pour l’entraînement

Les vrais cas où vos requêtes peuvent sortir de votre environnement

C’est ici que ça devient intéressant.

Vos requêtes peuvent sortir de l’environnement sécurisé M365… mais pas à cause de Copilot lui-même.

Elles sortent à cause de vos usages.

Voici les scénarios réels.

Cas n°1: Copier-coller vers un autre outil (ChatGPT, Gemini, etc.)

C’est le cas le plus courant.

Vous prenez:

  • une réponse Copilot
  • ou un prompt interne

et vous le collez ailleurs

flowchart TD
    A[Prompt Copilot] --> B[Utilisateur copie]
    B --> C[Collage dans autre outil]
    C --> D[Données hors M365]

À partir de ce moment:

  • vous sortez du cadre Microsoft 365
  • vous perdez les garanties de gouvernance M365

Et là, oui:

  • les règles changent complètement selon l’outil utilisé

Cas n°2: Connecteurs ou plugins externes

Dans certains cas:

  • Copilot peut interagir avec des systèmes externes
  • via des connecteurs ou des agents

Si ces systèmes sont mal gouvernés:

  • vos données peuvent transiter en dehors de M365

Exemple typique:

  • API externe
  • service SaaS tiers
  • agent mal configuré
flowchart TD
    A[Prompt Copilot] --> B[Agent / Connecteur]
    B --> C[Système externe]
    C --> D[Sortie du périmètre M365]

Ici, le risque ne vient pas de Copilot, mais de l’architecture autour.

Cas n°3: Partage humain (le facteur numéro 1)

Le plus gros risque, soyons francs, c’est vous.

  • Capture d’écran
  • Email transféré
  • Message Teams copié
  • Document généré et partagé

Copilot ne protège pas contre ça.

flowchart TD
    A[Prompt ou réponse Copilot] --> B[Utilisateur partage]
    B --> C[Email / Teams / externe]
    C --> D[Diffusion hors contrôle]

Ce qui ne se passe PAS (et qu’on entend souvent)

Soyons très clairs.

Dans Microsoft 365 Copilot :

❌ Vos prompts ne sont pas envoyés sur internet
❌ Ils ne sont pas indexés par un moteur public
❌ Ils ne sont pas utilisés pour entraîner les modèles globaux
❌ Ils ne deviennent pas accessibles à d’autres clients

Ces affirmations sont souvent répétées… et elles sont fausses.

Ce que vous devez vraiment surveiller

Le vrai sujet n’est pas “Copilot est-il sécurisé ?”

Le vrai sujet est:

Que faites-vous de ce que Copilot produit?

Les risques réels sont:

  • Mauvaise classification de l’information
  • Permissions trop larges
  • Export hors environnement
  • Mauvaise utilisation humaine

Recommandations concrètes

Voici ce que vous devez faire immédiatement si vous utilisez Copilot.

1. Encadrer les usages

  • Sensibiliser au copier-coller vers l’extérieur
  • Définir des règles claires
  • Former vos usagers à Copilot Pages

2. Sécuriser les connecteurs

  • Valider les agents et intégrations
  • Contrôler les flux de données
  • Mettre en place une gouvernance des Agents. Vous pouvez utiliser éventuellement Agent365 mais ce n’est pas une solution « magique ».

3. Renforcer Purview

  • Labels de sensibilité
  • Audit
  • DLP sur les prompts (texte)
    Définir une gouvernance GLOBALE des actifs informationnels. Vous pouvez utiliser éventuellement Purview mais, la non plus, ce n’est pas une solution « magique ».

4. Former vos utilisateurs

  • Ce qu’ils écrivent dans Copilot compte
  • Un prompt peut contenir de la donnée sensible

Conclusion

Microsoft Copilot n’est ni dangereux, ni magique.

Il est cohérent avec l’architecture Microsoft 365 :

  • Conversations → Exchange
  • Fichiers → OneDrive / SharePoint
  • Accès → Microsoft Graph + permissions
  • Gouvernance → Purview

Ce qui fait la différence, ce n’est pas Copilot.

C’est votre maturité documentaire.

Si votre information est propre, structurée et gouvernée
Copilot devient un accélérateur incroyable

Si elle ne l’est pas
Copilot devient un amplificateur de chaos

Et c’est là que tout se joue en particulier dans votre stratégie d’accompagnement de vos utilisateurs.

Étiquettes: GouvernanceMicrosoft Copilotsécurité
Nicolas Georgeault

Nicolas Georgeault

Fort de plus de 25 ans d’expérience dans la gestion de la connaissance et dans le design des portails et des architectures d’information plus particulièrement dans le contexte des réseaux sociaux dans un contexte de l’entreprise, Nicolas Georgeault se spécialise aujourd’hui dans la capitalisation de l’intelligence collective de ses clients. Au travers du centre de recherche MuBrain spécialisé dans l’intelligence collective étendue également à l’intelligence artificielle et dans le développement des outils It4.Me, il se concentre aujourd’hui sur l’analyse et de l’écriture automatisé du contenu des réunions et conversations. MVP SharePoint Server pendant 6 ans, il est aujourd’hui honoré d’être MVP Office Server and Services depuis 2 ans. Sa vision du futur et ses qualités de conférenciers l’amène régulièrement à partager ses connaissances dans plusieurs ouvrages et publications web ainsi que régulièrement lors de plusieurs conférences et groupes d’utilisateurs au Canada mais également en Europe et aux Etats-Unis.

En relationMessages

Utilisateur analysant des documents OneDrive for Business dans Microsoft 365 Copilot en mode Travail avec plusieurs versions de fichiers illustrant la pollution du contexte
Article

OneDrive for Business: l’angle mort qui dégrade Microsoft 365 Copilot en mode «Travail»

Par Nicolas Georgeault
10 avril 2026
152
Illustration dystopique inspirée de 1984 montrant la surveillance et le pouvoir des grandes entreprises technologiques dans l’intelligence artificielle
Personnel

1984, Copilot et le pouvoir : sommes-nous en train de rejouer Orwell ?

Par Nicolas Georgeault
10 avril 2026
65
Utilisation de Microsoft Copilot sur smartphone en entreprise illustrant la contextualisation d’un agent avec mémoire, instructions et données Microsoft Graph
Article

Agent Copilot, le grand angle mort du contexte

Par Nicolas Georgeault
29 mars 2026
167
Illustration réaliste de Microsoft Copilot au centre, relié a Word, Excel et PowerPoint par des agents, symbolisant le passage de “Copilot dans les applications” a “Office dans Copilot” via MCP.
Article

De «Copilot dans Office» à «Office dans Copilot»

Par Nicolas Georgeault
29 mars 2026
152
Scène de bureau : un maker travaille sur un flux low-code, un écran affiche une alerte d’erreur, pendant qu’une équipe discute de gouvernance et d’architecture.
Article

Développement citoyen

Par Nicolas Georgeault
7 mars 2026
89

Recommended

Gratuit, Professionnel ou Premium ?!?! Quel plan de Power BI est fait pour moi ??

Gratuit, Professionnel ou Premium ?!?! Quel plan de Power BI est fait pour moi ??

10 mai 2020
41

Groupe des utilisateurs de SharePoint de Montréal – Septembre 2012

10 mai 2020
48

Catégories

  • Annonce
  • Article
  • Astuce
  • Cocktails
  • Conférence
  • Cours
  • Engagement
  • Guide
  • Horse-Ball
  • Idée
  • Personnel
  • Projet
  • Santé
  • Session
  • Trouvaille

Don't miss it

Environnement de travail nocturne illustrant la sécurité des données avec Microsoft Copilot dans Microsoft 365, avec écrans affichant un cadenas numérique et des fichiers cloud protégés
Article

Microsoft Copilot est-il vraiment sécuritaire?

13 avril 2026
289
Utilisateur analysant des documents OneDrive for Business dans Microsoft 365 Copilot en mode Travail avec plusieurs versions de fichiers illustrant la pollution du contexte
Article

OneDrive for Business: l’angle mort qui dégrade Microsoft 365 Copilot en mode «Travail»

10 avril 2026
152
Illustration dystopique inspirée de 1984 montrant la surveillance et le pouvoir des grandes entreprises technologiques dans l’intelligence artificielle
Personnel

1984, Copilot et le pouvoir : sommes-nous en train de rejouer Orwell ?

10 avril 2026
65
Utilisation de Microsoft Copilot sur smartphone en entreprise illustrant la contextualisation d’un agent avec mémoire, instructions et données Microsoft Graph
Article

Agent Copilot, le grand angle mort du contexte

29 mars 2026
167
Illustration réaliste de Microsoft Copilot au centre, relié a Word, Excel et PowerPoint par des agents, symbolisant le passage de “Copilot dans les applications” a “Office dans Copilot” via MCP.
Article

De «Copilot dans Office» à «Office dans Copilot»

29 mars 2026
152
Professionnels travaillant dans un bureau moderne pendant qu’une intelligence artificielle assiste les tâches administratives sur un écran holographique, illustrant l’adoption de l’IA comme Microsoft Copilot dans le travail quotidien.
Article

L’IA ne devrait pas faire le travail des experts

19 mars 2026
181

A propos

Tales from the scarf

Mon nom est Nicolas Georgeault et ce blog n’a pas d’autre objectif que d’exprimer mes opinions personnelles.

Categories

  • Annonce
  • Article
  • Astuce
  • Cocktails
  • Conférence
  • Cours
  • Engagement
  • Guide
  • Horse-Ball
  • Idée
  • Personnel
  • Projet
  • Santé
  • Session
  • Trouvaille

Évènements

  • Aucun évènement
  • © 2025 Tous droits réservés.

    Bienvenue!

    Connectez-vous à votre compte ci-dessous

    Mot de passe oublié?

    Récupérer votre mot de passe

    Veuillez entrer votre nom d’utilisateur ou votre adresse e-mail pour réinitialiser votre mot de passe.

    S'identifier

    Ajouter une nouvelle liste de lecture

    Pas de résultat
    Voir tous les résultats
    • Home

    © 2025 Tous droits réservés.

    Ce site utilise des cookies. En continuant à utiliser ce site Web, vous consentez à l’utilisation de cookies. Consultez notre Politique de confidentialité et de cookies.