(et pourquoi tous les agents Copilot ne fonctionnent pas de la même manière)
Depuis quelques mois, je vois les entreprises accélérer fortement leurs projets autour des agents Microsoft Copilot.
La promesse est séduisante :
- créer des assistants spécialisés
- automatiser certaines tâches
- améliorer la productivité des utilisateurs
- connecter les systèmes métiers
Mais dans la plupart des organisations que je rencontre, je vois la même erreur stratégique.
Les entreprises pensent que la qualité d’un agent dépend principalement :
- de ses instructions
- de ses connaissances
- de ses outils
En réalité, la qualité des réponses dépend tout autant du contexte dans lequel l’agent est utilisé.
Et ce contexte ne se limite pas aux instructions de l’agent.
Il dépend aussi :
- du contexte conversationnel
- des attentes formulées par l’utilisateur
- des connaissances accessibles
- et du type d’agent utilisé.
Car dans Microsoft Copilot, tous les agents ne fonctionnent pas de la même manière.
Les couches de contexte dans Microsoft 365 Copilot
Pour comprendre comment fonctionne un agent, il faut d’abord comprendre les différentes couches de contexte utilisées par Copilot.
Copilot ne répond jamais uniquement à partir d’un prompt isolé.
Il s’appuie sur plusieurs couches d’information.
Voici une représentation simplifiée.
flowchart TD A[Utilisateur] --> B[Conversation active] B --> C[Contexte explicite fourni par l'utilisateur] B --> D[Objectif de la demande] B --> E[Attentes de résultat] F[Agent Copilot] F --> G[Instructions de l'agent] F --> H[Sources de connaissances] F --> I[Actions et connecteurs] J[Microsoft Graph] J --> K[Documents] J --> L[Emails] J --> M[Teams] J --> N[SharePoint] C --> O[Génération IA] D --> O E --> O G --> O H --> O I --> O K --> O L --> O M --> O N --> O
Dans cette architecture, l’agent n’est qu’une des sources de contexte utilisées pour produire la réponse.
Cela signifie qu’un agent parfaitement conçu peut produire des résultats très différents selon :
- la manière dont l’utilisateur pose sa question
- les données disponibles
- le contexte conversationnel.
Le point critique que beaucoup ignorent
Il existe un détail extrêmement important dans l’écosystème Copilot.
Aujourd’hui, certaines fonctionnalités de personnalisation comme :
- les instructions personnalisées
- la mémoire Copilot
ne sont pas utilisées par les agents.
Cela signifie que lorsqu’un utilisateur invoque un agent, celui-ci travaille principalement avec :
- les instructions définies dans l’agent
- la conversation en cours
- les connaissances configurées.
Le modèle ne bénéficie pas automatiquement :
- des préférences de l’utilisateur
- de sa mémoire Copilot
- de son historique conversationnel global.
Cela crée une situation paradoxale.
Les organisations pensent déployer des agents très intelligents, alors que dans les faits le contexte disponible peut être très limité.
Pourquoi deux utilisateurs obtiennent des réponses différentes
Ce phénomène est très courant dans les entreprises.
Deux utilisateurs interrogent le même agent.
Et pourtant les réponses peuvent être radicalement différentes.
Voici pourquoi.
flowchart LR A[Agent Copilot] --> B[Utilisateur A] A --> C[Utilisateur B] B --> D[Prompt clair] B --> E[Contexte détaillé] B --> F[Attentes précises] C --> G[Prompt vague] C --> H[Peu de contexte] C --> I[Attentes floues] D --> J[Réponse précise] E --> J F --> J G --> K[Réponse générique] H --> K I --> K
L’agent n’est pas incohérent.
Il répond simplement au contexte disponible.
Les deux grandes catégories d’agents Copilot
Dans Microsoft 365, il faut distinguer deux types principaux d’agents :
- les agents déclaratifs (Agent Builder)
- les agents développés avec Copilot Studio
Ces deux approches reposent sur des philosophies très différentes.
Les agents déclaratifs (Agent Builder)
Les agents déclaratifs sont les plus simples à créer.
Ils reposent essentiellement sur :
- des instructions
- des connaissances
- quelques actions.
Ils sont généralement créés via Agent Builder ou des interfaces simplifiées.
Voici leur architecture logique.
flowchart TD A[Utilisateur] --> B[Conversation] B --> C[Prompt utilisateur] C --> D[Agent déclaratif] D --> E[Instructions] D --> F[Sources de connaissances] D --> G[Actions simples] E --> H[Génération IA] F --> H G --> H
Dans ce modèle, l’agent dépend énormément :
- de la qualité des instructions
- de la qualité des connaissances
- du prompt utilisateur.
Cela fonctionne très bien pour :
- recherche documentaire
- assistants simples
- FAQ internes.
Mais cela peut atteindre ses limites pour des scénarios métier complexes.
Les agents Copilot Studio
Les agents construits dans Copilot Studio sont beaucoup plus structurés.
Ils permettent de définir :
- une logique conversationnelle
- des actions avancées
- des connecteurs
- des orchestrations
- des variables
- des flux conversationnels.
Mais surtout, Copilot Studio introduit une notion essentielle :
les rubriques (topics).
Le rôle clé des rubriques (topics)
Les rubriques permettent de structurer les scénarios conversationnels.
Chaque rubrique correspond à un cas d’usage précis.
flowchart TD
A[Utilisateur] --> B[Agent Copilot Studio]
B --> C[Détection d'intention]
C --> D{Choix de rubrique}
D --> E[Topic RH]
D --> F[Topic Support IT]
D --> G[Topic Finance]
E --> H[Collecte d'informations]
F --> I[Diagnostic problème]
G --> J[Analyse données]
H --> K[Réponse structurée]
I --> K
J --> K
Cette architecture permet à l’agent de :
- poser des questions
- collecter du contexte
- structurer la conversation.
Autrement dit, l’agent construit activement le contexte.
C’est une différence majeure avec les agents déclaratifs.
Comparaison des deux approches
Voici une synthèse simple.
flowchart LR A[Agents déclaratifs] --> B[Instructions simples] A --> C[Connaissances] A --> D[Dépend fortement du prompt] E[Agents Copilot Studio] --> F[Rubriques structurées] E --> G[Logique conversationnelle] E --> H[Collecte active du contexte] E --> I[Actions avancées]
Les deux approches sont utiles.
Mais elles ne servent pas les mêmes objectifs.
L’erreur stratégique que je vois le plus souvent
Dans beaucoup d’organisations, la démarche est la suivante :
- construire des agents
- connecter des sources de données
- espérer que tout fonctionne.
Mais on oublie une étape essentielle :
former les utilisateurs à travailler avec l’IA.
Car même avec un agent sophistiqué :
- une demande vague donnera une réponse vague
- un contexte absent donnera une réponse aléatoire.
Ce que je recommande aux entreprises
Voici l’approche que je recommande généralement.
flowchart TD A[Former les utilisateurs] --> B[Instructions personnalisées Copilot] B --> C[Utilisation de la mémoire Copilot] C --> D[Structurer les conversations] D --> E[Déployer des agents simples] E --> F[Déployer des agents Copilot Studio avancés]
Autrement dit :
- former les utilisateurs
- structurer le contexte
- puis déployer les agents.
Conclusion : l’agent n’est qu’une partie du système
Les agents représentent une évolution importante de l’écosystème Copilot.
Mais ils ne remplacent pas le rôle de l’utilisateur dans la construction du contexte.
Même le meilleur agent du monde ne peut pas compenser :
- une demande vague
- un contexte absent
- des attentes mal définies.
Un agent n’est pas une intelligence autonome.
C’est un amplificateur d’intelligence humaine.
Et plus les organisations comprendront ce principe tôt, plus leurs projets d’IA auront des chances de réussir.




























