Pourquoi je crois que presque tout le monde se trompe dans sa stratégie d’adoption de l’IA au travail
Depuis deux ans, je vois passer les mêmes discours, les mêmes démonstrations, les mêmes promesses. On nous explique que l’intelligence artificielle, et en particulier des outils comme Microsoft Copilot, va transformer le travail des spécialistes, accélérer l’analyse, rédiger plus vite, produire des synthèses brillantes, générer des recommandations, presque penser avec nous.
Et c’est précisément là que, selon moi, beaucoup d’organisations partent dans la mauvaise direction.
Mon point de vue est simple: la plupart des stratégies d’adoption de l’IA commencent par vouloir assister, voire remplacer en partie, les tâches les plus nobles du travail humain. Les tâches d’expertise. Les tâches de jugement. Les tâches à forte valeur perçue. Les tâches que les spécialistes aiment faire parce qu’elles justifient leur métier, leur expérience, leur identité professionnelle.
Pendant ce temps, on laisse de côté ce que tout le monde déteste: la petite mécanique administrative du quotidien. Les courriels qui s’étirent. Les comptes rendus flous. Les suivis incomplets. Les décisions mal documentées. Les notes de réunion inutilisables. Les informations dispersées dans des formats improvisés. Les micro-reformulations permanentes. Les tâches de coordination qui grignotent les journées.
Je vais le dire franchement: c’est une erreur de stratégie.
Pas une petite erreur. Une erreur structurelle.
Parce que lorsqu’on demande à l’IA de venir rogner d’abord sur le cœur du savoir-faire des experts, on complique l’adoption. On crée de la résistance. On menace le sens du travail. Et on laisse intacte la partie la plus pénible, la plus répétitive et la plus démotivante de l’activité réelle. À l’inverse, quand on utilise l’IA pour débarrasser les spécialistes du poids administratif, on libère leur temps, on protège leur plaisir au travail, et on augmente la valeur réelle qu’ils apportent à l’organisation.
C’est, à mes yeux, la bonne séquence.
Le vrai problème: on confond “ce que l’IA sait faire” avec “ce qu’il faut automatiser en premier”
L’IA générative impressionne surtout lorsqu’elle touche à des tâches complexes: résumer un dossier, produire une recommandation, préparer une analyse comparative, rédiger une note stratégique, proposer un plan, structurer une réponse à un appel d’offres.
C’est spectaculaire. Donc les organisations se ruent là-dessus…
C’est du Marketing… Rien de plus…
Mais ce n’est pas parce qu’une démonstration est spectaculaire qu’elle constitue le meilleur point d’entrée pour l’adoption.
Ce que montrent plusieurs études sérieuses, c’est que l’adoption de l’IA ne dépend pas seulement de la technologie. Elle dépend surtout de la capacité de l’organisation à créer une vision claire, à démontrer la valeur, et à accompagner les personnes dans des usages qu’elles perçoivent comme utiles. Microsoft rapporte que 75 % des travailleurs du savoir utilisent déjà l’IA au travail, mais que 60 % des dirigeants disent craindre que leur leadership n’ait ni plan ni vision pour l’implémentation. Gartner note de son côté que la première barrière à l’adoption est la difficulté à estimer et démontrer la valeur des projets IA. IBM rapporte même que 64 % des PDG sondés estiment que le succès de l’IA générative dépend davantage de l’adoption par les personnes que de la technologie elle-même.
Autrement dit, le sujet n’est pas seulement “que peut faire Copilot?”. Le vrai sujet est: “sur quoi faut-il l’appliquer en premier pour que les gens y voient un gain évident, durable et désirable?”
Et là, ma réponse est nette: certainement pas en priorité sur les tâches qui donnent aux experts le sentiment d’exercer pleinement leur métier.
Les spécialistes aiment leurs tâches à forte valeur. Ce n’est pas un détail, c’est le cœur du problème
On parle souvent de productivité comme si toutes les minutes de travail se valaient. C’est faux.
Une heure passée à résoudre un problème client complexe, à arbitrer une décision délicate, à concevoir une architecture, à préparer un diagnostic ou à formuler un jugement professionnel n’a pas la même valeur, ni pour l’organisation, ni pour le collaborateur, qu’une heure passée à remettre en forme un courriel, à réconcilier des notes de réunion, à retrouver la version correcte d’un document ou à reformuler cinq fois le même compte rendu pour différents publics.
Le travail n’est pas seulement une suite de tâches. C’est aussi une expérience humaine. Et cette expérience compte. L’OCDE rappelle que la qualité de l’emploi a un effet direct sur le bien-être, la productivité et l’innovation. Harvard Business Review souligne que le sentiment de faire un travail porteur de sens est plus important pour beaucoup de personnes que d’autres dimensions de l’emploi, et qu’un travail vécu comme significatif renforce l’engagement, l’implication et la satisfaction. Harvard souligne également que maîtrise, autonomie et finalité font partie des leviers majeurs d’une expérience de travail saine et mobilisatrice.
Voilà pourquoi je pense que tant d’initiatives IA sont mal posées dès le départ.
Quand vous arrivez devant un juriste, un conseiller, un formateur, un architecte, un analyste, un développeur, un ingénieur, un professionnel des ventes complexes ou un expert métier, et que votre premier message implicite est: “on va demander à l’IA de faire une partie de ce que tu fais de mieux”, il ne faut pas s’étonner de rencontrer de la méfiance. Et rendre encore plus complexe l’évaluation de la qualité des résultats obtenus…
Cette méfiance n’est pas irrationnelle. Elle est profondément logique.
Parce que pour beaucoup de spécialistes, les tâches qu’ils aiment le plus sont précisément celles où leur expérience, leur intuition, leur finesse de lecture et leur jugement font la différence. Ce sont les tâches où ils se sentent utiles, reconnus, compétents. Leur retirer progressivement ces tâches, tout en leur laissant l’administratif, revient à dégrader la texture même de leur travail.
On leur promet du futur. Eux entendent parfois: perte de sens.
La mauvaise promesse: “l’IA va faire le plus intelligent à votre place”
C’est une promesse séduisante pour un comité de direction. Elle est beaucoup moins séduisante pour les équipes.
Si l’on caricature à peine, beaucoup de projets d’adoption sont pensés ainsi:
- l’IA va rédiger les analyses,
- l’IA va faire les synthèses,
- l’IA va proposer les réponses,
- l’IA va préparer les décisions,
- l’humain n’aura plus qu’à valider.
Sur le papier, cela paraît efficace. Dans la vraie vie, cela pose au moins quatre problèmes.
Le premier problème, c’est la confiance. Plus la tâche est spécialisée, plus le coût de l’erreur est élevé, plus l’utilisateur doit contrôler finement le résultat. McKinsey note que les organisations progressent, mais que l’inexactitude reste un risque central à gérer. IBM souligne aussi que les enjeux de culture, de gouvernance et de compréhension de l’impact sur les équipes restent majeurs.
Le deuxième problème, c’est l’effort cognitif. Vérifier un résultat complexe produit par l’IA n’est pas toujours plus simple que le produire soi-même. Parfois, c’est pire. On lit, on doute, on recoupe, on corrige, on reformule. On ne gagne pas forcément du temps. On déplace le travail.
Le troisième problème, c’est l’appropriation. Quand l’outil intervient sur un terrain hautement spécialisé, l’utilisateur doit avoir non seulement la compétence métier, mais aussi la capacité de formuler le bon contexte, de détecter les omissions, de juger la pertinence, de maîtriser les risques. L’usage devient plus exigeant, pas moins.
Le quatrième problème, c’est le sens du métier. Si l’IA prend progressivement la main sur ce que les experts considèrent comme la partie la plus noble de leur travail, il ne reste plus qu’une combinaison déprimante: contrôle, correction, coordination, administration. En clair, on garde à l’humain les tâches qu’il aime le moins.
C’est absurde.
La bonne promesse: “l’IA va vous débarrasser du travail parasite”
Là, en revanche, l’adoption devient beaucoup plus naturelle.
Pourquoi? Parce que la valeur est visible immédiatement.
Quand un spécialiste comprend que l’IA peut l’aider à:
- nettoyer un courriel brouillon,
- aider à garder organiser sa boite de reception (Zero Inbox)
- reformuler un compte rendu,
- structurer les notes d’une réunion,
- repérer les actions en suspens,
- convertir une discussion en suivi clair,
- retrouver l’information pertinente dans des échanges dispersés,
- préparer une première trame administrative,
- transformer un chaos documentaire en base exploitable,
alors il ne voit plus l’IA comme une concurrente. Il la voit comme une aide.
Et c’est exactement ce que certaines études suggèrent. BCG recommande explicitement de mettre l’accent sur la capacité de l’IA générative à réduire la “corvée” du travail, notamment les tâches administratives, afin d’augmenter le temps disponible pour des activités que les employés apprécient davantage, comme le développement professionnel, le mentorat ou le coaching. Les premières recherches publiées par Microsoft sur Copilot montrent également que les utilisateurs précoces rapportent des gains de productivité, de créativité et de temps, et ne veulent majoritairement pas revenir en arrière.
Dit autrement: l’IA est mieux acceptée quand elle enlève la friction plutôt que quand elle mord sur l’identité professionnelle.
L’erreur la plus sous-estimée: vouloir l’adoption sans standardiser les formats
Là, il faut être clair.
On ne peut pas rêver d’une IA utile à grande échelle dans une organisation qui fonctionne sur des contenus mous, incomplets, improvisés et incohérents.
Je le vois partout. Des réunions sans structure. Des décisions sans trace claire. Des courriels avec des objets vagues. Des suivis enterrés dans des fils de discussion. Des documents où personne ne sait distinguer les faits, les arbitrages, les échéances et les responsabilités. Des notes prises chacun à sa manière. Des conventions de nommage inexistantes. Des résumés sans contexte.
Puis on s’étonne que Copilot produise des résultats inégaux.
Mais l’outil n’invente pas une gouvernance informationnelle que l’organisation n’a jamais eu le courage de mettre en place.
Microsoft explique très clairement que Copilot tire de la valeur lorsqu’il est ancré dans les données de travail de l’organisation: courriels, fichiers, conversations, contenus internes. Et Microsoft précise aussi, dans Teams, que Copilot peut synthétiser les points clés, les interventions et les actions d’une réunion, mais que la transcription et les paramètres associés conditionnent ce qu’il pourra exploiter pendant et après la réunion. En d’autres termes: pas de structure, pas de traçabilité, pas de qualité d’entrée, pas de magie. Si tant est que la magie existe…
Même son de cloche du côté des standards et de la gouvernance. NIST rappelle que les standards liés aux données, à la performance et à la gouvernance sont essentiels pour des systèmes d’IA dignes de confiance. Deloitte formule le problème très directement: l’un des plus grands freins à l’adoption de l’IA est la faiblesse des standards de données.
Donc non, une stratégie Copilot sérieuse ne commence pas par une bibliothèque de prompts.
Elle commence par des normes de fonctionnement.
Là où les organisations devraient commencer, selon moi
Je vais résumer ma thèse de façon brutale: avant de demander à l’IA d’aider vos experts à penser, commencez par lui permettre de mieux capter, ranger, structurer, reformuler et transmettre ce que l’organisation produit déjà mal.
Autrement dit, commencez par l’administratif intelligent.
1. Standardiser les courriels qui déclenchent de l’action
Dans énormément d’organisations, le courriel reste l’interface réelle du travail. Le problème, c’est que les messages sont souvent incomplets.
Un courriel “utile à l’IA” et utile aux humains devrait idéalement rendre explicites:
- le contexte,
- la demande,
- l’échéance,
- le responsable attendu,
- les pièces ou références associées,
- le niveau de décision requis,
- la prochaine action.
Quand ces éléments existent de façon régulière, Copilot peut mieux résumer, retrouver, relancer, comparer et préparer des réponses. Quand ils n’existent pas, on se retrouve avec des synthèses vagues d’échanges vagues.
2. Encadrer les comptes rendus de réunion
Le compte rendu standard devrait au minimum distinguer:
- les sujets abordés,
- les décisions prises,
- les éléments à valider,
- les actions,
- les responsables,
- les échéances,
- les points en suspens,
- les documents de référence.
Ce n’est pas “bureaucratique”. C’est la condition pour qu’une réunion devienne exploitable après coup.
Microsoft montre bien que Copilot en réunion peut identifier les points clés et les actions. Encore faut-il que l’organisation sache ce qu’elle considère comme une décision, une action, un risque ou un point ouvert.
3. Normaliser les traces de décision
C’est un angle trop souvent oublié. Une décision organisationnelle devrait toujours laisser une trace minimale:
- décision,
- options envisagées,
- justification,
- responsable,
- date,
- impacts,
- suites attendues.
Sinon, quelques semaines plus tard, plus personne ne sait pourquoi telle orientation a été prise, ni ce qu’elle engage. Et l’IA ne peut pas faire de miracle sur une mémoire institutionnelle défaillante.
4. Structurer les demandes récurrentes
Demandes de support, demandes d’achat, validation de contenu, revue de contrat, préparation de formation, suivi client, qualification d’opportunité, compte rendu d’intervention: tout cela devrait exister dans des formats attendus.
Pas pour faire plaisir à la gouvernance. Pour rendre le travail plus fluide.
Une IA est beaucoup plus utile lorsqu’elle opère sur des canevas semi-structurés que lorsqu’elle doit deviner la logique implicite d’une organisation.
5. Décharger d’abord les experts du bruit
C’est ici que le gain devient visible.
Je préfère mille fois une stratégie où l’IA:
- prépare le brouillon du courriel de suivi,
- reformate les notes prises à la volée,
- extrait les actions d’une réunion,
- uniformise les réponses standard,
- retrouve les pièces pertinentes,
- reformule une note pour un autre public,
- consolide des statuts dispersés,
- génère un squelette de compte rendu,
- prépare une trame de dossier,
plutôt qu’une stratégie où elle prétend faire d’emblée le travail d’analyse métier le plus délicat.
Parce que cette première catégorie de tâches soulage réellement les gens. Elle leur redonne du temps. Elle réduit la dispersion. Elle diminue la fatigue de coordination. Elle prépare le terrain. Et surtout, elle ne leur vole pas la partie du travail qu’ils aiment et leur capacité à innover, transformer, inventer.
Pourquoi cette approche fonctionne mieux avec Microsoft Copilot
Je parle de Copilot ici parce qu’il est au cœur de beaucoup de stratégies actuelles des clients avec lesquels je travaille, mais le raisonnement vaut plus largement.
Copilot est fort quand il peut s’appuyer sur le tissu vivant du travail: courriels, fichiers, conversations, réunions, documents, contexte Microsoft 365. Microsoft l’explique explicitement: la valeur vient du “grounding” dans les données de travail internes.
Mais cela implique une conséquence très concrète: Copilot reflète la maturité informationnelle de l’organisation.
Si vos contenus sont clairs, structurés, bien nommés, cohérents et suffisamment riches, Copilot sera plus utile et surtout plus pertinent.
Si vos contenus sont ambigus, redondants, éclatés, lacunaires et mal gouvernés, Copilot sera irrégulier. Pas parce qu’il est mauvais. Parce que votre organisation lui donne une matière médiocre.
C’est pour cela que je pense que la vraie stratégie d’adoption ne doit pas être vendue comme un projet d’IA.
Elle doit être vendue comme un projet de qualité du travail.
Et c’est très différent.
Ce que je dirais à un comité de direction
Je leur dirais ceci:
Arrêtez de présenter l’IA comme un moyen de faire faire aux machines le travail brillant de vos meilleurs experts.
Présentez-la comme un moyen de rendre enfin supportable, propre, fiable et fluide la mécanique administrative qui empoisonne leur quotidien.
Arrêtez de commencer par les cas d’usage les plus glamour.
Commencez par les plus détestés.
Arrêtez de croire que l’adoption viendra parce que la technologie impressionne.
Elle viendra quand les gens sentiront que leur journée devient plus légère, plus claire et plus cohérente.
Arrêtez de traiter le problème comme un sujet de prompts.
C’est d’abord un sujet de formats, de normes, de gouvernance légère, de qualité documentaire et de discipline collective.
Et surtout, n’oubliez jamais ceci: une technologie n’est pas adoptée parce qu’elle est puissante. Elle est adoptée parce qu’elle soulage.
Ce que je recommande concrètement
Si je devais bâtir une trajectoire d’adoption réaliste, je la structurerais ainsi.
Phase 1: enlever la friction
Objectif: réduire le poids des tâches administratives.
Cas d’usage prioritaires:
- résumé de courriels longs,
- brouillons de réponses,
- synthèses de réunions,
- extraction d’actions,
- reformatage de notes,
- consolidation de suivis,
- transformation de contenus bruts en formats standard.
Indicateurs:
- temps gagné,
- délai de réponse,
- qualité perçue des suivis,
- taux de réutilisation des comptes rendus,
- satisfaction des équipes.
Phase 2: normaliser les formats
Objectif: rendre l’organisation plus lisible pour les humains et pour l’IA.
Travaux prioritaires:
- gabarits de courriels critiques,
- gabarits de communication Teams,
- canevas de réunion,
- modèles de décision,
- conventions de nommage,
- taxonomie minimale,
- standards de suivi.
Indicateurs:
- complétude des informations,
- cohérence des traces,
- diminution des demandes de clarification,
- meilleure retrouvabilité.
Phase 3: augmenter l’expertise
Objectif: utiliser l’IA pour accélérer certains travaux spécialisés, sans déposséder l’expert.
Cas d’usage:
- première synthèse de corpus,
- pré-analyse documentaire,
- propositions de structure,
- scénarios comparatifs,
- aide à la reformulation métier,
- préparation de contenu expert.
Règle d’or: l’IA prépare, l’expert arbitre.
Phase 4: transformer les processus
Objectif: aller plus loin, mais seulement quand la base informationnelle tient debout.
À ce stade seulement, on peut viser:
- chaînes semi-automatisées,
- agents spécialisés,
- orchestration inter-applications,
- tableaux de bord de pilotage enrichis par IA,
- exploitation avancée des connaissances organisationnelles.
Avant cela, on met la charrue avant les bœufs.
Ma conclusion
Je ne crois pas que l’erreur actuelle autour de Copilot et des autres outils d’IA vienne d’un manque de puissance technologique.
Je crois qu’elle vient d’un mauvais point de départ.
On veut confier à l’IA les tâches que les spécialistes aiment faire, celles qui portent leur expertise, leur valeur et parfois leur plaisir professionnel. On pense que c’est là que se trouve le ROI le plus noble. Mais ce faisant, on rend l’adoption plus difficile, on augmente les besoins de contrôle, on fragilise le sens du travail, et on laisse aux humains l’essentiel de ce qu’ils détestent: l’administratif, le flou, le bruit, la coordination pénible, les traces incomplètes.
À mes yeux, la bonne stratégie est l’inverse.
Il faut d’abord libérer les experts de ce qui les alourdit.
Il faut rendre les formats plus intelligents.
Il faut imposer quelques normes simples.
Il faut mieux écrire, mieux tracer, mieux structurer, mieux nommer.
Et ensuite seulement, l’IA pourra réellement amplifier l’organisation.
Pas en remplaçant l’intelligence humaine là où elle est la plus précieuse.
Mais en lui redonnant enfin de l’espace.
Parce qu’au fond, le vrai sujet n’est pas de savoir si l’IA peut faire le travail des experts.
Le vrai sujet, c’est de savoir si nous sommes assez lucides pour l’utiliser d’abord là où elle améliore vraiment la vie au travail.
Et sur ce point, oui, je crois sincèrement que beaucoup d’organisations font encore fausse route.



























