Nous avons tendance à utiliser ce que nous connaissons. Depuis plus de 25 ans, ce que nous avons appris, c’est à parler le langage de Google : taper quelques mots-clés dans une barre de recherche, attendre que l’algorithme complète, trie et hiérarchise pour nous. Cette logique est profondément ancrée dans nos réflexes numériques.
Or, cette approche « Google » correspond en réalité à ce qu’on appelle le zéro-shot dans le monde de l’intelligence artificielle générative : on pose une question brute, sans contexte, et l’IA tente d’y répondre directement. C’est rapide, mais souvent limité.
Avec l’arrivée des modèles conversationnels, une nouvelle discipline s’impose : le prompt engineering. L’idée n’est plus seulement de chercher, mais de guider. On peut l’imaginer comme une échelle à gravir : à la base, des prompts simples et directs ; puis, au fur et à mesure que l’on monte, des techniques plus avancées — zéro-shot enrichi, one-shot, few-shots, chain of thought, auto-vérification… Chaque marche apporte plus de contrôle, plus de précision, plus de fiabilité.
Dans cet article, nous allons explorer cette échelle pas à pas, en partant de la question la plus simple — « Quelle est la capitale du Canada ? » — et en la reformulant à travers les différentes stratégies de prompt engineering. L’objectif : proposer un guide accessible aux débutants, mais assez solide pour servir de référence à ceux qui veulent affiner leurs pratiques.
0) Le prompt minimal (zéro-shot naïf)
Idée : tu poses la question, point.
Quand : pour des faits triviaux ou quand tu testes la base.
Exemple
Quelle est la capitale du Canada ?
Attendu : « Ottawa. »
Limite : pas de formatage, pas de garde-fous si le modèle hésite (risque de « Toronto », l’erreur classique).
1) Zéro-shot… mais avec consignes
Idée : même sans exemples, on cadre la réponse (langue, ton, longueur).
Quand : quasi tout le temps.
Exemple
Réponds en français, en un seul mot.
Question : Quelle est la capitale du Canada ?
Attendu : « Ottawa »
2) Zéro-shot + contraintes de sortie (format)
Idée : on structure la réponse pour l’exploiter ailleurs (tableau, JSON…).
Quand : dès que tu dois réutiliser la sortie (script, doc, slide).
Exemple
Réponds en JSON compact : {"reponse":"...", "confiance":"haute|moyenne|basse"}.
Question : Quelle est la capitale du Canada ?
Ne fournis que le JSON.
Attendu
{"reponse":"Ottawa","confiance":"haute"}
3) Zéro-shot + garde-fous (incertitude & honnêteté)
Idée : autoriser « Je ne sais pas » plutôt qu’une invention.
Quand : domaines mouvants ou techniques.
Exemple
Si tu n’es pas certain à ≥90 %, réponds "Je ne sais pas".
Sinon, réponds en un mot.
Question : Quelle est la capitale du Canada ?
Attendu : « Ottawa »
4) Rôle (role prompting)
Idée : définir un personnage influence le style et la rigueur.
Quand : pédagogie, vulgarisation, ton spécifique.
Exemple
Tu es un professeur de géographie. Explique en une phrase.
Question : Quelle est la capitale du Canada ?
Attendu : « La capitale du Canada est Ottawa. » (avec une micro-explication)
5) Délimiteurs & variables (réduire l’ambiguïté)
Idée : baliser tes entrées pour éviter les confusions.
Quand : prompts longs, intégrations outillées.
Exemple
Consigne : Réponds en un mot.
Question :
<<<
Quelle est la capitale du Canada ?
>>>
Attendu : « Ottawa »
6) One-shot (un exemple)
Idée : donner un exemple guide le modèle vers le bon pattern.
Quand : question simple mais sujette à confusions.
Exemple
Exemple :
Q : Quelle est la capitale de la France ?
R : Paris
Question :
Q : Quelle est la capitale du Canada ?
R :
Attendu : « Ottawa »
7) Few-shot (quelques exemples, dont des “pièges”)
Idée : plusieurs exemples, en glissant des cas où la plus grande ville n’est pas la capitale (Sydney/Canberra).
Quand : tu veux façonner la “logique” de sortie.
Exemple
Exemples :
Q : Capitale de l’Australie ? R : Canberra
Q : Capitale de la Turquie ? R : Ankara
Q : Capitale de la Suisse ? R : Berne
Question :
Q : Capitale du Canada ? R :
Attendu : « Ottawa »
8) Pensée “pas à pas”… sans l’afficher (CoT implicite)
Idée : inviter le modèle à réfléchir avant de répondre, sans révéler son raisonnement complet.
Quand : questions où la précipitation induit des erreurs.
Exemple (sécurisé)
Prends le temps de réfléchir en interne, puis ne fournis que la réponse finale
et une justification brève (≤15 mots).
Question : Quelle est la capitale du Canada ?
Attendu : « Ottawa — Capitale fédérale officielle, distincte de Toronto. »
On évite ici d’exiger de longs raisonnements “pas à pas” détaillés dans la sortie. On privilégie une justification courte.
9) Checklist de vérification (self-check)
Idée : répondre, puis se relire via 1–2 règles simples.
Quand : limiter les bourdes sans rallonger la sortie.
Exemple
Donne la réponse puis "Vérification : OK/À revoir".
Règles internes : capitale officielle ≠ forcément plus grande ville.
Question : Quelle est la capitale du Canada ?
Attendu : « Ottawa — Vérification : OK »
10) Auto-cohérence (self-consistency) — version “silencieuse”
Idée : le modèle échantillonne plusieurs réponses en interne et sort la plus fréquente.
Quand : questions ambiguës.
Exemple
Évalue plusieurs réponses en interne et ne fournis que la plus probable,
en un mot. Question : Capitale du Canada ?
Attendu : « Ottawa »
11) Auteur & Critique (critic-refine)
Idée : le modèle se relit avec un “critique” interne, puis livre une version corrigée.
Quand : qualité rédactionnelle, exactitude.
Exemple
Rédige la réponse, fais une critique interne, corrige.
Ne fournis que la version corrigée, en une phrase.
Question : Quelle est la capitale du Canada ?
Attendu : « La capitale du Canada est Ottawa. »
12) Décomposition en sous-tâches (plan-and-solve)
Idée : découper le problème (identifier le pays, la capitale officielle, vérifier les confusions).
Quand : questions complexes/multi-étapes.
Exemple
Résous en sous-tâches en interne, mais ne fournis que :
1) Réponse finale ; 2) Justification brève (≤15 mots).
Question : Capitale du Canada ?
Attendu : « Ottawa — Capitale fédérale du Canada, pas Toronto. »
13) Récupération de connaissances (RAG) & outils (aperçu)
Idée : pour questions d’actualité ou spécialisées, autoriser la recherche.
Quand : fait non mémorisable, chiffres récents, docs internes.
Prompt canevas (générique)
Si outils autorisés, recherche une source fiable et réponds
avec la réponse + "Source : <nom du site>".
Sinon, réponds en indiquant "Source non consultée".
Question : Capitale du Canada ?
Attendu : « Ottawa — Source : Encyclopédie canadienne » (ou « Source non consultée »).
14) Questions de clarification (socratic prompting)
Idée : si la question est ambiguë, on demande d’abord de préciser.
Quand : domaines ouverts (“capitale économique, politique, culturelle ?”).
Exemple
Avant de répondre, pose jusqu’à 2 questions de clarification si nécessaire.
Sinon, réponds directement. Question : Capitale du Canada ?
Attendu : pas de question inutile ici → « Ottawa »
15) Sorties multi-formats (texte + tableau + JSON)
Idée : même réponse, mais livrée prête à coller dans un slide/table/outil.
Quand : production de livrables.
Exemple
Fournis :
1) Réponse brève (≤3 mots)
2) Tableau Markdown (Pays | Capitale | Note)
3) JSON {"pays":"...","capitale":"...","confiance":"..."}
Question : Capitale du Canada ?
Attendu
1) Ottawa
2) | Pays | Capitale | Note |
|--------|----------|---------------------------|
| Canada | Ottawa | Capitale fédérale officielle |
3) {"pays":"Canada","capitale":"Ottawa","confiance":"haute"}
16) Style & ton (personas de sortie)
Idée : imposer un ton (neutre, pédagogique, humoristique).
Quand : blog, formation, réseaux sociaux.
Exemple
Réponds en 1 phrase, ton pédagogique et inclusif.
Question : Capitale du Canada ?
Attendu : « La capitale du Canada est Ottawa. »
17) Gabarit universel (ton “starter pack”)
Colle ce modèle et remplace les variables :
Rôle : {rôle court}
Objectif : {ce que tu veux précisément}
Contraintes : {langue, longueur, format, champ sémantique, seuil d’incertitude}
Vérification : {une règle simple de self-check}
Sortie attendue : {texte|tableau|JSON|liste}
Question :
<<<
{ta question ici}
>>>
Exemple rempli
Rôle : Professeur de géographie
Objectif : Donner la capitale officielle
Contraintes : Français, ≤1 phrase, si incertitude <90 % alors "Je ne sais pas"
Vérification : Capitale officielle ≠ plus grande ville
Sortie attendue : 1 phrase
Question :
<<<
Quelle est la capitale du Canada ?
>>>
Référence rapide (quand utiliser quoi)
| Stratégie | À utiliser quand… | Tu obtiens… | Exemple court |
|---|---|---|---|
| Zéro-shot | Fait trivial | Rapidité | « Capitale du Canada ? » |
| Zéro-shot + consignes | Tu veux du contrôle | Réponse propre | « Un mot, en français… » |
| Format structuré | Réutilisation | JSON/Table | JSON “reponse/confiance” |
| Rôle (persona) | Pédagogie/ton | Style adapté | “Tu es prof…” |
| One-shot | Légère confusion | Pattern correct | Exemple France→Paris |
| Few-shot | Éviter pièges | Généralisation | Ajoute Canberra/Ankara |
| CoT implicite | Réduire l’impulsivité | Réponse + micro-raison | “Réfléchis en interne…” |
| Self-check | Diminuer les bourdes | “OK/À revoir” | Règle capitale ≠ plus grande ville |
| Self-consistency | Ambigu | Majorité silencieuse | “Évalue en interne…” |
| Critic-refine | Qualité | Version corrigée | “Rédige, critique, corrige” |
| Plan-and-solve | Multi-étapes | Rigueur | “Sous-tâches internes” |
| RAG/Outils | Actu/Spécialisé | Source | “Source : …” |
| Socratique | Ambiguïté | Clarification | “Pose jusqu’à 2 questions” |
Erreurs fréquentes (et antidotes)
- Question suggestive : « C’est Toronto, non ? » → Antidote : “Ne réponds que si certain à ≥90 % ; sinon ‘Je ne sais pas’.”
- Sortie verbeuse quand tu voulais du JSON → rappelle explicitement “Ne fournis que le JSON”.
- Hallucination de source → exige “Source consultée/non consultée” plutôt qu’un lien inventé.
- Format instable → verrouille avec un schéma JSON très simple et des valeurs autorisées.
En deux minutes, ta routine “qualité”
- Contexte (rôle/objectif)
- Contraintes (langue, longueur, format, seuil d’incertitude)
- Vérification (1 règle)
- Sortie (texte, tableau, JSON)
- Question (délimitée)



























