Depuis 2022, on a découvert un nouveau sport mondial: accuser “l’IA générative” d’être la source du mensonge. Comme si, avant ChatGPT et les images qui sortent d’un prompt, le monde était une grande basilique de vérité, éclairée aux néons de l’honnêteté.
Non.
Vos cerveaux n’ont pas attendu 2022 et l’arrivée de ChatGPT pour être nourris au faux. Ils y sont exposés depuis des décennies, parfois avec votre consentement enthousiaste, parfois avec votre résignation. Et souvent avec une petite musique intérieure qui dit: “Je n’ai pas le temps de vérifier.”
On va en parler, justement. Parce que “pas le temps”, ce n’est pas un argument: c’est une abdication.
Le vrai sujet n’est pas l’IA générative. Le vrai sujet, c’est le discernement.
1) Le mensonge a une industrie. Elle s’appelle “marketing”.
On fait comme si la tromperie visuelle était née avec les deepfakes. Alors que la publicité a perfectionné l’art du paraître bien avant nos GPU.
Ton exemple du burger est parfait parce qu’il est universel: la plupart des gens ont vécu ce micro-traumatisme moderne. Sur l’affiche: un Whopper ou un Big Mac sculpté comme une statue grecque. En vrai: un truc tassé, fatigué, avec une salade en dépression.
Et ce n’est pas juste “dans ta tête”. Les conflits judiciaires sur l’écart entre la représentation publicitaire et la réalité existent depuis longtemps, et ils se multiplient. Une décision récente sur Burger King (procès autour d’images qui exagéreraient la taille des burgers) montre que les tribunaux continuent de se battre avec cette frontière floue entre “mise en valeur” et “tromperie”. Reuters
Dans la même vague, un juge fédéral a même rappelé que certaines pubs relèvent du puffery (la “superlative bullshit” légalement tolérée), tout en notant l’explosion du nombre de plaintes : une dépêche cite des chiffres (via un cabinet) montrant une hausse massive de ce type de poursuites sur les dernières années. AP News
Et surtout, il existe un cadre officiel, y compris en France et au Canada.
En France, la DGCCRF et l’ARPP encadrent strictement les pratiques publicitaires et sanctionnent les représentations trompeuses, qu’elles soient textuelles ou visuelles.
Au Canada, le Bureau de la concurrence et Normes de la publicité Canada rappellent qu’une publicité doit être exacte, vérifiable et ne pas induire le consommateur en erreur; indépendamment des intentions affichées de l’annonceur.
Autrement dit : la société sait depuis longtemps que la manipulation de la perception est un problème. L’IA générative ne fait que l’exposer à une nouvelle échelle.
Donc non : le monde n’a pas basculé dans le faux “à cause de l’IA”. Le monde a toujours eu un problème avec la vérité… quand la vérité gêne la vente.
Quand c’est gratuit, c’est toi le produit!
2) “Mais est-ce volontaire si les images sont manipulées?”
Oui… et c’est là que c’est intéressant.
Le marketing joue sur une zone grise: il sait que l’humain ne perçoit pas une image comme un contrat, mais comme une promesse floue. Et il sait aussi que la perception est malléable.
Tu dis : “La déception visuelle est toujours là mais votre cerveau s’en accommode.” Exact. On finit par intégrer l’écart comme une taxe invisible sur le réel.
Et c’est précisément là que la question “volontaire” devient piégeuse:
- Le consommateur croit choisir librement.
- Mais le choix se fait dans un environnement conçu pour pousser, simplifier, répéter, rassurer, accélérer.
Ce n’est pas une conspiration: c’est du design d’influence.
3) Le cerveau: une machine à croire… surtout quand il est pressé
Le mécanisme le plus cruel est connu, mesuré, répété en laboratoire: l’effet de vérité illusoire (illusory truth effect).
En clair: plus on entend une affirmation, plus elle “sonne vrai”, même si elle est fausse.
- Une étude en accès libre détaille comment la répétition augmente la sensation de vérité, via la “fluidité” (ce qui est facile à traiter mentalement paraît plus crédible). PMC
- Et plus vicieux encore : une publication de l’APA montre que même la connaissance ne protège pas totalement. On peut “savoir” et quand même se faire embarquer par la familiarité. APA
Ça, c’est le cœur du sujet: la vérité n’est pas seulement une question de faits, c’est aussi une question de cognition. Et la cognition déteste l’effort quand elle est fatiguée.
Alors quand quelqu’un dit: “Je n’ai pas le temps de vérifier”, il faut traduire:
“Je n’ai pas l’énergie cognitive disponible pour résister à des systèmes conçus pour me faire avaler vite.”
C’est humain. Mais ça reste un problème.
4) L’IA générative: pas la cause, le multiplicateur
L’IA générative change une chose: l’échelle.
Avant, produire du faux crédible coûtait cher: studio, montage, compétences, temps.
Aujourd’hui, le coût baisse, la vitesse explose, et la personnalisation devient triviale. Résultat: on entre dans une ère où le faux peut être industriel et sur-mesure.
Les signaux d’alerte sont désormais traités comme un risque systémique. Le World Economic Forum a placé la désinformation (y compris dopée par l’IA) parmi les risques majeurs à court terme dans son rapport 2024. Forum Économique Mondial
Et sur le plan “terrain”, côté fraude: un rapport d’Entrust indique qu’en 2024, une tentative de deepfake surviendrait toutes les cinq minutes, et que les falsifications de documents numériques ont fortement augmenté. Entrust
Même si chaque chiffre de l’industrie mérite d’être lu avec prudence, la tendance générale est robuste: la fraude et la manipulation adoptent l’IA parce qu’elle baisse le coût du mensonge.
Et pendant ce temps, nous, humains, nous sommes… médiocres à détecter les deepfakes.
Une étude (open access) résume ça sans pitié: les gens ne les détectent pas de manière fiable, et se surestiment. PMC
Une revue plus récente indique aussi que, globalement, les performances humaines peuvent tourner autour du hasard selon les contextes. ScienceDirect
Donc oui: l’IA rend la tromperie plus facile. Mais elle n’a pas inventé notre faiblesse. Elle l’exploite.
5) “Vous croyez entendre un piano…”: l’illusion confortable
Ton exemple du piano est philosophiquement délicieux: il touche à un point important.
Même sans IA, on vit déjà dans le “presque”. Synthés, échantillons, autotune, mixage: on peut ressentir “piano” sans avoir un piano.
Et la psychoacoustique explique que notre perception du timbre dépend de paramètres physiques (attaque, spectre…), mais aussi de notre interprétation. McGill University
On confond vite “ressemble à” et “est”.
Ça ne veut pas dire que le synthétisé est “mal”. Ça veut dire que notre cerveau prend des raccourcis: il colle des étiquettes (“piano”, “vrai”, “authentique”) dès qu’il reconnaît une forme.
L’IA générative, c’est pareil: elle fabrique des formes convaincantes. Et notre cerveau, s’il n’est pas tenu en laisse, confond forme et preuve.
6) Le vrai remède: une hygiène d’esprit critique (simple, faisable, non négociable)
Pas besoin de devenir enquêteur du FBI. Mais il faut arrêter de faire semblant: vivre sans vérifier a un coût. Tu le paies en argent, en temps, en anxiété, en manipulation, en cynisme.
Voici une routine pratico-pratique. Une “ceinture de sécurité cognitive”:
A) La règle des 20 secondes
Avant de partager ou de croire:
- Qui est la source?
- Est-ce une source primaire (donnée, doc officiel, étude) ou secondaire (commentaire, capture, “on dit”)?
- Est-ce que d’autres sources indépendantes confirment ?
B) La règle du “qu’est-ce qui me convainc?”
Demande-toi:
- Est-ce que je suis convaincu par des preuves… ou par une sensation (familiarité, émotion, esthétique)?
- Essaye-t-on de me vendre une idée ou un produit?
L’effet de vérité illusoire existe: la familiarité est une drogue douce.
C) La règle “preuve > performance”
Une vidéo qui “a l’air vraie” n’est pas une preuve.
Un visuel qui “fait pro” n’est pas une preuve.
Un ton assuré n’est pas une preuve.
D) Pour les images/vidéos: le test de friction
- Est-ce que l’auteur donne un contexte vérifiable (lieu, date, source)?
- Y a-t-il une version longue, non coupée?
- Est-ce repris par des médias/organismes crédibles?
E) Pour les promesses marketing: le test régulateur
Quand c’est une publicité: cherche la claim (l’affirmation précise) et demande “où sont les preuves?”.
Les régulateurs existent justement parce que la tentation de mentir est structurelle.
7) “Je n’ai pas le temps”: le mensonge le plus dangereux de cette histoire
On n’a pas le temps de vérifier… mais on a le temps:
- de scroller 40 minutes,
- de s’énerver sur un post,
- de se faire avoir par un achat,
- de réparer les dégâts d’une info fausse.
La vérité demande un petit péage cognitif au début.
Le mensonge te facture à la fin, avec intérêts.
Et l’IA générative ne fait qu’augmenter les intérêts.
Conclusion: l’IA n’est pas le démon. C’est un miroir qui grossit
L’époque ne réclame pas des gens “anti-IA”. Elle réclame des gens anti-crédulité. Dotés d’un esprit critique.
Le problème n’est pas que le faux existe. Le problème, c’est quand on le laisse entrer sans frapper, qu’on lui offre un café, et qu’on le laisse réaménager le salon.
La vérité n’est pas un état naturel de l’information. C’est une discipline.
Une hygiène.
Un art de vivre.
Et oui, c’est exigeant. Mais c’est exactement ça, être libre: payer un peu d’effort pour ne pas payer sa pensée au prix fort.


























