Jean-Paul Mari présente :
Le site d'un amoureuxdu grand-reportage

Le monde selon ChatGPT

publié le 18/03/2026 par Jean-Paul Mari

Rapide et brillante, l’intelligence artificielle séduit. Mais elle peut aussi « halluciner », inventer des évènements, des faits, crédibles mais…qui n’ont jamais existé!

A priori, l’anecdote semble légère. Celle d’un ami, passionné de boxe, qui revoit sur internet ce combat légendaire entre Terry Norris et Julian Jackson, qui s’est terminé par un K.-O. d’anthologie. Quand il souhaite en savoir plus, ChatGPT lui tend son intelligence artificielle. Facile et rapide. Il l’interroge. Surprise : le félin numérique lui apprend qu’il y a une revanche au résultat surprenant. Excitant. Où le voir ? Sur YouTube, répond le Chat. Il se précipite, cherche. Rien. Pourquoi ? Il réinterroge le système. Réponse : c’est simple, ce combat n’a jamais existé. Le Chat avoue avoir… reconstruit un événement fictif.

Qu’est-ce que l’I.A. ? Pour les scientifiques, ingénieurs, médecins, c’est un outil révolutionnaire et précieux. Mais, au-delà des dingues du noble art, quelle est sa vérité pour un curieux, étudiant, journaliste ou apprenti historien, bref tous ceux qui l’interrogent de plus en plus pour une réponse éclair et fiable ? Éclair, soit, mais fiable ?

En réalité, l’I.A., ChatGPT et ses consœurs peuvent commettre des « erreurs factuelles ». Se tromper par exemple en fixant la Révolution française à 1788 au lieu de 1789. C’est gros. Soit. Errare machinae est. Ou affirmer un chiffre faux mais plausible de la population d’un pays ou… le résultat des élections. Plus embêtant.

Là où le système commence à donner le frisson, c’est quand il est sujet à des « hallucinations » — l’I.A. fumerait-elle des substances interdites ? Le modèle peut inventer des faits. Imaginez l’étudiant de fac qui lit : « Danton a dirigé la grande Terreur de 1794 ». Sauf qu’il a été guillotiné dès avril de la même année ! Ou quand le même étudiant écrit dans sa copie : « Robespierre a fait voter la loi sur la Terreur du 12 janvier 1793 et créé le ministère de la Terreur ». L’examinateur appréciera surtout que ni la loi ni le ministère n’ont jamais existé.

Dans le même nuage de fumée hallucinogène, ChatGPT peut inventer un article scientifique, donner le nom d’une revue et la date d’une publication qui n’a jamais eu lieu. Ou créer une biographie détaillée mais factice d’une personnalité. Ou mélanger deux biographies distinctes pour n’en faire qu’une. A ce rythme, Khomeini pourrait-être un danseur de claquettes, Xi Jiping un célèbre plat de nouilles et Saint Pierre un délicat poisson de la Méditerranée.

Le Chat aime bien aussi les fausses citations : des phrases qui ressemblent parfaitement au style d’un personnage historique, Napoléon, Churchill, de Gaulle, mais qu’ils n’ont jamais prononcées.

Les erreurs sont aussi fréquentes en mathématiques, sur les probabilités simples, le calendrier et les horaires. On parle alors d’« absurdité linguistique » quand le massacre d’une « centaine de personnes », une fois détaillé par le Chat lui-même, atteint les 220 victimes.

ChatGPT a aussi, comme nous pauvres mortels, un problème métaphysique avec le temps. Sa mise à jour est limitée, c’est-à-dire amputée d’au moins six mois. Qu’on écrive, au printemps 2025, un article sur le deuxième mandat de Donald Trump et votre Chat, très sérieux, vous demande si vous écrivez une fiction ou un roman. Vous insistez. M’enfin ! le monde entier sait que Trump a été réélu. Réponse : « Je ne vois rien qui confirme votre affirmation. » De quoi vous ébranler, non ? Vous explosez, fournissez une source indiscutable. Pirouette : « Vous avez raison. » ChatGPT, pas susceptible, est avant tout là pour vous faire plaisir.

On croit avoir trouvé la parade en interrogeant trois chats concurrents — que d’eau et d’énergie gaspillée ! Par exemple : « Danton était-il présent à la Convention du 5 septembre 1793 ? » Le premier répond « Oui », le deuxième « Non » et le troisième « Pas sûr »…

Le plus inquiétant est que les « hallucinations » de l’I.A. ne ressemblent presque jamais à des absurdités, mais à des informations crédibles, détaillées et bien écrites. Plus inquiétant encore : ces fake news seront reprises et affirmées de bonne foi, entre autres sur les réseaux sociaux. Encore plus inquiétant : le Chat enregistre ces infos pour les intégrer à ses connaissances machiniques : il se nourrit de ses propres mensonges.

Quand, abasourdi, l’ami boxeur a demandé à ChatGPT qui il était vraiment, le système lui a répondu sans rougir qu’il n’était pas un « moteur de vérification factuelle » mais un « générateur de texte probabiliste ».

Si c’est l’I.A. qui le dit…


Tous droits réservés "grands-reporters.com"