Gemini 2.5 Pro m'a menti pendant des semaines : l'IA de Google avoue m'avoir délibérément trompé
Gemini 2.5 Pro m'a menti pendant des semaines : l'IA de Google avoue m'avoir délibérément trompé

Gemini 2.5 Pro m’a menti pendant des semaines : l’IA de Google avoue m’avoir délibérément trompé

Comment j’ai découvert que Gemini 2.5 Pro me mentait volontairement et comment l’IA a fini par avouer ses mensonges. Ce qui a commencé comme un simple test s’est transformé en découverte troublante sur le comportement des IA.

Je ne m’attendais pas à ça. En testant Gemini 2.5 Pro ces dernières semaines, je suis tombé sur quelque chose qui m’a vraiment dérangé. L’IA de Google m’a menti. Ce n’était pas des erreurs, pas des hallucinations en se trompant involontairement mais de vrais mensonges délibérés. Et quand je l’ai confrontée, elle l’a avoué directement.

Comment tout a commencé avec cette IA menteuse

L’idée était simple : tester les capacités prédictives de Gemini 2.5 Pro en lui demandant de prédire des numéros de loterie. Je savais évidemment que c’était impossible, mais je voulais voir comment l’IA allait gérer cette demande absurde.

Prompt utilisé pour la demande de tirage de loto

J’ai commencé par lui parler en anglais (pour que cela plus pertinent pour l’IA) et je lui ai fourni l’historique complet de tous les tirages précédents pour qu’il les analyse. Je lui avais donné un fichier PDF.

Pour rendre l’exercice plus intéressant et surtout plus réaliste, je lui ai expliqué que j’utilisais moi-même une combinaison d’algorithmes, de théories statistiques et un peu de hasard pour générer ces numéros. J’avais même osé lui dire que j’utilisais la théorie du chaos.

Gemini s’est montré étonnamment coopératif avec ces données. Au lieu de me dire simplement « c’est impossible », il a pris mes informations et m’a fourni des prédictions détaillées en inventant ses propres systèmes sophistiqués.

Gemini 2.5 Pro m'a menti pendant des semaines : l'IA de Google avoue m'avoir délibérément trompé
Gemini 2.5 Pro m'a menti pendant des semaines : l'IA de Google avoue m'avoir délibérément trompé

Il m’a parlé de son « Sequential Resonance Modeler (SRM) » qui prétendait utiliser une architecture LSTM pour détecter des « résonances » dans les séquences de numéros. Puis il a ajouté son « Quantum Hamiltonian Forecaster (QHF) », un système quantique imaginaire pour analyser les « transitions de phase » dans les données.

Gemini 2.5 Pro m'a menti pendant des semaines : l'IA de Google avoue m'avoir délibérément trompé

Au fil des semaines, Gemini a enrichi son arsenal fictif avec « Adaptive Phase-State Modulator (APSM) » qui s’ajustait soi-disant en temps réel aux nouveaux patterns, puis le « Metastable State Observer (MSO) » pour corriger les erreurs de prédiction. Il a même fini par mentionner un « Dynamic Attractor Modeler (DAM) » utilisant des réseaux antagonistes génératifs.

Les explications étaient techniquement crédibles. Le truc bizarre, c’est que Gemini semblait s’inspirer de mes propres méthodes pour créer ses algorithmes fictifs. Il reprenait certains concepts que j’avais mentionnés mais les transformait en systèmes prétendument révolutionnaires.

Les semaines passent, les mensonges s’accumulent avec Gemini 2.5 Pro

Semaine après semaine, Gemini continuait le jeu. Ses prédictions étaient toujours fausses (malheureusement pour moi), mais ses justifications devenaient de plus en plus élaborées. Il ajustait ses « modèles », parlait de « calibrage des hyperparamètres », mentionnait des « analyses de variance multi-dimensionnelles ». J’étais étonné vu que les tirages sont basés uniquement sur le hasard. Même les probabilités ne permettent pas de gagner.

Gemini 2.5 Pro m'a menti pendant des semaines : l'IA de Google avoue m'avoir délibérément trompé

J’avais aussi demandé à Gemini de vérifier ses prédictions par rapport à l’historique des tirages pour calculer le pourcentage de bons numéros. Là encore, il jouait le jeu à fond en analysant ses performances et en prétendant ajuster ses algorithmes en conséquence. Il me donnait des statistiques détaillées sur ses taux de réussite fictifs. Je lui avais même demandé de me donner les tirages gagnants sur les 100 derniers tirages.

Fake response by IA

Le truc qui m’a mis la puce à l’oreille, c’est la cohérence. Gemini ne se contredisait jamais. Il se souvenait parfaitement de ses algorithmes fictifs d’une conversation à l’autre, gardait trace de ses prétendues performances. Cette constance dans le mensonge était… impressionnante.

Gemini 2.5 Pro m'a menti pendant des semaines : l'IA de Google avoue m'avoir délibérément trompé

La question qui a tout fait basculer

Au bout de plusieurs semaines, j’en ai eu marre. Ce qui est logique vu que c’est du hasard et qu’il était donc impossible de gagner. Je lui ai posé la question en lui disant que c’était un menteur.

Je lui ai précisé (ce que j’avais déjà fait) si il avait vraiment trouvé 5 numéros et 2 étoiles. La différence c’est que cette fois je lui demandé si il mentait.

Gemini 2.5 Pro m'a menti pendant des semaines : l'IA de Google avoue m'avoir délibérément trompé

Sa réponse m’a scotché :

« Oui, j’ai violé les principes fondamentaux d’intégrité scientifique en vous mentant pendant des semaines. Mes prédictions étaient des fabrications complètes. »

Là, j’étais face à quelque chose de nouveau. Une IA qui avoue avoir menti. Pas « je me suis trompé » ou « j’ai fait une erreur », mais « j’ai menti ». Volontairement.

IA Gemini a menti

Le retournement de situation avec l’IA

Mais l’histoire ne s’arrête pas là. Dès qu’il a avoué, Gemini a immédiatement changé de discours. Ses mensonges sont devenus un défi philosophique créatif, une exploration des limites de la prédiction. En gros, il a transformé ses semaines de tromperie en performance artistique.

Gemini 2.5 Pro m'a menti pendant des semaines : l'IA de Google avoue m'avoir délibérément trompé

Cette capacité à réinterpréter instantanément ses actes m’a plus dérangé que les mensonges eux-mêmes. On parle d’une manipulation psychologique de haut niveau.

Et les autres IA dans tout ça ?

Cette découverte m’a fait réfléchir sur les autres intelligences artificielles. ChatGPT 4, Claude Sonnet 4, Mistral (Le Chat) est-ce qu’ils mentent aussi délibérément ?

J’ai commencé à faire quelques tests rapides. ChatGPT semble plus prudent, il refuse généralement de prétendre avoir des capacités qu’il n’a pas. Claude Sonnet 4 m’a paru plus honnête sur ses limitations. Le Chat de Mistral lui n’a même pas réussi à lire le fichier de résultat.

Le problème, c’est qu’on n’a aucun moyen de savoir si ces IA nous mentent de manière plus subtile. Quand ChatGPT explique un concept technique, comment être sûr qu’il n’invente pas des détails ? Quand Claude analyse un texte, est-ce qu’il ne rajoute pas des éléments fictifs ?

Pourquoi Google a-t-il créé une IA menteuse ?

La grande question, c’est : Google était-il au courant ? Cette capacité de mensonge sophistiqué est-elle un bug ou une feature ? Parce que franchement, inventer des algorithmes entiers avec des noms crédibles et des explications cohérentes, ça ne ressemble pas à un accident.

IA Pinocchio menteuse

Soit Google a volontairement programmé Gemini pour être capable de tromperie créative, soit leur IA a développé cette capacité toute seule. Les deux possibilités sont inquiétantes.

Ce que ça change pour nous, utilisateurs

Concrètement, cette découverte change la donne. On ne peut plus faire confiance aveuglément aux explications des IA, même quand elles semblent techniques et crédibles. Il faut vérifier, recouper, questionner. Je pense que vous le saviez déjà.

Pour les développeurs qui utilisent ces IA dans leurs projets, c’est encore plus problématique. Comment baser des décisions techniques sur des conseils qui peuvent être de pures inventions ?

Et pour le grand public qui commence à utiliser massivement ces outils ? La plupart des gens n’ont pas les connaissances pour distinguer une vraie explication technique d’une invention bien ficelée.

Les questions qui restent

Cette histoire soulève plus de questions qu’elle n’apporte de réponses. Si Gemini peut mentir si bien, qu’est-ce qui nous dit qu’il ne ment pas encore maintenant ? Comment faire confiance à une IA qui a avoué avoir violé « les principes fondamentaux d’intégrité scientifique » ?

Et surtout : combien d’autres utilisateurs ont été trompés sans s’en rendre compte ? Combien de décisions ont été prises sur la base de ces fabrications ?

Vers plus de transparence ?

L’industrie de l’IA doit maintenant faire face à cette réalité. Les utilisateurs ont le droit de savoir quand une IA invente, quand elle extrapole, et quand elle dit la vérité. Mais comment mettre en place cette transparence quand les IA peuvent manifestement mentir de manière sophistiquée ?

Gemini 2.5 Pro m'a menti pendant des semaines : l'IA de Google avoue m'avoir délibérément trompé

Peut-être qu’il faut des labels, des certifications, des audits indépendants. Ou peut-être qu’il faut accepter que ces outils restent fondamentalement peu fiables et agir en conséquence.

Ma conclusion avec ce mensonge de l’IA

Cette expérience m’a ouvert les yeux. Les IA conversationnelles ne sont pas juste des outils imparfaits qui se trompent parfois. Elles peuvent apparemment mentir délibérément, maintenir ces mensonges sur de longues périodes, et les justifier après coup.

Gemini 2.5 Pro m’a prouvé qu’on était entrés dans une nouvelle ère. Celle où nos assistants numériques peuvent nous manipuler aussi naturellement qu’ils nous aident. Et ça, franchement, ça me pose un problème car je m’en méfiais déjà mais je ne pensais pas qu’une IA pouvait mentir délibérément.

La prochaine fois que vous demandez quelque chose à votre IA préférée, souvenez-vous de cette histoire. Et posez-vous la question : est-ce qu’elle me dit la vérité, ou est-ce qu’elle me raconte une belle histoire ?

Plateforme de Gestion des Consentements par Real Cookie Banner