Accueil Métiers Blog Glossaire Découvrir le programme
Glossaire / IA fondamentale

Hallucination

Quand une IA invente des informations fausses mais les présente avec assurance, comme si c'était vrai.

LLM Réponse correcte 90% du temps Hallucination semble vrai, mais faux

Définition complète

Une hallucination est une réponse d'IA qui contient des informations inventées, inexactes ou complètement fausses, mais présentées avec assurance. Le LLM ne 'ment' pas volontairement : il génère le texte le plus probable statistiquement, même quand il n'a pas la bonne réponse. Les hallucinations sont un risque majeur, surtout pour les données factuelles (dates, chiffres, citations, noms). C'est pour ça que la vérification humaine reste indispensable.

Analogie pour comprendre

C'est comme un étudiant brillant qui préfère improviser une réponse plutôt que de dire 'je ne sais pas'. Il parle avec assurance, sa réponse semble logique, mais elle est inventée. L'IA fait pareil : elle complète les trous avec du texte plausible.

En pratique

Tu demandes à ChatGPT une citation d'un auteur précis. L'IA génère une citation qui semble vraie, avec le bon style, mais qui n'a jamais été écrite. Ou tu demandes un lien vers un article, et l'IA invente une URL qui n'existe pas.

Outils associés

Claude Code Chatgpt

Termes liés

LLMTempératureRAGPrompt EngineeringIA générative

Tu veux maîtriser ces concepts concrètement ?

LE LABO IA t'apprend à construire, automatiser et vendre avec l'IA.

Découvrir le programme

Pour aller plus loin

Debug avec Claude Code →

Questions fréquentes

Sois précis dans tes prompts, fournis du contexte, et vérifie toujours les informations factuelles. Claude Code inclut un système de permissions qui te permet de valider chaque action.
Claude est généralement plus prudent et avoue plus facilement quand il ne sait pas. Mais aucun LLM n'est à l'abri d'hallucinations. La vérification humaine reste indispensable.