Hallucination
Quand une IA invente des informations fausses mais les présente avec assurance, comme si c'était vrai.
Définition complète
Une hallucination est une réponse d'IA qui contient des informations inventées, inexactes ou complètement fausses, mais présentées avec assurance. Le LLM ne 'ment' pas volontairement : il génère le texte le plus probable statistiquement, même quand il n'a pas la bonne réponse. Les hallucinations sont un risque majeur, surtout pour les données factuelles (dates, chiffres, citations, noms). C'est pour ça que la vérification humaine reste indispensable.
Analogie pour comprendre
C'est comme un étudiant brillant qui préfère improviser une réponse plutôt que de dire 'je ne sais pas'. Il parle avec assurance, sa réponse semble logique, mais elle est inventée. L'IA fait pareil : elle complète les trous avec du texte plausible.
En pratique
Tu demandes à ChatGPT une citation d'un auteur précis. L'IA génère une citation qui semble vraie, avec le bon style, mais qui n'a jamais été écrite. Ou tu demandes un lien vers un article, et l'IA invente une URL qui n'existe pas.
Outils associés
Termes liés
Pour aller plus loin
Questions fréquentes
Sois précis dans tes prompts, fournis du contexte, et vérifie toujours les informations factuelles. Claude Code inclut un système de permissions qui te permet de valider chaque action.
Claude est généralement plus prudent et avoue plus facilement quand il ne sait pas. Mais aucun LLM n'est à l'abri d'hallucinations. La vérification humaine reste indispensable.