Quand une IA invente des informations fausses mais les présente avec assurance, comme si c'était vrai.
Une hallucination est une réponse d'IA qui contient des informations inventées, inexactes ou complètement fausses, mais présentées avec assurance. Le LLM ne 'ment' pas volontairement : il génère le texte le plus probable statistiquement, même quand il n'a pas la bonne réponse. Les hallucinations sont un risque majeur, surtout pour les données factuelles (dates, chiffres, citations, noms). C'est pour ça que la vérification humaine reste indispensable.
C'est comme un étudiant brillant qui préfère improviser une réponse plutôt que de dire 'je ne sais pas'. Il parle avec assurance, sa réponse semble logique, mais elle est inventée. L'IA fait pareil : elle complète les trous avec du texte plausible.
Tu demandes à ChatGPT une citation d'un auteur précis. L'IA génère une citation qui semble vraie, avec le bon style, mais qui n'a jamais été écrite. Ou tu demandes un lien vers un article, et l'IA invente une URL qui n'existe pas.
Tu veux maîtriser ces concepts concrètement ?
LE LABO IA t'apprend à construire, automatiser et vendre avec l'IA.
Découvrir le programme