
L'hallucination en intelligence artificielle, c'est quand un modèle génère une information qui semble tout à fait crédible et grammaticalement correcte, mais qui est en réalité fausse ou inventée.
Contrairement à une encyclopédie, une IA ne "cherche" pas une réponse dans une base de données de faits. C'est un moteur de prédiction statistique.
Le problème principal est le ton de l'IA. Elle ne dit pas "Je pense que...", elle affirme les faits avec une grande assurance. C'est ce qu'on appelle parfois le "bullshitting" technologique : la forme prime sur le fond.
Conseil : Toujours vérifier les informations critiques (médicales, juridiques ou techniques) auprès de sources officielles.