Qu'est-ce que Hallucination (IA) ?
En intelligence artificielle générative, une hallucination désigne le fait qu’un modèle de langage (LLM) produise une information fausse, obsolète ou purement inventée tout en adoptant un ton assertif — citations fictives, tarifs erronés, politiques internes qui n’existent pas, jurisprudence inventée. Ce n’est pas nécessairement un « bug » au sens logiciel : le modèle optimise la cohérence linguistique et la plausibilité statistique, pas la vérité documentaire. Sans garde-fous, l’utilisateur ne distingue pas la synthèse sourcée du remplissage confiant ; d’où l’importance des architectures qui ancrent la réponse dans des documents de référence et qui gèrent l’incertitude explicitement.
Comment ça marche ?
Le LLM prédit le prochain token à partir de patterns appris ; il n’a pas de modèle mental fidèle du monde réel ni d’accès garanti à vos données internes. Quand la question sort de sa zone « probable », il peut combler les trous avec du texte vraisemblable. Les réduire passe par des techniques d’ingénierie : prompts qui imposent l’ancrage, sorties structurées, validation humaine ou automatique sur les champs sensibles, et surtout du RAG (Retrieval-Augmented Generation) : récupérer d’abord des passages pertinents dans une base de connaissance contrôlée, puis conditionner la génération à ces passages — ce qui limite l’improvisation tout en restant à surveiller (mauvais document récupéré = mauvaise réponse « sourcée »).
L'Impact Business
Pour un service client ou un assistant métier exposé au public, une hallucination visible détruit la crédibilité de la marque en quelques échanges : le client part avec une fausse attente, un engagement irréaliste ou une procédure erronée. Côté entreprise, cela ouvre des risques juridiques (publicité trompeuse, conseil délictueux, non-respect de conditions contractuelles ou réglementaires) et opérationnels (remboursements, escalades, perte de confiance des équipes internes). Un widget « IA » mal intégré peut coûter plus cher en réputation qu’il n’économise en coût marginal de support.
Bonnes pratiques vs Erreurs communes
- ✅ À faire : Brider l’IA avec du RAG sur une base de connaissance entretenue (FAQ, CGV, procédures, fiches produit validées), avec traçabilité des sources citées dans la réponse utilisateur. Compléter par des garde-fous : seuils de confiance pour la recherche documentaire, refus de réponse hors périmètre, escalade humaine sur les sujets à risque, journaux d’audit et revue régulière des contenus indexés.
- ❌ À éviter : Brancher une interface ChatGPT ou équivalent « brut » sur le site ou l’intranet sans filet de sécurité ni base documentaire à jour : le modèle improvisera sur les tarifs, les délais et les garanties. L’équipe marketing célèbre la démo ; le juridique découvre les réponses six semaines plus tard sur un ticket Twitter.
Prompt IA
Tu es un prompt engineer B2B. Rédige un prompt système (en français) pour un assistant qui répond aux clients sur [produit / secteur], en intégrant : (1) consigne stricte de ne répondre qu’à partir des extraits fournis dans le contexte ci-dessous, (2) obligation de dire « je ne trouve pas cette information dans la base fournie » si la question dépasse les documents, (3) interdiction d’inventer des chiffres, dates, URLs ou clauses contractuelles, (4) format de réponse court puis détail optionnel, (5) rappel de ne pas donner d’avis juridique ou médical si hors périmètre, (6) phrase type pour proposer un passage à un humain. Ajoute une checklist de 5 tests rapides à faire sur le prompt avant mise en production (questions pièges, hors base, ambiguïtés).