Mit jelent az AI hallucináció?
Az AI hallucináció (AI hallucination) az, amikor egy LLM (mint a ChatGPT, Claude, Gemini) valótlan, kitalált vagy téves információt generál — miközben azt teljesen meggyőzően, magabiztos hangnemben adja elő. A modell nem hazudik szándékosan (nincs szándéka), de a működése természeténél fogva képes „tényt" találni ki, ami nem létezik.
Tipikus hallucinációk:
- Nem létező tudományos cikkre hivatkozik szerző+év+folyóirat formában
- Kitalál egy bírósági ítéletet (USA-ban már több ügyvédet bírságoltak meg ezért)
- Helytelenül idéz egy jogszabály szövegét
- Nem létező terméktulajdonságot tulajdonít egy cégnek
- Téves dátumot, statisztikát, vagy adatot ad meg
A probléma nem az, hogy téved — hanem hogy nem jelzi, hogy bizonytalan. Egy ember azt mondaná: „Nem vagyok benne biztos, de talán...". Az LLM viszont ugyanolyan magabiztosan ad helyes és helytelen választ.
Miért hallucinál az AI?
Az LLM működése statisztikai: a betanítás során megtanulta, milyen szavak szoktak egymás után jönni. Nem tényeket tud, hanem mintázatokat. Ha egy kérdésre nincs egyértelmű, gyakran látott „minta" a fejében, kitalál valamit, ami valószínűnek tűnik — és a megfogalmazás magabiztos, mert a magabiztos hangnem maga is egy minta, amit megtanult.
Két fő ok:
- Tudás-hiány. Amit nem tanultak meg vagy nem aktuális, azt nem tudja — de nem mondja meg.
- „Plauzibilitás" prioritás. A modell olyan választ ad, ami hihetőnek hangzik, nem ami igaz. Ez a kettő nem ugyanaz.
Üzleti példa
Egy magyar pénzügyi tanácsadó iroda belső használatra bevezette a ChatGPT-t. Az egyik junior tanácsadó megkérte, hogy foglalja össze a 2024-es magyar SZJA-szabályokat. A modell magabiztosan, részletesen, példákkal válaszolt — és kb. 30%-ban tévedett. Százalékos kulcsokat, határérteket, mentességeket találgatott.
A junior nem ellenőrizte (nem mert), elküldte az ügyfélnek. Az ügyfél félrevezetett tanácsadás miatt később reklamált — és igaza volt.
A javítás: az AI csak az ellenőrzött belső tudásbázisból válaszolhat (RAG architektúrával), és minden válasz forráshivatkozást tartalmaz. Ha az adott kérdésre nincs forrás, az AI kötelezően azt mondja: „Erre nem találtam megbízható forrást a tudásbázisunkban, kérlek konzultálj egy senior tanácsadóval."
A hallucinációs hiba 6 hónap alatt 0-ra esett.
Mit kell tudni egy cégvezetőnek?
A hallucináció nem fog eltűnni — ez az LLM-ek természete. Élnünk kell vele és kockázatkezelnünk kell. Három alapelv:
- Sosem adj éles AI-választ ellenőrzés nélkül. Minimum human-in-the-loop review legalább a kockázatos esetekre (jog, pénz, egészség, ügyfélígéret).
- Forrásalapú működés. A RAG drasztikusan csökkenti a hallucinációt — a modell csak a megadott dokumentumokból dolgozhat.
- Tedd kötelezővé a „nem tudom" választ. A prompt engineering része: utasítsd a modellt, hogy ha nincs elég információ, kifejezetten mondja meg, ne találgasson.
Aki nem kezeli a hallucinációt, az nem AI-projektet csinál, hanem időzített bombát. A jó AI-projekt számol ezzel a kockázattal a tervezéstől kezdve.