← Vissza a szótárhoz
Adatkezelés és kockázat

AI hallucináció

AI Hallucination

Az AI hallucináció az, amikor egy nyelvi modell valótlan információt generál, miközben azt teljesen meggyőzően adja elő. Üzleti AI-projektek legnagyobb kockázata.

Mit jelent az AI hallucináció?

Az AI hallucináció (AI hallucination) az, amikor egy LLM (mint a ChatGPT, Claude, Gemini) valótlan, kitalált vagy téves információt generál — miközben azt teljesen meggyőzően, magabiztos hangnemben adja elő. A modell nem hazudik szándékosan (nincs szándéka), de a működése természeténél fogva képes „tényt" találni ki, ami nem létezik.

Tipikus hallucinációk:

  • Nem létező tudományos cikkre hivatkozik szerző+év+folyóirat formában
  • Kitalál egy bírósági ítéletet (USA-ban már több ügyvédet bírságoltak meg ezért)
  • Helytelenül idéz egy jogszabály szövegét
  • Nem létező terméktulajdonságot tulajdonít egy cégnek
  • Téves dátumot, statisztikát, vagy adatot ad meg

A probléma nem az, hogy téved — hanem hogy nem jelzi, hogy bizonytalan. Egy ember azt mondaná: „Nem vagyok benne biztos, de talán...". Az LLM viszont ugyanolyan magabiztosan ad helyes és helytelen választ.

Miért hallucinál az AI?

Az LLM működése statisztikai: a betanítás során megtanulta, milyen szavak szoktak egymás után jönni. Nem tényeket tud, hanem mintázatokat. Ha egy kérdésre nincs egyértelmű, gyakran látott „minta" a fejében, kitalál valamit, ami valószínűnek tűnik — és a megfogalmazás magabiztos, mert a magabiztos hangnem maga is egy minta, amit megtanult.

Két fő ok:

  1. Tudás-hiány. Amit nem tanultak meg vagy nem aktuális, azt nem tudja — de nem mondja meg.
  2. „Plauzibilitás" prioritás. A modell olyan választ ad, ami hihetőnek hangzik, nem ami igaz. Ez a kettő nem ugyanaz.

Üzleti példa

Egy magyar pénzügyi tanácsadó iroda belső használatra bevezette a ChatGPT-t. Az egyik junior tanácsadó megkérte, hogy foglalja össze a 2024-es magyar SZJA-szabályokat. A modell magabiztosan, részletesen, példákkal válaszolt — és kb. 30%-ban tévedett. Százalékos kulcsokat, határérteket, mentességeket találgatott.

A junior nem ellenőrizte (nem mert), elküldte az ügyfélnek. Az ügyfél félrevezetett tanácsadás miatt később reklamált — és igaza volt.

A javítás: az AI csak az ellenőrzött belső tudásbázisból válaszolhat (RAG architektúrával), és minden válasz forráshivatkozást tartalmaz. Ha az adott kérdésre nincs forrás, az AI kötelezően azt mondja: „Erre nem találtam megbízható forrást a tudásbázisunkban, kérlek konzultálj egy senior tanácsadóval."

A hallucinációs hiba 6 hónap alatt 0-ra esett.

Mit kell tudni egy cégvezetőnek?

A hallucináció nem fog eltűnni — ez az LLM-ek természete. Élnünk kell vele és kockázatkezelnünk kell. Három alapelv:

  1. Sosem adj éles AI-választ ellenőrzés nélkül. Minimum human-in-the-loop review legalább a kockázatos esetekre (jog, pénz, egészség, ügyfélígéret).
  2. Forrásalapú működés. A RAG drasztikusan csökkenti a hallucinációt — a modell csak a megadott dokumentumokból dolgozhat.
  3. Tedd kötelezővé a „nem tudom" választ. A prompt engineering része: utasítsd a modellt, hogy ha nincs elég információ, kifejezetten mondja meg, ne találgasson.

Aki nem kezeli a hallucinációt, az nem AI-projektet csinál, hanem időzített bombát. A jó AI-projekt számol ezzel a kockázattal a tervezéstől kezdve.

Szeretnéd ezt a gyakorlatban is alkalmazni?

Beszéljünk arról, hogyan használjuk ezt a fogalmat valós cégekben — stratégiától a megvalósításig.