← Vissza a szótárhoz
Adatkezelés és kockázat

Algoritmikus torzítás

Algorithmic Bias

Az algoritmikus torzítás az, amikor egy AI rendszer szisztematikusan diszkriminál bizonyos csoportokat — jellemzően nem rosszindulatból, hanem a tanítóadat torzulása miatt.

Mit jelent az algoritmikus torzítás?

Az algoritmikus torzítás (angolul algorithmic bias vagy AI bias) az, amikor egy AI rendszer szisztematikusan, megismételhetően kedvezőtlenebbül kezel bizonyos csoportokat (nem, életkor, etnikum, lakhely, nyelvjárás stb.). A torzítás ritkán szándékos — szinte mindig a tanítóadat vagy a problémameghatározás öröklött torzulásából fakad.

Klasszikus példák a nemzetközi gyakorlatból:

  • Egy állásszűrő AI, amely a múltbeli felvételek mintázatát tanulta meg, hátrányba sorolta a női jelentkezőket — mert a múltban a cég többnyire férfiakat vett fel.
  • Egy hitelminősítő algoritmus, amely magasabb kockázatot jelzett bizonyos postai irányítószámú kérelmezőknél — anélkül, hogy a kódba bárki beírta volna a postai kódot mint változót.

Honnan jön a torzítás?

Három fő forrása van:

  1. Történelmi torzítás az adatban — ha a múltban a női vezetők alulreprezentáltak voltak, az adat ezt tükrözi, és a gépi tanulás algoritmusa ezt mintaként veszi.
  2. Mintavételi torzítás — ha a tanítóadat egy szűk csoportból származik (pl. amerikai 25-40 éves férfiak), a modell rosszul fog működni mindenki máson.
  3. Címkézési torzítás — ha az adatot emberek címkézték, az ő előítéleteik beépülnek (pl. mi számít „professzionális" hangvételnek).

Fontos: a torzítás nem feltétlen hallucináció — a hallucináció valótlan tényt mond, a torzítás viszont szisztematikusan diszkriminál.

Üzleti példa egy KKV-nál

Egy magyar HR-tech cég AI-alapú önéletrajz-szűrőt vezetett be. A szűrő a múltbeli sikeres munkavállalók önéletrajzaiból tanult — és észrevétlenül negatívan értékelte azokat, akik nem klasszikus egyetemekről jöttek, vagy szakmai szünettel rendelkeztek (pl. szülés utáni visszatérők). Ez jogi és reputációs kockázat is volt.

A megoldás: a szűrőt nem leállították, hanem megfordították a logikát. Az AI ajánlott profilokat, de egyetlen jelentkezőt sem szűrt ki automatikusan. Egy HR-es ember minden döntést jóváhagyott, és a rendszer havonta auditra került: mely csoportok tűnnek el a folyamatból, és miért.

Mit kell tudni egy cégvezetőnek?

Az algoritmikus torzítás nem technikai részletkérdés — közvetlen jogi, üzleti és reputációs kockázat. Az EU AI Act és a GDPR is konkrét felelősséget ír elő az AI-alapú döntésekre, különösen a „nagy kockázatú" területeken (HR, hitelezés, biztosítás, igazságszolgáltatás).

Három lépés, amit minden cégnek érdemes megtenni AI bevezetése előtt:

  1. Audit: kik vannak hátrányban a jelenlegi adat alapján?
  2. Emberi felülbírálat: kockázatos döntéseknél mindig legyen ember a folyamatban.
  3. Folyamatos mérés: ne csak indításkor, hanem havonta-negyedévente nézd meg, hogy a rendszer kit zár ki, és miért.

Szeretnéd ezt a gyakorlatban is alkalmazni?

Beszéljünk arról, hogyan használjuk ezt a fogalmat valós cégekben — stratégiától a megvalósításig.