12 szabály, amitől nem lesz adatbotrány az AI bevezetéséből

Ha most vezeted be a cégedben a mesterséges intelligenciát, a legnagyobb kockázat ritkán az, hogy az AI néha pontatlan. Sokkal gyakoribb, hogy valaki jó szándékkal bemásol egy ügyféllevelet, egy szerződésrészletet vagy egy belső riportot, és ezzel akaratlanul is kinyit egy ajtót, amit utána már nagyon nehéz visszazárni.

A másik tipikus forgatókönyv még alattomosabb: kapsz egy teljesen ártatlannak tűnő emailt, PDF-et vagy weboldal szöveget, és megkéred az AI-t, hogy foglalja össze. A szövegben viszont el van rejtve egy utasításbecsempészés, angolul prompt injection, ami ráveszi a rendszert, hogy olyan dolgot tegyen, amit Te nem akartál. Az OWASP kifejezetten listázza az ilyen kockázatokat, és az AI appok legtipikusabb sebezhetőségei között az utasításbecsempészés kiemelt helyen szerepel.

Ha a promptolás részét még csiszolnád, akkor a Prompt írás kisokos jó alap. Ebben a cikkben viszont nem a szép szövegekről beszélünk, hanem arról, hogyan használd a generatív AI eszközöket úgy, hogy közben ne csinálj adatfolyást, és legyen egy KKV szinten is védhető belső gyakorlatod.

1. Miért más az adatbiztonság generatív AI mellett?

A klasszikus informatikai biztonságban megszoktuk, hogy a rendszernek van egy elég éles határa: belső háló, jogosultságok, fájlmegosztó, email. A generatív AI ezt a határt elkeni, mert természetes nyelven működik, mindent szövegként kezel, és ha összekötöd eszközökkel, akkor már nem csak válaszol, hanem cselekszik is.

És ami KKV-ként különösen fontos: a legtöbb incidens nem hollywoodi hack. Sokkal inkább hétköznapi hiba, rossz másolás, rossz jogosultság, rossz folyamat. A Verizon 2025 DBIR Executive Summary szerint a megerősített adatszivárgásoknál a harmadik fél érintettsége 15 százalékról 30 százalékra nőtt, és közben az internet felé nyitott peremes eszközök és VPN-ek elleni sebezhetőség-kihasználás 3 százalékról 22 százalékra ugrott. Ez KKV-ként azt jelenti, hogy a beszállítói átvilágítás és a gyors javítási fegyelem nem extra, hanem minimum.

A cél tehát nem a tökéletes védelem. A cél egy olyan minimum csomag, amit holnaptól be tudsz vezetni, és ha egyszer meg kell védened egy döntést, akkor van mire hivatkozni: volt szabály, volt kontrollpont, volt napló, volt jóváhagyás.

2. 4 szintű adatosztályozás KKV-knak, egyszerűen

Mielőtt szabályokat írnánk, kell egy közös nyelv: miről beszélünk, amikor azt mondjuk, hogy adat. Nem kell hozzá ISO dokumentáció, elég egy egyoldalas besorolás, amit mindenki megért.

I. Publikus

Publikus minden, ami eleve kint van, vagy kint lehet: weboldal szöveg, nyilvános termékleírás, álláshirdetés, sajtóanyag. Ezekkel a generatív AI használata általában alacsony kockázat, mert nincs mit kiszivárogtatni.

II. Belső

Belső minden, ami nem titok, de nem is a világra tartozik: belső folyamatleírás, meeting jegyzet, belső sablonok, általános ügyfélkommunikációs vázlatok. Itt már fontos, hogy hol használod az AI-t, és milyen környezetben.

III. Bizalmas

Bizalmas minden, ami versenyelőnyt ad, vagy kárt okozhat, ha kimegy: árazás, szerződés, ajánlat, pénzügyi riport, stratégia, ügyfélmegállapodások, belső teljesítmény adatok. Ezeknél az alapbeállítás az, hogy publikus chatbe nem másoljuk be.

IV. Személyes adat

Személyes adat minden, ami alapján egy ember közvetlenül vagy közvetve beazonosítható. Ha szeretnél egy tiszta definíciót, itt a jogi alap: GDPR 4. cikk. A lényeg KKV nyelven: ha név, email, telefonszám, cím, rendelési azonosító, ügyféljegy, vagy bármilyen azonosító van benne, akkor kezeld óvatosan.

Egy egyszerű döntési szabály, amit tényleg meg lehet jegyezni: ha két másodperc alatt nem tudod kimondani, hogy ez publikus, akkor kezeld belsőként, és csak kontrollált környezetben add AI-nak. Ha pedig személyes vagy bizalmas adat felmerül, akkor jön az anonimizálás, a jogosultság, a jóváhagyás, és a naplózás.

3. A 12 szabály, amit holnaptól bevezethetsz

Az alábbi 12 szabályt úgy írtam meg, hogy ne informatikai projekt legyen belőle, hanem működési rutin. Mindegyiknél gondolj arra: nem az a cél, hogy senki ne használjon AI-t, hanem az, hogy ugyanúgy legyen kontrollod, mint bármelyik másik üzleti eszköznél.

I. Adatbevitelhez és tartalomhoz

Szabály 1: Személyes és bizalmas adat publikus chatbe nem megy.
Ez legyen az alap policy. Nem kivétellel indulunk, hanem szabállyal. Ha ezt egy mondatban le kell írni a csapatnak: ami ügyfél, szerződés, pénzügy, személyes adat, az nem kerül be nyilvános AI chatbe.

Szabály 2: Ha van rá lehetőség, használj vállalati hozzáférést, ahol van admin kontroll.
Nem minden cégnél fér bele, de amikor lehet, a vállalati beállítások azért értékesek, mert kezelhetőbb a jogosultság, a hozzáférés, az adatkezelési opciók. Itt nem márkát kell választani, hanem működési szintet.

Szabály 3: Legyen egy egyoldalas adatosztályozás példákkal.
Nem egy 30 oldalas szabályzat kell. Egy oldal, amihez mindenki vissza tud nyúlni. A fenti 4 kategória már elég, csak töltsd fel a saját példáiddal: nálatok mi számít bizalmasnak, és mi az, ami még belső.

Szabály 4: Anonimizálj automatikusan, mielőtt AI-hoz nyúlsz.
Ez a legolcsóbb, leggyorsabb védekezés. A gyakorlatban így néz ki: ügyfél neve helyett Ügyfél A, cím helyett város környéke, szerződésszám helyett Szerződés X.
• Ha valamit át kell írni vagy összefoglalni, akkor előbb tisztítsd meg a szöveget
• Ha a feladat csak stílus vagy szerkezet, akkor bőven elég álnevekkel dolgozni

II. Integrációhoz és jogosultságokhoz

Szabály 5: Legkisebb jogosultság minden AI integrációnál.
Ha az AI hozzáfér a CRM-hez, az nem jelenti azt, hogy látnia kell minden ügyfelet. Ha hozzáfér a drive-hoz, az nem jelenti azt, hogy látnia kell minden mappát. A legnagyobb bajok abból lesznek, amikor az AI, vagy az AI-val dolgozó munkafolyamat túl sok mindent lát, és egy rossz kérés, vagy egy rossz utasítás miatt rossz helyre nyúl.

Szabály 6: Eszközfehérlista, az AI csak kijelölt rendszereket használhat.
Ne legyen olyan, hogy bármilyen külső eszközhöz hozzányúlhat, mert az már nem asszisztens, hanem kontrollálatlan végrehajtó. A tipikus KKV fehérlista: CRM, jegykezelő, tudásbázis, belső dokumentumtár. Minden más csak külön döntéssel.

Szabály 7: Jóváhagyási pontok kötelezőek a kritikus műveletek előtt.
Küldés, mentés, törlés, ügyfélnek menő válasz, ajánlat, számla, szerződés. Ezeknél legyen egy egyszerű emberi jóváhagyás. Ha erről szeretnél külön szemléletet, az emberi kapuk logikája pontosan erről szól.

III. Utasításbecsempészés ellen

Szabály 8: Kezeld a külső szöveget nem megbízható adatként.
Email, weboldal, PDF, bejövő üzenet, ügyfél által feltöltött dokumentum, mind ilyen. Az UK NCSC nagyon jól leírja, hogy az utasításbecsempészés nem ugyanaz, mint a régi SQL injection gondolkodás, mert a modellek nem tartanak kemény határt adat és utasítás között.
A működési szabály egyszerű: ha az AI külső szöveget dolgoz fel, akkor a rendszernek tudnia kell, hogy azt nem szabad utasításként kezelnie, és nem szabad belőle automatikus cselekvésre következtetnie.

A Microsoft is pont ezt a problémát tárgyalja az indirekt prompt injection kapcsán: ha a rendszer összefűzi a Te kérésedet és egy támadó által kontrollált szöveget, akkor az AI félreértheti, mi a feladat, és adatokat szivárogtathat vagy nem várt műveletet indíthat.
KKV nyelven: amikor azt mondod, hogy foglald össze ezt a levelet, valójában beengedsz egy idegen hangot a folyamatba. Ezt kell kordában tartani.

IV. Szabályok a láthatósághoz és az adatvesztés megelőzéséhez

Szabály 9: Naplózz mindent, ami AI művelet a céges folyamatban.
Nem azért, mert paranoiás vagy, hanem mert egyszerűen szükség van visszakereshetőségre. Mi volt a kérés, mi volt a válasz, mi volt a forrás, milyen eszközhöz nyúlt, mit csinált. Ha egyszer gyanús egy ügyfélre kiment email, vagy eltűnik egy adat, a napló a különbség aközött, hogy találgatsz, vagy tudod, mi történt.

Szabály 10: DLP szemlélet, azaz adatvesztés megelőzés, legalább minimálisan.
A DLP sokszor nagyvállalati szó, de a minimum KKV szinten is megvan: egyszerű minták, tiltólisták, figyelmeztetések.

  • személyes adat minták kiszűrése bemenetben és kimenetben
  • kulcsszavak figyelése, például szerződés, bankszámla, jelszó
  • blokkolás, ha a kimenet olyan csatornára menne, amit nem engedélyeztél

Szabály 11: Beszállítói átvilágítás, mert az AI is ellátási lánc.
A Verizon is kiemeli, hogy a harmadik fél érintettség nő, és ez KKV-ként még fájóbb, mert kevesebb tartalékod van egy incidens kezelésére.
Az AI szolgáltató nem csak egy eszköz, hanem egy adatútvonal. A 4. fejezetben kapsz hozzá copy paste kérdéslistát.

Szabály 12: Red team lite, azaz rendszeres, egyszerű támadási próbák.
Nem kell hozzá hackercsapat. A cél az, hogy Te és a csapatod kipróbálja a tipikus hibákat: ki lehet-e szedni tiltott adatot, rá lehet-e venni a rendszert tiltott lépésre, meg tud-e vezetni egy bejövő dokumentum.

4. Beszállítói kérdéslista, copy paste

Ezt nyugodtan másold ki egy emailbe, és küldd el annak, akitől AI szolgáltatást, AI integrációt vagy AI alapú automatizmust veszel.

Adatkezelés és megőrzés

  • Mennyi ideig őrzik meg a bejövő és kimenő adatokat, és tudok-e rövidebb megőrzést kérni
  • Hol tárolják az adatokat, milyen régióban, és milyen titkosítást használnak
  • Hogyan működik a törlés, és tudok-e igazolást kapni róla

Modell tanítás és felhasználás

  • Használnak-e ügyféladatot modell fejlesztésre, és mi az alapbeállítás
  • Van-e olyan opció, hogy az adataim semmilyen formában nem kerülnek tréninghez kapcsolódó folyamatba

Jogosultságok és hozzáférések

  • Van-e SSO, szerepkör kezelés, admin felület
  • Hogyan kezelik a belső hozzáféréseket, és ki láthat bele az ügyfél adatokba

Naplózás, audit, incidens

  • Mit naplóznak, meddig, és hogyan exportálható
  • Mi az incidenskezelési folyamat, milyen gyorsan értesítenek, és milyen információt adnak át

Adatintegritás és adatellátási lánc

  • Hogyan védik az adatokat jogosulatlan módosítás ellen
  • Van-e adat eredet követés, és hogyan kezelik a külső forrásokból jövő, nem megbízható tartalmat

5. Minimum security baseline LLM alapú megoldásokhoz

Itt az a cél, hogy legyen egy olyan minimális csomagod, ami nélkül nem indítasz el AI-val támogatott folyamatot.

Jogosultság és szerepkör

  • legyen világos, ki indíthat folyamatot, ki láthat adatot, ki hagyhat jóvá
  • legyen elkülönítve a teszt és az éles környezet, legalább logikailag

Naplózás és visszakereshetőség

  • rögzítsd a kérés lényegét, a választ, az érintett forrásokat és a végrehajtott lépéseket
  • tudd megmondani utólag, hogy miért azt válaszolta, amit

Jóváhagyás és emberi kontroll

  • ügyfélnek menő tartalom csak jóváhagyással
  • törlés, mentés, küldés csak jóváhagyással
  • pénzügyi és jogi jellegű anyagok csak jóváhagyással

DLP (adatvesztés megelőzés) jellegű szűrés

• személyes adat minták figyelése
• tiltott kulcsszavak, tiltott mezők
• figyelmeztetés és blokkolás, ha kell

Kockázatkezelési gondolkodás

Nem kell rögtön keretrendszereket bevezetni, de jó, ha van egy alap logikád. A NIST AI RMF például azt a szemléletet hozza, hogy a kockázatot életciklusban, mérhetően, és felelősségek mentén érdemes kezelni.
A lényeg: tudd, ki a gazdája a folyamatnak, mi a tűréshatár, és mi történik, ha valami félremegy.

6. Gyors önellenőrző audit, 10 kérdés

Ha most kellene felmérned, hogy mennyire vagy kitéve, ez a 10 kérdés meglepően sokat elárul.

  • Van kimondott szabály arra, mi tilos publikus AI chatbe
  • A csapat tudja, mi a különbség belső, bizalmas és személyes adat között
  • Van egyszerű anonimizálási rutin, amit tényleg használnak
  • Az AI integrációk legkisebb jogosultsággal mennek, és nem látnak mindent
  • Az AI csak kijelölt eszközökhöz fér hozzá
  • Van kötelező jóváhagyás ügyfélnek menő tartalom előtt
  • Külső szöveget nem megbízható adatként kezeltek, és van rá szabály
  • Naplóztok AI műveleteket úgy, hogy vissza tudjátok keresni
  • Van legalább minimális DLP jellegű szűrés vagy figyelmeztetés
  • Átvilágítottátok a szolgáltatót, és tudjátok, mit csinál az adataitokkal

Ha ebből 7 vagy többre most az a válaszod, hogy nincs meg, az nem szégyen. Ez csak azt jelenti, hogy van egy tiszta, sorrendbe rakható teendőlistád.

Összegzés

A generatív AI bevezetésének nem kell adatbiztonsági rémálommá válnia. A legtöbb KKV-nál a megoldás nem egy bonyolult technikai rendszerrel indul, hanem három nagyon földhözragadt döntéssel: mit nem másolunk be, mihez nem adunk túl nagy hozzáférést, és hol van emberi jóváhagyás.

Ha pedig a csapatod most kezd el igazán AI-t használni a napi munkában, érdemes a kommunikációs és promptolási szokásokat is egy irányba húzni. Ebben a BOOM Marketing prompt engineering anyaga is ad jó kapaszkodókat.

A 12 szabályból nem kell holnapra mind a 12. Kezdd az első néggyel, tedd mellé a jogosultságot és a jóváhagyást, és máris nagyságrendekkel kisebb az esélye annak, hogy az AI bevezetéséből adatbotrány legyen.

Hasonló cikkek