← Szakmai modulok
⚖️ Jog / compliance modulHaladó~35 perc

Szabályozás és compliance

A generatív AI nemcsak technológiai, hanem jogi, adatvédelmi és működési kérdés is. 2026-ra az AI-használat szervezeti minimuma már nem a kísérletezés, hanem az átlátható, kontrollált és auditálható működés.

Fontos: ez a modul a külső jogi környezetre fókuszál. A belső kontrollról a Governance curriculum lecke szól.

Compliance frontok

A legtöbb szervezetnél nem egyetlen nagy megfelelési kérdés van, hanem több párhuzamos front: EU AI Act, GDPR, szerzői jog és kötelező jelölés. Ezek együtt adják a minimum működési keretet.

Az EU AI Act a világ első átfogó AI szabályozása. Kockázatalapú modellt alkalmaz: minél nagyobb a kockázat, annál szigorúbb a megfelelési kötelezettség.

🔴 Tiltott AI gyakorlatok2026. február 2-tól

Társadalmi pontozás, érzelem-felismerés munkahelyen/iskolában, biometrikus kategorizálás faj/vallás/szexuális orientáció alapján, tömeges arcfelismerő adatbázis-építés.

🟠 Magas kockázatú AI2027. augusztus 2-tól

HR/toborzás, hitelpontozás, oktatási értékelés, bűnüldözés. Kötelező: kockázatértékelés, emberi felügyelet, átláthatóság, naplózás.

🔵 Általános célú AI (GPAI)2025. augusztus 2-tól

Átláthatóság, tréningadat-dokumentálás, EU szerzői jogi megfelelés. A 10²⁵ FLOP feletti modellekre extra audit kötelezettségek.

⚪ Minimális kockázatú AIFolyamatos

Az AI rendszerek döntő többsége (spam szűrők, videójátékok). Nincs új AI-specifikus kötelezettség, de általános fogyasztóvédelem él.

Szervezeti AI audit — hol tart a céged?

A policy önmagában kevés. A valódi kérdés az, hogy a szervezet tudja-e, milyen adat megy be, milyen eszközök futnak, és hogyan ellenőrzi a beszállítói oldalt.

Tisztázott, hogy milyen személyes és érzékeny üzleti adatok áramlanak be az AI modellekbe a mindennapi munkavégzés során?

Leltár szempontok

  • Milyen adatot küldenek be a kollégák a chatba?
  • Mely eszközök tárolják a promptokat és válaszokat?
  • Vannak-e olyan folyamatok, ahol ügyfél PII kerül AI-ba?
  • Tudják-e a kollégák, mi számít érzékeny adatnak?

Tipikus helyzetek, ahol a compliance valós kérdéssé válik

A szabályozás akkor válik érthetővé, ha use case-ekre fordítod le. A legtöbb csapat nem absztrakt jogszabályt használ, hanem konkrét AI-workflow-t vezet be — itt dől el, hogy a megfelelés valódi működési kérdéssé válik-e.

Belső chatbot vállalati dokumentumokra

Mi történik?
A kollégák AI-val kérdeznek belső dokumentumokból, policy-kból vagy ügyfélanyagokból.
Mire kell figyelni?
Adatáramlás, beszállítói feltételek, naplózás, hozzáférés és az, hogy mi kerül be a rendszerbe.
Hol csúszik el?
A csapat azt hiszi, hogy mivel belső használat, nincs megfelelési kérdés. Pedig a személyes adat, a napló és a külső szolgáltató ugyanúgy számít.

AI-asszisztált HR vagy toborzás

Mi történik?
Önéletrajzok szűrése, jelöltértékelés vagy interjúanyagok előkészítése AI-val.
Mire kell figyelni?
Magas kockázati besorolás, emberi felügyelet, döntésmagyarázhatóság és adatvédelmi alapok.
Hol csúszik el?
Az AI-ajánlást sok szervezet túl könnyen kezeli félautomatikus döntésként, miközben itt különösen fontos a dokumentált emberi kontroll.

Marketing- és tartalomworkflow AI-val

Mi történik?
Szöveg, kép, videó vagy hang generálása kampányokhoz, termékoldalakhoz, ügyfélkommunikációhoz.
Mire kell figyelni?
Jelölés, szerzői jogi tisztaság, forrásnyomon-követés és az, hogy a végső publikációért ki vállal felelősséget.
Hol csúszik el?
A csapat az AI-t kreatív gyorsítónak tekinti, de elfelejti, hogy a közzétett anyag jogi és reputációs kockázata továbbra is emberi felelősség.

Mit jelent a compliance a gyakorlatban?

  • Írásos AI policy, amelyet a kollégák ismernek
  • Adatvédelmi leltár: mi kerülhet AI-ba és mi nem
  • Kötelező review magas kockázatú outputoknál
  • Szállítói DPA ellenőrzés rendszeresen
  • Jelölés: ha AI dönt vagy kommunikál, ezt jelezni kell

Amit ez a modul nem old meg

  • Látszatkontroll: papírszabályzat technikai kikényszerítés nélkül kevés
  • Mozgó célpont: a szabványok és AI modellek folyamatosan változnak
  • Jogi tanács: ez nem jogi tanácsadás — a konkrét megfeleléshez szakértő kell
  • Hitelesítési hiány: az AI auditorok piaca és az EU szabványok véglegesítése folyamatban van

Hogyan érdemes elkezdeni?

A legtöbb szervezetnél nem az a fő probléma, hogy nincs jogi anyag, hanem hogy nincs sorrend. Egy használható compliance bevezetés nem a legszigorúbb use case-szel kezdődik, hanem azzal, hogy láthatóvá teszi a jelenlegi AI-használatot.
  1. 1Először térképezd fel, milyen AI-eszközöket használ ténylegesen a szervezet, nem csak azt, amit hivatalosan engedélyeztek.
  2. 2Ezután oszd szét a use case-eket kockázat alapján: belső jegyzetelés, ügyfélkommunikáció, HR, döntéstámogatás, tartalomgyártás.
  3. 3A magasabb kockázatú use case-ekhez rendelj kötelező emberi kontrollpontot, dokumentációt és beszállítói ellenőrzést.
  4. 4A szabályzatot ne külön dokumentumként kezeld: képzéssel, mintapromptekkel és tiltott példákkal együtt lesz használható.

Tipikus hibamódok

A megfelelés sokszor nem a jogértelmezésen, hanem a szervezeti fegyelemen bukik meg. Ezek a minták szinte minden AI-bevezetésnél előjönnek.
A szervezet csak policy-t ír, de nem tudja, valójában milyen eszközöket használnak a kollégák.
A beszállítói feltételeket egyszer nézik meg, majd többé nem frissítik.
A magas kockázatú use case-eknél nincs külön review és nincs naplózható emberi döntési pont.
A generált tartalmat gyorsítónak tekintik, de nincs felelőse a végső publikációnak vagy ügyfélkimenetnek.

Kapcsolódó oldalak