EU Artificial Intelligence Act

Az Európai Unió átfogó szabályozása a mesterséges intelligencia használatára


 

Teljes név

EU Artificial Intelligence Act (AI Act)

Elfogadva

2024. május – Európa Tanács

Hatályba lépés

Fokozatosan 2024. augusztus 1-től

Kit érint

Minden céget, aki AI-t használ vagy fejleszt az EU-ban – beleértve az EU-n kívüli cégeket is, ha rendszereiket az EU-ban alkalmazzák.

Az AI Act az első átfogó, kötelező erejű AI szabályozás, a GDPR-hoz hasonló logikai alapokon. Célja, hogy a mesterséges intelligencia használatát biztonságossá és etikussá tegye az EU-ban. A megközelítés kockázat alapú: minél veszélyesebb kategóriába sorolják a használatot, annál több szabály vonatkozik rá. Ugyanaz a GPAI vagy Foundation modell többféle szolgáltatást is biztosíthat – ezek besorolása használat szerint eltérő lehet.

ℹ  Mellékletek

A rendelet XI, XII, XIII. melléklete a műszaki dokumentációra, az átláthatóságra és a megjelölésre vonatkozó konkrét kritériumokat határozza meg.

 

A bevezetés fokozatos – fontosabb határidők

 

2025. február 2.

Elfogadhatatlan kockázatú rendszerek betiltása (6 hónap)

2025. augusztus 2.

General Purpose AI szabályok (12 hónap)

2027. augusztus 2.

Magas kockázatú rendszerek teljes megfelelés (36 hónap)

Az AI Act 4 kockázati kategóriája

 

1. ELFOGADHATATLAN KOCKÁZAT  →  TILTOTT

  • Szociális pontozás (mint Kínában)
  • Biometrikus valós idejű megfigyelés köztereken (kivéve pl. rendőrség, biztonság)
  • Manipulatív AI – ami kihasználja az emberek sebezhetőségét

Büntetés: akár €35M vagy a globális forgalom 7%-a


 

2. MAGAS KOCKÁZAT  →  SZIGORÚ SZABÁLYOK

 

Magas kockázat esetén célszerű AI Act szakértőt (jogászt) bevonni.

Jogi, bűnügyi vagy személyes sorsformáló döntésekhez történő igénybevétel esetén.

Érintett területek:

  • Munkaerő-felvétel – önéletrajzok automatikus szűrése, jelöltek és interjúk értékelése
  • Hitelminősítés, hitelbírálat
  • Kritikus infrastruktúra – energia, víz
  • Oktatási célok – diákok értékelése
  • Jogérvényesítés – bűnügyi AI

 Kötelező követelmények:

  • Kockázatértékelés: kötelező elvégezni az AI bevezetése előtt és rendszeresen felülvizsgálni.
  • Emberi felügyelet: Az embernek értenie kell, mit és miért ajánl az AI, és képesnek kell lennie az AI döntését felülírni, ha az nem elfogadható
  • Átláthatóság, dokumentáció: Az AI működésének mindig követhetőnek és visszanézhetőnek kell lennie. A dokumentációnak tartalmaznia kell: mire használják, milyen adatokon tanult, hogyan születik az eredmény és milyen korlátai vannak a rendszer döntésének.
  • Adatminőség: A bias* elkerülése. Az adatminőség alapjaiban határozza meg az AI használat kockázatát és annak kezelését. A bias[1] következményeinek (diszkrimináció és veszélyes hibák) elkerülése érdekében a szabályozás reprezentatív, torzításoktól mentes, friss és ellenőrizhető tanítóadatot vár el. A cél nem a nulla bias – ez kivitelezhetetlen –, hanem a megbízhatóbb, tiszta adatokra épülő eredmény, mert a régi vagy félrevezető adatok hibás AI döntést generálhatnak.
  • Megfelelőségi értékelés (CE jelöléshez hasonló rendszer): A dokumentáció, kockázatkezelési folyamatok és auditok elvégzésével a gyártó igazolja, hogy az AI rendszer megfelel az EU előírásainak.

Büntetés: akár €15M vagy a globális forgalom 3%-a


 

3. KORLÁTOZOTT KOCKÁZAT  →  ÁTLÁTHATÓSÁGI KÖTELEZETTSÉG

Ide tartoznak a General Purpose AI-k, a Foundation Modelek és LLM-ek (Gemini, ChatGPT, Claude, Grok), a chatbotok, az AI által generált tartalmak – deepfake, szintetikus szövegek, képek, videók. Az AI generált képek felismerése tapasztalat kérdése: aki maga is dolgozott ilyen eszközökkel, hamar felismeri a jellegzetes stílusjegyeket.

A céges munkaállomások egyes funkciói szintén ide tartoznak: intelligens keresés, automatikus szöveg- vagy kódjavaslat, meeting összefoglalók, dokumentum ajánlások, workflow automatizálás (pl. Copilot-jellegű asszisztensek). Ezek többnyire korlátozott kockázatúak, viszont a felhasználó közvetlenül AI-val találkozik, így → tájékoztatás szükséges.

Konkrét tevékenységek ebben a kategóriában:

  • Cikk írás, email fogalmazás, fordítás, brainstorming
  • Programozás, dokumentumok ellenőrzése
  • Kép generálás (jelezni kell, hogy AI készítette)
  • Chatbot alkalmazása (jelezni kell az ügyfélnek)

Kötelező követelmények:

  • Jelezni kell, ha egy ügyfélszolgálaton AI-val kommunikál a felhasználó
  • Az AI által generált tartalmat meg kell jelölni

Hogyan kell jelezni? – TRANSPARENCY DISCLOSURE (AI Act compliance)

Az AI által generált tartalmaknál kötelező átláthatósági nyilatkozatot mellékelni, amely tartalmazza az igénybe vett AI eszközöket és azok szerepét a tartalomkészítésben.

Példa (saját adatokkal kitöltendő):

▸     Háttérkutatás: Claude AI (Anthropic)

▸     Tartalmi ellenőrzés: ChatGPT (OpenAI)

▸     Képgenerálás: Midjourney / DALL-E

 

Büntetés: akár €7,5M vagy a globális forgalom 1,5%-a


 

4. MINIMÁLIS KOCKÁZAT  →  NINCS KÖTELEZŐ SZABÁLYOZÁS

Azok a használatok tartoznak ide, amelyek nem hoznak jogi vagy személyes sorsdöntő döntést, és a felhasználó nem találkozik közvetlenül az AI-val.

Vállalati környezetben jellemző példák:

  • Inventory management: Készletigény előrejelzés, rendelések optimalizálása, fogyási minták elemzése, raktár-optimalizálás, kereslet-előrejelzés.
  • Spam filterek: AI-alapú e-mail szűrő rendszerek – kéretlen vagy veszélyes levelek felismerése, tartalom- és mintázatelemzés, folyamatos tanulás, automatikus priorizálás.
  • IT infrastruktúra eszközök: Anomália-észlelés, ransomware aktivitás felismerése, intelligens backup optimalizálás, logelemzés, automatikus teljesítményhangolás.

[1]Rendelet XI, XII, XIII. melléklete: Műszaki dokumentáció, átláthatóság és megjelölés konkrét kritériumai.


 

Mi hívta életre az AI Act-ot?

Minden új technológia úttörő szakaszában teljesen természetes, hogy annak használhatóságát minél szélesebb körben kipróbálják és tesztelik. Az alkalmazás és tesztelés során több esetben olyan anomáliák jelentek meg, amelyek kérdésessé tették a további alkalmazást a kritikus területeken.

1. Amazon HR AI (2018)

Az Amazon mérnökök olyan AI-t akartak fejleszteni, amely megtalálja a legjobb jelölteket az adott pozíciókra. Tréningadatként a múltbeli, sikeres Amazon alkalmazottak önéletrajzait használták.

Mivel a korábbi sikeres alkalmazottak 90%-a férfi volt az Amazonnál, itt lépett be a bias, melynek eredményeként az AI azt tanulta meg, hogy a férfi jelölt jobb. Ennek következtében kizárta vagy lejjebb sorolta azokat az önéletrajzokat, amelyek női egyetemekhez kapcsolódtak, mivel a "women's" szót negatívan értékelte bizonyos kontextusokban. Az anomáliát a HR osztály vette észre tesztelés közben – a projektet törölték.

Forrás: Reuters oknyomozó riportja [1]

2. COMPAS – bűnügyi AI, USA (2016)

Az egyik legismertebb példa arra, amikor az adatbias eltorzítja az algoritmikus döntéstámogatást. Ez is iskolapéldája a magas kockázatú AI használatnak.

A COMPAS rendszer azt jelzi előre, hogy egy elítélt mekkora eséllyel fog újra bűnt elkövetni. A betanítást az Equivant nevű magáncég végezte múltbeli bűnügyi adatokkal. A tréningadatok statisztikailag eleve diszkriminatívak voltak – a rendőrség aránytalanul többet ellenőriz fekete személyeket, és a letartóztatások száma is magasabb körükben. Ennek következtében az AI a fekete elítélteknél a reálisnál magasabb, a fehér elítélteknél a reálisnál alacsonyabb visszaesési kockázatot becsült.

A biast a ProPublica3 bizonyította be 2016-ban, az Equivant tagadta. Az ügy perré alakult. A Wisconsini Legfelsőbb Bíróság4 kimondta, hogy a COMPAS használható bírói döntések támogatására, de csak korlátozásokkal és óvatossággal, hangsúlyozva, hogy az AI csupán segédeszköz, nem döntéshozó. Ugyanakkor a rendelkezésre álló adatok alapján a bíróság nem írt elő adattisztítást, bias-auditot vagy fairness validációt. 



 

Ez az eset az EU AI Act szabályozásának nyers prototípusa. Jogi és etikai szempontból talán az egyik legkomplexebb és legizgalmasabb kérdés az AI használat során: alkalmazható-e egy algoritmus jogi vagy személyes döntésekre, ha működésének és betanításának részletei nem ellenőrizhetők?

3. AI alapú arcfelismerés (Facial recognition)

Ismét egy klasszikus példája az adatbiasnak – emellett technikailag is a legösszetettebb, legnehezebb feladat, ahol a hibalehetőség hatványozottan megjelenhet.

Az arcfelismerő AI-ok betanítását tech multicégek végzik, mint a Google, Amazon, Microsoft. Ha a tréningadat nem egyenletes demográfiai eloszlású és bizonyos arctípusokat felülreprezentál, akkor ennek következtében egyes arcstruktúrákat a rendszer jobban felismer, másokat pontatlanul vagy instabilan. Az AI a gyakori vagy esztétikailag kedvezőbb mintákat preferálja – ezért az arcfelismerés pontossága jelentősen függ a tréningadat minőségétől és reprezentativitásától. Finom arányeltolódások, ritkább arctípusok gyengébb felismerése vagy szemek és arcvonások torzítása mind megjelenhetnek az eredményben.

Az adatbias releváns kockázatai:

  • Hibás azonosítás (false positive): Valakit tévesen azonosít.
  • Pontosságkülönbség csoportok között: Bizonyos demográfiai csoportoknál sokkal rosszabb a teljesítmény.

 

MIT Media Lab – Gender Shades (2018)

▸     Világos bőrű férfi arcok: 0,8% hibaarány (99%-os pontosság)

▸     Sötétebb bőrű nők: 34,7% hibaarány (65%-os pontosság)

A rendszer torzítása következtében sötétebb bőrű személyeket többször tartóztattak le tévesen, mivel az AI rosszul azonosította őket.

Forrás: Joy Buolamwini & Timnit Gebru (MIT Media Lab) [1]

 

Ennek hatására az Amazon, Microsoft, IBM 2020-ban felfüggesztette a facial recognition értékesítését a hatóságoknak. Más, kisebb cégek azonban még mindig árusítják ezeket az algoritmusokat.

 

És itt fontos hangsúlyozni: Nem az algoritmus a hibás, hanem a tréningadatok.


[1]Joy Buolamwini & Timnit Gebru (MIT Media Lab) – Gender Shades (2018): proceedings.mlr.press


Miért különösen nehéz az arcfelismerés technikailag?

Az arcfelismerés szemből – ami a legtöbb rendszer alapbeállítása – technikailag nem triviális feladat. Az AI nem "látja" az arcot úgy, ahogy mi: statisztikai hasonlóság alapján valószínűséget becsül.

Szemből történő felismerés nehézségei:

  • Mélységi információ hiánya: Az arc 3D struktúrája nagyrészt 2D projekcióvá lapul – az orr, járomcsont, áll mélysége kevésbé kivehetően jelenik meg.
  • Túl erős szimmetria: Az arc szimmetriája miatt kevesebb egyedi formai eltérés mutatkozik. Az AI számára a szimmetrikus mintázatok összemosódhatnak, mert kevesebb stabil jellegzetességet (feature-pontot) talál.
  • Takart vagy torz részletek: Szemüveg, haj, árnyék, rossz megvilágítás, alacsony felbontás – mind rontja a pontosságot.

Eredmény: Aránytalanul romlik az azonosítás pontossága, és nő a téves azonosítás esélyekülönösen azoknál az arctípusoknál, ahol a tréningadatok alulreprezentáltak voltak.

 

Összefoglalva

Az arcfelismerés esete jól mutatja, hogy az AI bias NEM csak emberi hiba (rossz tréningadat), hanem a feladat velejáró technikai nehézsége is közrejátszik. A két tényező kombinációja vezet a katasztrofálisan rossz eredményekhez bizonyos demográfiai csoportoknál.

 

 

Problémák és kérdések

A bemutatott esetek jól mutatják, hogy az AI Act fontos mérföldkő a mesterséges intelligencia kockázatainak kezelésében – ugyanakkor a végrehajtási lánc érettsége és gyakorlati működése, különösen az ellenőrzés és a megfelelőség területén, további kérdéseket vet fel a tényleges hatékonyság és a valós kockázatcsökkentés tekintetében.

  1. A szabályozás magán viseli az EU-s szabályozások gyakori hibáját, mely inkább a végpontokat terheli, mert ott könnyebb jogot érvényesíteni. (A kockázatot a felhasználó szintjén állapítja meg.)
  2. A szabály megvan, de a végrehajtás sok bizonytalan elemet tartalmaz – ez sok esetben irreálisan magas plusz költséget terhel a szervezetekre (dokumentáció, audit, megfelelési adminisztráció), miközben a tényleges kockázat nem feltétlenül csökken.
  3. Az AI Act és a hasonló szabályozások a bias kérdést technikai problémaként kezelik. Holott a tréningadatokat, a címkézést, a betanítást és a célok megadását emberek végzik – erre a problémára a szabályozás nem kínál alternatívát.
  4. Ez pedig az ellenőrzés és a besorolás szintjén is hibákat és ellentmondásokat generál:
    1. Ki kalibrálja az AI-t?
    2. Ki fogja eldönteni, hogy egy AI mire alkalmas és milyen kockázatot képvisel? A fejlesztők, a jogászok és az etikai szakértők más-más szempontrendszerrel dolgoznak. A magáncégek profitorientáltak, az adatmérnökök elfogultak lehetnek saját adataik iránt.
    3. Ki ellenőrzi a rendszereket? Kormányzati szinten az ellenőrzés általában lassú és bürokratikus és nem feltétlenül rendelkeznek a megfelelő szakértelemmel. Független auditorok: ki fizeti őket? Ha maga a fejlesztő cég, az összeférhetetlen és visszaélésre adhat okot. Nyílt forráskód esetén üzleti titok sérülhet, enélkül viszont az ellenőrzés csak részleges. Civil szervezetek: az összes korábbi probléma együtt. Független testületek: ki tudja garantálni, hogy ezek objektív, elfogulatlan és szakmailag kompetens tagokból fognak állni?
    4. Hogyan oldható meg az átláthatóság anélkül, hogy üzleti titkot sértsen?
    5. Ki finanszírozza ezeket a vizsgálatokat és ellenőrzéseket és milyen forrásból?
  5. És: az AI iparág annyira gyerekcipőben jár, hogy azoknak a szakembereknek a száma, akik értik és átlátják az AI technikai működését és rendelkeznek jogi és etikai kompetenciával is, elenyésző. Kitermelésük évekbe telik.
  6. A költség-haszon elemzés megkérdőjelezi az AI Act üzleti realitását – különösen a KKV szektorban.

Következtetés

Az objektív AI egyelőre mítosz. Az AI olyan, amilyennek programozták – ez pedig a fejlesztőkön, adatmérnökökön és a megrendelőkön (cégvezetőkön) múlik. Egyik csoport sem független, mindenki piaci pozíció, siker és nyereség orientált.

Ebben a környezetben az AI Act inkább compliance-ipart építő, mint valódi kockázatcsökkentő rendszer marad – legalábbis jelenlegi formájában. A végrehajtási mechanizmusok hiányosságai, a drága megfelelési követelmények és az ellenőrzési láncok tisztázatlansága miatt a szabályozás túlzott adminisztratív terhet ró a szervezetekre (méretüktől és iparági besorolásuktól függetlenül), anélkül, hogy a tényleges kockázatokat arányosan csökkentené.

Ugyanakkor ez nem jelenti azt, hogy a szabályozás felesleges lenne. Az AI Act fontos első lépés egy olyan technológia kezelésére, amely alapjaiban változtatja meg a gazdaságot és a társadalmat. A kérdés nem az, hogy kell-e szabályozni, hanem hogy a szabályozás képes lesz-e alkalmazkodni a valós kihívásokhoz.

 

Mulasztás és büntetési tételek

 

Kategória

Határidő (büntethető innentől)

Büntetési tétel a szabályok megsértése esetén

Tiltott AI

2025. február 2.

€35M VAGY a globális forgalom 7%-a

GPAI szabályok

2025. augusztus 2.

€15M VAGY a globális forgalom 3%-a

Magas kockázat

2026. augusztus 2.

€15M VAGY a globális forgalom 3%-a

Minden más

2026. augusztus 2.

€7,5M VAGY a globális forgalom 1,5%-a

Mindig a MAGASABB összeg érvényes!

 

A büntetési tételek a határidők lejártával elvben azonnal alkalmazhatók. A gyakorlat azonban (a GDPR bevezetéséhez hasonlóan) valószínűleg fokozatos végrehajtást fog hozni: először a nagyobb szervezetek és a magas kockázatú, egyértelműbb jogsértések kerülnek célkeresztbe, míg a KKV szektor számára várhatóan türelmi időszak érvényesül.

Ennek oka, hogy a végrehajtás minden EU tagállam saját felügyeleti hatóságának hatáskörébe tartozik – Magyarország pedig még nem jelölte ki teljesen a felügyeleti és végrehajtó hatóságot. Ez azonban nem jelenti azt, hogy a megfelelés halasztható: panasz alapján bármikor vizsgálat indulhat. 

Gyakorlati példák – Magyar kontextus

A szabályozás könnyebb érthetősége kedvéért álljon itt néhány, magyar viszonylatban releváns gyakorlati példa előzetes költségbecsléssel.

 

Szcenárió 1 – 50 fős cég: HR AI a CV-szűréshez

Besorolás: Magas kockázat

Kötelező: Kockázatértékelés, dokumentáció, emberi felügyelet

1.    Kockázatértékelés (van-e bias az AI-ban?)

2.    Emberi felügyelet és döntés (HR dönt, nem AI)

3.    Dokumentáció (hogyan működik az AI, milyen adatokon tanult)

4.    Átláthatóság (a jelöltek kérhetik a magyarázatot az elutasításhoz)

Várható költség:

▸     Compliance: 2–5M Ft (audit, dokumentáció, jogi tanácsadás)

▸     Évente: fenntartás, frissítés

Ez egy 50 fős cég esetében irreálisan magas költség – a kockázati besorolás járulékos terhei miatt az AI kiegészítő használata nem releváns opció, mivel a munkabér-költségek nem csökkennek, ellenben a bürokratikus terhek aránytalanul megnőnek. Ugyanez egy 500 fős cégnél, nagy fluktuációval és terjeszkedési időszakban már sokkal reálisabb beruházás.

 

Szcenárió 2 – E-kereskedelmi cég: AI chatbot az ügyfélszolgálaton

Besorolás: Korlátozott kockázat

Kötelező: Jelezni kell, hogy az ügyfél chatbottal kommunikál

1.    "Egy AI chatbottal beszélgetsz" tájékoztató

2.    "Emberrel szeretnék beszélni" opció biztosítása

Várható költség:

▸     Alacsony – kb. 1–2 napos fejlesztői idő

A bürokratikus költségek nem növelik jelentősen a fejlesztés erőforrásigényét – a bevezetés racionális és indokolt.

 

Szcenárió 3 – Marketing ügynökség: AI képgenerálás social mediához

Besorolás: Korlátozott kockázat

Kötelező: Jelezni kell, hogy a kép AI által generált

1.    Tájékoztatás: "Ez egy AI által generált kép"

2.    Vízjelezés vagy szignózás (nem kötelező, de ajánlott)

Várható költség:

▸     Gyakorlatilag nulla – csak workflow módosítás szükséges, automatizálható

 

Szcenárió 4 – Pénzügyi cég: AI hitelminősítés

Besorolás: Magas kockázat

Kötelező: Szigorú audit, dokumentáció, emberi felügyelet

1.    Kockázatértékelés (bias elleni védelem)

2.    Emberi felügyelet és döntés (a hitelelbíráló dönt, nem AI)

3.    Dokumentáció (hogyan működik az AI, milyen adatokon tanult)

4.    Átláthatóság (ügyfél kérhet magyarázatot az elutasításhoz)

5.    Megfelelőségi értékelés (Conformity assessment) – független audit

Várható költség:

▸     Compliance: 10–20M Ft (audit, dokumentáció, jogi tanácsadás)

▸     Évente: audit, frissítés

Pénzintézeti vagy pénzügyi használat esetén az AI előnyei és kockázatcsökkentő hatása akkora hasznot generálhat, ami indokolttá teszi az AI Act megfelelés plusz költségeinek finanszírozását.

 

Összefoglalva

Az AI nagy segítség a mindennapi munkában: rengeteg időt és forrást takarít meg, így használata szabályozott keretek között minden szervezet számára előnyös megoldás lehet.

Az AI Act egy indokolt és időszerű szabályozási kísérlet, amely lehetővé teheti a mesterséges intelligenciák etikus és átlátható használatát – ha a gyakorlatból származó tapasztalatok alapján a jogalkotó képes lesz finomítani a végrehajtási mechanizmusokat.

A szabályozás hatékonysága attól függ, képes-e kinőni jelenlegi gyerekágyi betegségeit: a végrehajtási útvonalak és láncok pontos kijelölése, az arányosabb költségmegosztás és a független, szakmailag kompetens ellenőrzési rendszer kialakítása nélkül a szabályozás csak papíron fog megfelelni eredeti céljának.

 

A szabályozás magyar nyelven:

Az Európai Parlament és a Tanács (EU) 2024/1689 rendelete (2024. június 13.) a mesterséges intelligenciára vonatkozó harmonizált szabályok megállapításáról

Elérhető az EUR-Lex portálon →

 

TRANSPARENCY DISCLOSURE – AI Act compliance

Szerző és szerkesztő, infografika: Szabó Roxána © 5N Kft

AI-támogatás:

▸     Háttérinformációk, fogalommagyarázatok: Claude AI (Anthropic), ChatGPT (OpenAI)

▸     Tartalmi és stilisztikai ellenőrzés: Claude AI (Anthropic)

▸     Képgenerálás: a képek egy része AI segítségével, szerkesztéssel készült. ChatGPT (OpenAI)

 

Magyar jogszabályi háttér a cikk írásának idején (2026. február 22)

 

pdf icon Az LXIX kiberbiztonsági törvény főbb komponensei LETÖLTHETŐ PDF  FILE
pdf icon Az LXIX kiberbiztonsági törvény végrehajtási utasítása LETÖLTHETŐ PDF  FILE
pdf icon Az LXIX kiberbiztonsági törvény - fenyegetések katalógusa LETÖLTHETŐ PDF  FILE