2026. április 3., péntek

Az MI-generált tartalmak jelölésének új európai kerete – elkészült az átláthatósági gyakorlati kódex második tervezete

 

Az Európai Bizottság 2026 márciusában közzétette az AI Act 50. cikkének végrehajtását támogató gyakorlati kódex második tervezetét, amely az MI által generált és manipulált tartalmak jelölésére és nyilvános megjelenítésére vonatkozó szabályokat tartalmazza. A dokumentum egy 2025 novemberében indult, széles körű szakmai egyeztetési folyamat eredménye: az első tervezetet követően beérkezett visszajelzések, a tagállamok észrevételei és az Európai Parlament képviselőinek véleménye alapján dolgozták át. A kódex véglegesítésére várhatóan ez év júniusának elején kerül sor, a mesterséges intelligencia által létrehozott tartalmak átláthatóságára vonatkozó szabályok 2026. augusztus 2-án válnak alkalmazandóvá.

A kódex két szereplői kör kötelezettségeire összpontosít. A generatív AI-rendszerek szolgáltatóinak géppel olvasható és detektálható módon kell jelölniük rendszereik kimeneteit, egy felülvizsgált, kétrétegű megközelítés – biztonságos metaadat-beágyazás és vízjelezés – alkalmazásával. Az alkalmazók feladata, hogy a deepfake tartalmakat, illetve a közérdekű tájékoztatás céljával közzétett AI-generált szövegeket egyértelműen, a felhasználó számára jól érzékelhető módon jelöljék meg. A második tervezet egyszerűsítette a korábbi kötelezettségeket, nagyobb rugalmasságot biztosít az aláíróknak, és utat nyit egy egységes európai AI-ikon bevezetése felé. Elemzésünk a kódexnek ezt a tervezetét veszi alapul, és annak főbb rendelkezéseit mutatja be.

Kontextus, célrendszer és szabályozási keret

Az Európai Unió a mesterséges intelligenciára vonatkozó harmonizált szabályok megállapításáról szóló (EU) 2024/1689 rendeletének (AI Act) elfogadásával az EU olyan átfogó jogi keretet hozott létre, amely a mesterséges intelligencia fejlesztésének és alkalmazásának feltételeit egy átfogó, a rendelet alkalmazását segítő operatív útmutatókkal támogatni kívánt keretrendszerben határozza meg. Bár a pontosan tervezett hatályba lépési menetrend tarthatósága a tavaly novemberben előterjeszetett digitális omnibusz csomagnak köszönhetően kérdésessé vált, s erre reagálva március végén  az Európai Parlament a Rendelet egyes részei hatályba léptetésének elhalasztására is javaslatot is tett, ezek a munkálatoki azonban az AI által generált és manipulált tartalmak átláthatóságára vonatkozó,  különösen a rendelet 50.  cikkében megfogalmazott követelményeket érintően is folytatódtak. Ezek a rendelkezések meghatározzák a szabályozási irányt, ugyanakkor a gyakorlati végrehajtás szempontjából további konkretizálást igényelnek. Ezt a célt szolgálja a Code of Practice on Transparency of AI-generated Content, amelynek végső, elfogadott változata az AI Act végrehajtását támogató iránymutatásként jelenik majd meg.

A dokumentum egy 2025 novemberében elindított, széles körű szakmai egyeztetési folyamat eredménye lesz majd – erről, illetőleg a szabályozási folyamat szeptemberi kezdeteiről korábban már két alkalommal is beszámoltam. A kidolgozásban számos iparági, akadémiai és civil szereplő vett részt, akik írásos hozzájárulásokkal és workshopokon keresztül formálták a tartalmat. A munka két munkacsoport köré szerveződött. Az 1. munkacsoport (WG1) a generatív AI-rendszerek kimenetei jelölésének és detektálásának technikai kérdéseivel foglalkozott [AI Act 50. cikk (2) és (5) bekezdés], a 2. munkacsoport (WG2) pedig a deepfake-ek és az AI-generált szövegek nyilvános közzétételének kötelezettségeivel [50. cikk (4) és (5) bekezdés].

A kódex szerepe az, hogy az AI Act előírásait működési szintre fordítsa le. Nem jogszabályként határozza meg a kötelezettségeket, hanem megfelelést támogató keretrendszerként, amely iránymutatást ad a piaci szereplők számára. A dokumentum hangsúlyozza, hogy a benne foglalt megoldások alkalmazása nem jelent automatikus megfelelést, ugyanakkor alkalmas arra, hogy a szereplők igazolják az AI Act elvárásainak teljesítését.

A kiindulópont az a helyzet, amelyben a generatív AI rendszerek egyre nagyobb mennyiségben és egyre magasabb minőségben állítanak elő tartalmakat. Ennek következtében a felhasználók számára sok esetben nem egyértelmű, hogy egy adott tartalom milyen eredetű. A dokumentum ezt az állapotot az információs ökoszisztéma működését érintő kihívásként írja le, amely a tájékozódás, a közbizalom és a nyilvános diskurzus minőségére is hatással van. Az AI Act-hez kapcsolódó kódex ennek kezelésére kínál strukturált megközelítést.

A szabályozási logika két szereplői körre épül. A szolgáltatók (providers) feladata az, hogy az általuk fejlesztett AI-rendszerek kimenetei technikai értelemben azonosíthatók és detektálhatók legyenek – ezt az 50. cikk (2) bekezdése írja elő. Az alkalmazók (deployers) a tartalmak nyilvános megjelenítéséért felelnek: biztosítaniuk kell, hogy a felhasználók számára egyértelmű legyen a tartalom mesterséges eredete vagy módosítottsága, összhangban az 50. cikk (4) bekezdésével. A két szint egymásra épül, és együtt biztosítja a transzparencia érvényesülését.

A Kódex szabályozástechnikai módszere három egymásra épülő szinten fejti ki az elvárásokat. Az első szint az elkötelezettség (commitment): az AI Act egy-egy konkrét rendelkezéséhez rendelt, átfogó jogi kötelezettség, amely meghatározza, mit kell összességében elérni – például azt, hogy a generatív AI-rendszerek kimenetei géppel olvashatóan jelöltek legyenek. A második szint az intézkedés (measure): az a konkrét eszköz vagy eljárás, amellyel az elkötelezettség teljesíthető; a Kódex az egyes intézkedések között különbséget tesz kötelező és opcionális elemek között, ez utóbbiakat ajánlott, de nem megkövetelt kiegészítő lépésként jelöli meg. A harmadik szint az alintézkedés (sub-measure): egy-egy intézkedés technikai részletezése, amely a megvalósítás pontos feltételeit és módját írja le. E háromszintű tagolás révén a Kódex egyszerre képes általános jogi kötelezettséget és konkrét technikai útmutatást megfogalmazni – anélkül, hogy a kettőt összemosná –, és lehetővé teszi, hogy az aláírók méretükhöz, kapacitásukhoz igazodva teljesítsék elvárásaikat.

A dokumentum hangsúlyozza, hogy a transzparencia megvalósítása nem egyetlen technikai megoldáson múlik, hanem egy olyan rendszer kialakítását igényli, amely a teljes AI-értékláncot lefedi. A cél annak biztosítása, hogy a tartalmak eredete követhető legyen, és a felhasználók megfelelő információk birtokában értelmezhessék azokat. Ez a megközelítés illeszkedik az AI Act alapvető célkitűzéséhez, amely az átlátható és megbízható mesterséges intelligencia alkalmazását kívánja elősegíteni.

Az AI által generált tartalmak jelölése – technikai és működési megközelítés

Az AI Act 50. cikkéhez kapcsolódó Kódex egyik legkidolgozottabb része a generatív rendszerek kimeneteinek jelölésére vonatkozó követelményrendszer. A kiindulást az 50. cikk (2) bekezdése jelenti, amely előírja, hogy minden szintetikus audio-, kép-, videó- vagy szövegtartalom esetén biztosítani kell a géppel olvasható jelölést, és a tartalom mesterségesen generáltként vagy manipuláltként való felismerhetőségét. A dokumentum ezt a követelményt nem egyetlen technikai megoldással, hanem egymásra épülő, úgynevezett többrétegű jelölési rendszerrel (multi-layered marking) értelmezi.

A többrétegű megközelítés abból indul ki, hogy a különböző tartalomtípusok – szöveg, kép, videó, hang vagy ezek kombinációi – eltérő technikai sajátosságokkal rendelkeznek, ezért eltérő jelölési megoldásokat igényelnek. A Kódex ennek megfelelően legalább két jelölési réteg együttes alkalmazását írja elő, amelyek egymást erősítve biztosítják a tartalom eredetének visszakövethetőségét.

Az egyik alapvető megoldás a digitálisan aláírt metaadat-alapú jelölés (Sub-measure 1.1.1). Ez a tartalomhoz kapcsolódó strukturált információkat digitális aláírással és időbélyegzővel rögzíti: tartalmazza azt az információt, hogy a tartalom AI által generált vagy manipulált-e, egy interoperábilis azonosítót – amelyre a többi jelölési réteg, például a vízjel kereszthivatkozással hivatkozhat –, valamint a detekciós eszközre mutató adatot. A digitális aláírás biztosítja az információk hitelességét és integritását.

A másik alapvető technika a vízjelezés (watermarking) (Sub-measure 1.1.2). A vízjel a tartalom belső szerkezetébe épül be: a felhasználó számára nem érzékelhető, ugyanakkor technikai eszközökkel kimutatható, és ellenáll a tipikus módosításoknak – például tömörítésnek, átméretezésnek vagy formátumváltásnak. A Kódex előírja, hogy a vízjel eltávolítása a tartalom minőségét jelentősen rontsa. Emellett audio-, kép- és videótartalmak esetén egy második, nyilvánosan olvasható vízjel alkalmazását is megköveteli: ez a kiegészítő jelölés a detekciós eszközhöz való hozzáférést és a metaadat-azonosítót jelzi, és megkönnyíti az ellenőrzést abban az esetben is, ha a metaadatokat időközben eltávolították a tartalomból. A Kódex kitér a multimodális tartalmak jelölésére is: a különböző médiatípusokhoz tartozó jelöléseknek összehangoltan kell működniük, a jelölések közötti szinkronizáció kötelezettségként jelenik meg. A cél az, hogy a tartalom egyes elemeinek módosítása – például egy képkocka kicserélése multimodális anyagban – ne bontsa meg a jelölési rendszer integritását.

A Kódex opcionális kiegészítő intézkedésként – de nem kötelező elemként – lehetővé teszi a fingerprinting és logging megoldások alkalmazását is (Sub-measure 1.1.3). Ezek a módszerek lehetővé teszik, hogy a rendszer azonosítsa: egy adott tartalom korábban előállításra került-e egy adott AI-modell által. A fingerprinting perceptuális azonosítókat, például képi hash-értékeket alkalmaz, a logging konkrét tartalomrészletek rögzítésére épül. Az ilyen adatnaplózás kizárólag a kimeneti adatokra terjedhet ki, meg kell felelnie az EU adatvédelmi jogának, és a bejegyzéseket csak meghatározott célból és meghatározott ideig lehet megőrizni.

A jelölési rendszer egyik meghatározó eleme a provenance-információk kezelése (Measure 1.3), vagyis annak rögzítése, hogy egy tartalom milyen lépések során jött létre. A Kódex ösztönzi / ajánlja a provenance-információk bővebb rögzítését (Measure 1.3), de ez nem kötelező elem. Ez különösen fontos a többlépcsős tartalomelőállításban, ahol a módosítások egymásra épülnek. Emberi beavatkozás esetén elegendő rögzíteni, hogy közreműködés történt – például szerkesztés formájában –, egyéb adatok, mint a szervezet neve vagy a szerzői jogi tájékoztatás, önkéntesen vehetők fel.

A jelölések megőrzése szintén kiemelt követelmény (Measure 1.2). A Kódex előírja, hogy a meglévő jelöléseket nem szabad eltávolítani vagy módosítani, kivéve, ha a tartalomtranszformáció a provenance-lánc frissítését igényli a pontosság megőrzése érdekében, vagy ha az eltávolítás benchmarking céljából, illetve rögzített szerkesztői ellenőrzés részeként történik. Az upstream AI-modellek szintjén megvalósított jelölési mechanizmusok – akár a modellszolgáltató, akár harmadik fél biztosítja őket – elősegítik a downstream rendszerek megfelelőségét.

A technikai megoldásokkal szemben a dokumentum négy minőségi követelményt támaszt: a jelölési rendszereknek hatékonynak, megbízhatónak, robusztusnak és interoperábilisnak kell lenniük, figyelembe véve a különböző tartalomtípusok sajátosságait, a megvalósítás költségeit és a mindenkori technológiai állást. Ez a négyes követelmény biztosítja, hogy a jelölési megoldások hosszú távon is alkalmazhatók maradjanak, és illeszkedjenek a különböző platformok és rendszerek működéséhez.

Detektálás, megfelelési követelmények és rendszerbiztonság

A jelölési kötelezettségek mellett a Kódex hangsúlyosan foglalkozik a detektálhatóság kérdésével, vagyis azzal, hogy az AI által generált vagy manipulált tartalmak a gyakorlatban is felismerhetők legyenek. A szabályozási logika szerint a jelölés önmagában nem elegendő: szükséges olyan technikai és szervezeti eszközrendszer kialakítása is, amely lehetővé teszi a jelölések ellenőrzését és értelmezését

A dokumentum előírja, hogy a szolgáltatóknak ingyenesen hozzáférhető detekciós megoldásokat kell biztosítaniuk a felhasználók és harmadik felek számára – API-n vagy nyilvánosan elérhető felületen keresztül. Az eszközöknek az Európai Unió területén kell üzemelniük, vagy helyben futtathatóknak kell lenniük, és meg kell felelniük az EU adatvédelmi jogának (Measure 2.1). A detekciós eredményeknek technikai megvalósíthatóság esetén megbízhatósági jelzést is célszerű/kell tartalmazniuk. (Measure 2.3).

A Kódex különbséget tesz a jelölésen alapuló és az attól független, úgynevezett forenzikus detektálás között. Az előbbi a beépített jelölések – vízjelek vagy metaadatok – felismerésére épül, míg az utóbbi a tartalom sajátosságainak elemzésével azonosítja az AI-eredetet, és különösen fontos akkor, ha a jelölések sérültek vagy hiányoznak. A forenzikus detektálás a Kódexben opcionális kiegészítő intézkedésként jelenik meg, nem kötelező elemként (Measure 2.2).

A detekciós rendszerekkel szemben a dokumentum négy minőségi követelményt fogalmaz meg (Commitment 3, Measures 3.1–3.4). A hatékonyság azt jelenti, hogy a megoldásoknak valóban képesnek kell lenniük jelezni a tartalom mesterséges eredetét, a felhasználók számára érthető, informált döntéshozatalt elősegítő módon. A megbízhatóság mérhető mutatókhoz kötött: alacsony hamis pozitív és hamis negatív arányokat, valamint a tartalom hosszától és szemantikájától független, következetes teljesítményt kíván meg. A robusztusság értelmében a jelölési és detekciós megoldásoknak el kell tudniuk viselni mind a mindennapi feldolgozási műveleteket – tömörítést, vágást, tükrözést, képernyőrögzítést, hangmagasság-módosítást, zajeltávolítást –, mind a szándékos, úgynevezett adversariális beavatkozásokat, például vízjel-eltávolítási kísérleteket vagy amortizációs támadásokat. Az interoperabilitás követelménye értelmében a különböző szolgáltatók megoldásainak együtt kell működniük különböző platformokon és disztribúciós csatornákon keresztül; a Kódex egy közös, szolgáltatófüggetlen detektáló interfész kialakítását is előirányozza, amelynek megvalósíthatóságát az AI Board konzultációja alapján a Bizottság értékeli (Measure 3.4).

A megfelelés biztosítása érdekében a Kódex compliance-keretrendszer kialakítását is előírja, amelyben a szolgáltatók rögzítik az alkalmazott megoldásokat, az ellenőrzési folyamatokat és a fejlesztési irányokat (Measure 4.1). A piaci felügyeleti hatóságokkal való együttműködés szintén kötelezettség: ennek részeként a hatóságoknak hozzáférést kell biztosítani a jogi szintű detektorokhoz és a hitelesített provenance-adatokhoz (Measure 4.4).

A Kódex az adaptív biztonsági megközelítés alkalmazását is elvárja: a szolgáltatóknak folyamatosan monitorozniuk és frissíteniük kell a fenyegetési modelljeiket, nyomon kell követniük a valós körülmények között bekövetkező minőségromlásokat, és rendszeresen újra kell kalibrálniuk a detekciós küszöbértékeket. A szolgáltatók felelőssége a felhasználói és alkalmazói támogatásra is kiterjed: laikusok számára is érthető dokumentációkat, képzési anyagokat és útmutatókat kell biztosítaniuk. A Kódex külön figyelmet fordít az alacsonyabb digitális írástudással rendelkező vagy sérülékenyebb csoportokra, például az oktatási kontextusban tanuló fiatalokra vagy az idősebb felhasználókra (Measure 2.4).

Deepfake-ek és AI-generált tartalmak címkézése – nyilvános megjelenítés és értelmezés

A Kódex második nagy egysége az alkalmazók (deployers) kötelezettségeit rendezi az AI Act 50. cikk (4) bekezdése alapján, és azt határozza meg, hogy az AI által generált vagy manipulált tartalmak miként jelenjenek meg a nyilvánosság előtt. Az AI Act ezen a ponton kommunikációs és felhasználói szintű elvárásokat fogalmaz meg: a tartalom mesterséges eredetét egyértelműen, jól érzékelhető módon kell közölni a felhasználóval.

A szabályozás középpontjában a deepfake tartalmak állnak – azaz olyan audio-vizuális anyagok, amelyek valós személyekhez, eseményekhez, helyekhez, entitásokhoz vagy helyzetekhez hasonló megjelenést keltenek, miközben mesterségesen előállítottak vagy módosítottak [AI Act 3. cikk (60) bekezdés]. Ezek az anyagok alkalmasak a valóságérzékelés torzítására, és jelentős hatással lehetnek a közvéleményre, ezért esetükben kötelező a világos és megkülönböztethető jelölés. A Kódex emellett az alkalmazói körrel szemben az AI-generált, szerkesztői ellenőrzés nélkül közzétett, közérdekű szövegek feltüntetését is előírja.

A nyilvános jelölés egyik központi eszköze az egységes EU-ikon, amelynek fő vizuális eleme a nagybetűs „AI” betűpár angol nyelven. A Kódex az egységes EU-ikont preferált közös megoldásként vezeti be, de alternatív ikon vagy címkézési megoldás is választható. (Measure 1.1). Az ikon kiegészíthető egy rövid szöveges magyarázattal (pl. „Generated with AI”, „Made by AI” vagy „Manipulated with AI”). A Kódex Appendixe két, az Európai Bizottság által kifejlesztett mintaikont is tartalmaz. A tervezési előírások rögzítik a minimális kontrasztarányt (4,5:1 a háttérhez viszonyítva), az olvashatósági és felismerhetőségi követelményeket, valamint az akadálymentes megjelenítés módját. A második tervezet egy task force keretében vizsgálja egy interaktív második réteg lehetőségét.

Az ikon elhelyezésére vonatkozó követelmények médiatípusonként differenciáltak (Measure 1.2). Élő, valós idejű videó esetén az ikont folyamatosan vagy legalább bevezető jelzéssel és rendszeres időközönként kell megjeleníteni; rögzített videóknál a feltüntetés módját a tartalom hossza határozza meg, rövid anyagoknál végig, hosszabb videóknál a legelején és rendszeres időközönként. Hanganyagoknál hallható felhívás szükséges a tartalom elején, hosszabb műsoroknál ismételten is. Képek esetén az ikont jól látható helyen, az első megjelenítéstől kezdve, minden egyes alkalommal kötelező feltüntetni. Szöveges tartalmak esetén az ikont az anyag tetején, a cím közelében vagy a kolofónban kell elhelyezni; ha csak a szöveg egy része AI-generált, elegendő azt a részt jelölni.

A Kódex külön rendelkezik azokról az esetekről, amikor a tartalom nyilvánvalóan művészeti, kreatív, szatirikus, fiktív vagy ahhoz hasonló kontextusban jelenik meg (Commitment 3). Ilyenkor a jelölési kötelezettség a mű bemutatását vagy élvezetét nem akadályozó, arányos módon érvényesítendő. A Kódex részletes szabályokat tartalmaz az ilyen tartalmak közzétételének módjára: a jelölés elhelyezhető a nyitó jóváírásoknál, a záró stáblistában vagy kontextuális megjegyzésként; digitálisan elérhető anyagoknál a kép- vagy videókereten kívül, de ahhoz közvetlenül illeszkedve; fizikai hordozón terjesztett tartalmak esetén a belépési pontnál, jegyvásárláskor vagy bevezető tájékoztatóban.

A szöveges tartalmak esetében fontos kivétel érvényesül: ha az AI által generált szöveg emberi felülvizsgálaton esett át, és egy azonosítható természetes vagy jogi személy szerkesztői felelősséget vállal érte, a jelölési kötelezettség nem áll fenn. A Kódex (Commitment 4) részletes dokumentációs és eljárásrendi követelményeket tartalmaz ennek igazolásához, összhangban a sajtószabadság és a szerkesztői függetlenség elvével.

Fontos elem a hozzáférhetőség (accessibility) biztosítása: az EU Akadálymentességi Aktusának és a webes akadálymentességi irányelvnek megfelelően az ikonoknak, feliratoknak és nyilatkozatoknak fogyatékossággal élő személyek számára is érzékelhetőknek kell lenniük. Ez magában foglalhat alternatív szöveget képernyőolvasókhoz, auditív jelzéseket látássérülteknek, jelnyelvi vagy feliratos megoldásokat hallássérülteknek, valamint megfelelő kontrasztarányt és olvashatóságot. A Kódex hivatkozik az ETSI EN 301 549 és a WCAG 2.1 Level AA szabványokra.

A szervezeti megfelelés tekintetében az alkalmazóknak belső folyamatokat kell kialakítaniuk a tartalmak azonosítására és a megfelelő jelölések alkalmazására (Measure 2.1), gondoskodniuk kell az érintett munkatársak képzéséről és tudatosságának fejlesztéséről (Measure 2.2), és olyan visszajelzési mechanizmusokat kell működtetniük, amelyeken keresztül a felhasználók, a megbízható jelzők (trusted flaggers) vagy tényellenőrző szervezetek bejelenthessék a hiányos vagy helytelen jelölést (Measure 2.3).

Végül a Kódex az AI-írástudás (AI literacy) fejlesztésének szempontját is hangsúlyozza. A technikai és jogi megoldások mellett lényeges, hogy a társadalom tagjai képesek legyenek értelmezni az AI által generált tartalmakat, felismerni azok eredetét, és tájékozott döntéseket hozni. Ez a megközelítés a transzparenciát a felhasználói élmény természetes részévé teszi, és hozzájárul ahhoz, hogy az AI-generált tartalmak kezelése a mindennapi kommunikáció megszokott elemévé váljon.

Ki kell emelni, hogy a Kódex formailag önkéntesen választható eszköz: az AI Act 50. cikke az érintetti kör számára nem teszi kötelezővé elfogadását, és a mögöttes jogi kötelezettségek – a jelölés, a detektálhatóság, a deepfake-ek feltüntetése – magából a rendeletből következnek, nem a Kódexből. A Kódex elfogadása segítheti a megfelelés bizonyítását, de önmagában nem teremt automatikus megfelelési vélelmet: az AI Office ugyanis csak ösztönzi a codes of practice kidolgozását a kötelezettségek hatékony végrehajtásának megkönnyítésére [AI Act 50. cikk (7) bek.]. Részletességénél, a felelősségek egyértelmű elosztásánál és az AI Act szabályozási ütemtervéhez való szoros illeszkedésénél fogva a Kódex máris a piac egyik legfontosabb megfelelési referenciapontjává vált. Figyelmen kívül hagyása növelheti a megfelelési bizonytalanságot, de nem egy expressis verbis megadott jogi vélelem elvesztését jelenti.

A Code of Practice nem jogszabály, így nem rendelkezik önálló hatálybalépési dátummal. A Kódex célja, hogy az AI Act 50. cikkében meghatározott kötelezettségek gyakorlati végrehajtását segítse. E kötelezettségek – különösen a jelölésre, detektálhatóságra és a deepfake-ek nyilvános feltüntetésére vonatkozó szabályok – 2026. augusztus 2-től válnak alkalmazandóvá. Az AI Act határidőinek esetleges módosítása ugyan jelenleg a Digital Omnibus tárgyalásainak része, és a magas kockázatú rendszerek megfelelési határidejének 2027–2028-ra történő kitolása reális lehetőség, azonban ez mindaddig nem bír joghatással, amíg a jogalkotók a módosítást véglegesen el nem fogadják és ki nem hirdetik. Az 50. cikk esetében a 2026. augusztus 2-i határidő tehát továbbra is irányadó.

2026. március 12., csütörtök

Az MI-jártasság biztosításának intézményi kötelezettsége az oktatásban az EU mesterséges intelligencia rendeletének alapján

 

Az Európai Unió a mesterséges intelligenciáról szóló, 2024-ben elfogadott (EU) 2024/1689 rendelete (AI Act/MI rendelet) 4. cikke a mesterséges intelligenciához kapcsolódó MI-jártasság biztosítását az érintett szervezetek kifejezett kötelezettségeként határozza meg. E rendelkezés az oktatás világában is kiemelt jelentőségű, mivel a felsőoktatási intézmények és a köznevelés szereplői egyre több olyan rendszert alkalmaznak, amelyek használata megfelelő felkészültséget, felelősségi rendet és intézményi szintű szervezést igényel. E rendelkezés 2025 februárjában már hatályba lépett, gyakorlati alkalmazása azonban Magyarországon még nem kezdődött meg – többek között az értelmezés nehézségei, a felelősségi körök tisztázatlansága miatt. Olyan alapvető kérdések várnak tisztázásra, hogy az oktatási szektorban kik tekinthetők a norma címzettjeinek, milyen tartalommal áll fenn a kompetenciabiztosítási kötelezettség, és milyen szempontok alapján alakítható ki a megfelelő felkészítési modell. A tanulmány a külföldi példák és az MI-rendelethez kapcsolódó kommentárok alapján bontja ki a gyakorlati alkalmazás kérdéseit, és intézményi problémakezelési javaslatokat fogalmaz meg a közoktatás és a felsőoktatás számára.

Az (EU) 2024/1689 rendelete az Európai Unió első átfogó, horizontális szabályozása a mesterséges intelligencia területén. A rendelet célja, hogy egységes belső piaci keretet hozzon létre a mesterséges intelligencián alapuló rendszerek fejlesztése, forgalmazása és használata számára, egyidejűleg biztosítva a biztonság, az alapjogvédelem, valamint a megbízható és emberközpontú alkalmazás követelményeit. A szabályozás kockázatalapú megközelítést alkalmaz: a tilalmazott gyakorlatok, a magas kockázatú rendszerek, az átláthatósági kötelezettségek és az általános célú modellekre vonatkozó előírások külön fejezetekben jelennek meg.

A rendelet azonban nem kizárólag termékbiztonsági logikát követ. Egyes rendelkezései – különösen a II. fejezet – általános szervezeti kötelezettségeket írnak elő a szolgáltatók és alkalmazók számára. E körbe tartozik a 4. cikk is, amely a MI-jártasság biztosításának kötelezettségét rögzíti. Ez a rendelkezés nem a rendszer műszaki megfelelőségére, hanem a rendszerrel kapcsolatba kerülő személyek felkészültségére irányul.

A felsőoktatási intézmények esetében az AI Act alkalmazhatósága nem magától értetődő kérdés, mivel a rendelet kifejezetten nem nevesíti a „felsőoktatást”, mint külön szabályozási területet. A relevancia abból fakad, hogy az egyetemek és főiskolák saját működésük során MI-rendszereket használnak, illetve egyes esetekben fejlesztenek, vagy integrálnak. Amennyiben egy intézmény MI-rendszert üzemeltet – például adminisztratív döntéstámogatás, tanulmányi rendszer, learning analytics vagy vizsgafelügyelet keretében –, úgy alkalmazói minőségben jár el. Ha pedig saját fejlesztésű vagy testreszabott rendszert mások számára elérhetővé tesz, akkor szolgáltatói minőség is fennállhat. A 4. cikk alkalmazásának előfeltétele e minőségek pontos meghatározása.

A 4. cikk címzettjei azok a szervezetek, amelyek MI-rendszereket fejlesztenek, forgalomba hoznak, üzembe helyeznek vagy működtetnek. A norma szerint e szereplők kötelesek intézkedéseket tenni annak érdekében, hogy személyzetük és mindazok, akik a nevükben eljárva az MI-rendszereket használják vagy működtetik, megfelelő MI-jártassággal rendelkezzenek. A rendelkezés a szervezeti gondosság és felelősség körébe tartozik.

A MI-jártasság a rendelet értelmében olyan készségek, ismeretek és megértés összessége, amelyek lehetővé teszik a rendszerek szakszerű alkalmazását, valamint a lehetséges kockázatok és károk felismerését. A kompetencia szintjét mindig a használat kontextusa, az érintett személy feladatköre és a technikai környezet határozza meg. A norma tehát differenciált megközelítést követel: nem egységes, általános képzési minimumot ír elő, hanem a konkrét alkalmazási helyzethez igazított felkészítést.

A felsőoktatásban a 4. cikk alkalmazása több dimenzióban jelenik meg. Egyrészt a munkavállalók – oktatók, kutatók, adminisztratív dolgozók – MI-használata intézményi felelősségi körbe tartozik. Másrészt felmerül a hallgatók helyzete is: ha az intézmény a tanulmányi kötelezettségek teljesítéséhez MI-rendszer használatát írja elő, a használat már nem pusztán egyéni döntés, hanem szervezeti keretben történik. Harmadrészt vizsgálni kell a külső közreműködők, megbízottak és projektpartnerek státuszát is.

A 4. cikk sajátossága, hogy nem tesz különbséget az általános célú MI-rendszerek és más rendszerek között. Így már az egyszerű szervezeti alkalmazás – például generatív nyelvi modellek használata szövegalkotásra vagy fordításra – is releváns lehet. A kompetenciabiztosítási kötelezettség tehát nem kizárólag magas kockázatú rendszerekhez kötődik, hanem a szervezeti szerephez és a tényleges használathoz.

Hatálybalépés és alkalmazási ütemezés: a 4. cikk időbeli dimenziója a felsőoktatásban

Az AI Act időbeli alkalmazása több lépcsőben történik. A rendelet hatálybalépése és tényleges alkalmazhatósága között különbséget kell tenni. A rendelet az Európai Unió Hivatalos Lapjában való kihirdetését követő huszadik napon lépett hatályba, azonban az egyes fejezetek alkalmazása eltérő időpontokhoz kötött. A főszabály szerint a rendelet rendelkezéseit 2026. augusztus 2-tól kell alkalmazni, ugyanakkor a szabályozás kifejezetten rögzíti, hogy az I. és II. fejezet – amelybe a 4. cikk is tartozik – már 2025. február 2-tól alkalmazandó.

Ez a megkülönböztetés a felsőoktatási intézmények számára különös jelentőséggel bír. A 4. cikk nem a teljes rendelet általános alkalmazási időpontjával egyidejűleg, hanem annál korábban vált kötelezővé. A 2025. február 2-i dátum azt jelenti, hogy a szolgáltatói vagy alkalmazói minőségben eljáró intézményeknek ettől az időponttól kezdődően intézkedéseket kell tenniük a MI-jártasság biztosítása érdekében. A kötelezettség nem függ a magas kockázatú rendszerekre vonatkozó fejezetek későbbi alkalmazásától; önálló és közvetlenül érvényesülő normáról van szó.

A rendelet további részei szintén eltérő időpontokban válnak alkalmazandóvá. A III. fejezet 4. szakasza, az V., VII. és XII. fejezet [a 101. cikk kivételével), valamint a 78. cikk 2025. augusztus 2-tól alkalmazandók. A 6. cikk (1) bekezdésében foglalt kötelezettségek pedig 2027. augusztus 2-tól válnak alkalmazandóvá (113. cikk c) pont]. Ez a lépcsőzetes rendszer azt eredményezi, hogy a szervezeti megfelelés több fázisban valósul meg: elsőként az alapvető szervezeti és kompetenciabiztosítási kötelezettségek, ezt követően a részletes műszaki és kockázatkezelési előírások.

A felsőoktatás szempontjából az időbeli struktúra három következménnyel jár. Először: a 4. cikk alkalmazása nem halasztható a magas kockázatú rendszerekre vonatkozó szabályok teljes körű hatálybalépéséig. A kompetenciabiztosítási kötelezettség már a rendelet korai szakaszában fennáll. Másodszor: az intézményi gyakorlatban használt, már működő rendszerek esetében is vizsgálni kell a megfelelőséget, különösen akkor, ha a rendszer használata 2025 után is fennmarad. Harmadszor: a későbbi szakaszokban alkalmazandó részletes követelmények – például a magas kockázatú rendszerekhez kapcsolódó dokumentációs és felügyeleti előírások – a 4. cikk szerinti kompetenciaszintet is érintik, mivel a megfelelő szakértelem a további kötelezettségek előfeltétele.

A rendelet külön rendelkezik a már forgalomba hozott vagy üzembe helyezett rendszerekre vonatkozó átmeneti szabályokról. A korábban működő, nagy kockázatú rendszerek esetében a megfelelési kötelezettség bizonyos feltételek mellett később válik esedékessé, illetve jelentős módosítás esetén nyílik meg teljeskörűen. E szabályok azonban nem érintik a 4. cikk alapvető szervezeti jellegét. A kompetenciabiztosítási kötelezettség a használat és a szerep fennállásához kötődik, nem pedig a rendszer forgalomba hozatalának időpontjához.

A gyakorlatban ez azt jelenti, hogy a felsőoktatási intézményeknek 2025 elejétől kezdődően olyan belső struktúrákat kell kialakítaniuk, amelyek alkalmasak a MI-jártasság intézményes biztosítására. A megfelelés nem merül ki abban, hogy a későbbi, magasabb kockázatú rendszerekhez kapcsolódó követelményeket figyelemmel kísérik. A 4. cikk önálló kötelezettség, amely az MI-használat tényleges megkezdésével vagy folytatásával összefüggésben értelmezendő.

Az időbeli dimenzió így a megfelelési stratégia meghatározó elemévé válik: a felsőoktatási intézményeknek a 4. cikk alkalmazását már a rendelet korai szakaszában integrálniuk kellett szervezeti működésükbe, a későbbi fejezetek hatálybalépése pedig ezt a kötelezettséget nem helyettesíti, hanem kiegészíti és tovább részletezi.

Címzettek, kötelezettségi szerkezet és a gondossági mérce

Az AI Act 4. cikke a rendelet II. fejezetében kapott helyet, és a MI-jártasság biztosításának kötelezettségét rögzíti. A norma címzettjei az MI-rendszerek szolgáltatói és alkalmazói. A rendelkezés szerkezete több, egymással összefüggő elemből áll: (1) a kötelezetti kör meghatározása, (2) az intézkedési kötelezettség előírása, (3) a kompetencia címzettjeinek kijelölése, valamint (4) a mérce és differenciálási szempontok rögzítése.

A kötelezetti kör meghatározása funkcionális jellegű. A szolgáltató az a szereplő, aki MI-rendszert fejleszt, forgalomba hoz vagy saját neve alatt kínál. Az üzemeltető az, aki a rendszert saját működési körében használja. A felsőoktatásban e minőségek gyakran egybeesnek: egy intézmény lehet egyszerre alkalmazó – például egy tanulmányi adminisztrációs rendszer alkalmazásakor – és szolgáltató, ha saját fejlesztésű vagy testreszabott rendszert bocsát rendelkezésre.

A kötelezettség tárgya az, hogy a címzett „intézkedéseket tegyen” annak érdekében, hogy az érintett személyek megfelelő MI-jártassággal rendelkezzenek. A norma nem határozza meg tételesen, milyen formában kell e kötelezettséget teljesíteni. Az „intézkedések” kifejezés nyitott, és szervezeti mozgásteret biztosít. A kötelezettség lényege nem egy konkrét képzési forma előírása, hanem annak biztosítása, hogy a releváns személyek ténylegesen képesek legyenek az MI-rendszerek szakszerű alkalmazására.

A kompetencia címzettjei két csoportba sorolhatók. Egyrészt az adott szervezet személyzete, tehát mindazok, akik munkaviszony vagy hasonló jogviszony keretében az intézmény működésében részt vesznek. Másrészt azok a személyek, akik a szervezet nevében vagy megbízásából járnak el, és az MI-rendszer működtetésében vagy használatában érintettek. A norma ezzel túlterjed a klasszikus munkavállalói körön, és lefedi azokat a külső közreműködőket is, akik a szervezet érdekében végzik tevékenységüket.

A 4. cikk egyik kulcseleme a „a tőlük telhető legnagyobb mértékben„a tőlük telhető legnagyobb mértékben”#x201D; jellegű mérce. A rendelet a kötelezettektől azt várja el, hogy „legjobb erőfeszítéseik szerint” biztosítsák a megfelelő kompetenciaszintet. Ez nem eredménykötelezettség, hanem gondossági jellegű kötelezettség. A szervezetnek olyan intézkedési rendszert kell kialakítania, amely alkalmas a szükséges kompetenciaszint elérésére, ugyanakkor nem várható el abszolút garancia minden egyes egyéni hibával szemben.

A differenciálás szempontjait maga a norma rögzíti. A kompetenciaszint meghatározásakor figyelembe kell venni az érintett személy technikai ismereteit, tapasztalatát, képzettségét, valamint az MI-rendszer alkalmazásának kontextusát és az érintett személyek körét. Ez a szabály kifejezetten elutasítja az egységes, minden szereplőre azonos módon alkalmazott képzési minimumot. A kompetencia mértéke a feladatkörhöz és a használat kockázati profiljához igazodik.

A MI-jártasság fogalma nem azonos a magas szintű informatikai szakértelemmel. A rendelet értelmében a kompetencia olyan ismereteket és megértést jelent, amelyek lehetővé teszik az MI-rendszer szakszerű alkalmazását, továbbá a rendszerrel összefüggő kockázatok és lehetséges károk felismerését. A hangsúly tehát a felelős döntéshozatalon és a tudatos használaton van. A kompetencia magában foglalja a rendszer korlátainak, esetleges torzításainak és hibalehetőségeinek ismeretét is.

Fontos dogmatikai sajátosság, hogy a 4. cikk nem kapcsolódik közvetlenül a kockázati kategóriákhoz. A kötelezettség nem csak a magas kockázatú rendszerek esetében áll fenn. Amennyiben a szervezet MI-rendszert használ vagy működtet, a kompetenciabiztosítási kötelezettség megnyílik, függetlenül attól, hogy az adott rendszer milyen kockázati besorolás alá esik. A kockázati szint legfeljebb a szükséges kompetencia mélységét befolyásolja.

A 4. cikk szerkezete tehát egy szervezeti felelősségi modellt ír le. Nem technológiai, hanem intézményi működési szabály: a mesterséges intelligencia alkalmazása csak akkor tekinthető jogszerűnek és felelősnek, ha az érintett személyek megfelelően felkészültek. A kötelezettség teljesítése strukturált, dokumentálható és differenciált intézkedési rendszert feltételez.

A kötelezettek köre az oktatási szektorban: szolgáltatói és alkalmazói minőség a felsőoktatásban és a közoktatásban

A 4. cikk alkalmazásának központi kérdése a kötelezettek körének meghatározása. A norma címzettjei az MI-rendszerek szolgáltatói és alkalmazói. Az oktatási szektorban – függetlenül attól, hogy felsőoktatásról vagy köznevelésről van szó – e minőségek funkcionális alapon állapíthatók meg: nem az intézménytípus, hanem az MI-rendszerhez való viszony a döntő.

A szolgáltató az a szereplő, aki MI-rendszert fejleszt, forgalomba hoz vagy saját neve alatt kínál. Az alkalmazó az, aki az MI-rendszert saját működési körében használja. Az oktatási intézmények túlnyomó többsége elsődlegesen alkalmazói minőségben jelenik meg, amikor harmadik fél által fejlesztett MI-alapú rendszert alkalmaz – például tanulmányi adminisztráció, vizsgafelügyelet, értékelés, tanulásanalitika vagy generatív tartalomelőállítás céljából.

A felsőoktatásban azonban gyakrabban fordul elő olyan helyzet, amikor az intézmény részben szolgáltatói minőségbe is kerül. Ez megtörténhet saját fejlesztésű MI-alapú kutatási infrastruktúra külső hozzáférhetővé tételekor, testreszabott generatív eszközök intézményi üzemeltetésekor, vagy konzorciumi platform működtetésekor. Ilyen esetben az intézmény nem csupán használja a rendszert, hanem annak működéséért és konfigurációjáért is felel.

Az általános és középfokú oktatás intézményei ezzel szemben jellemzően kizárólag alkalmazói minőségben jelennek meg. Az iskolák ritkán fejlesztenek vagy forgalmaznak önálló MI-rendszert; tipikus helyzetben külső szolgáltatók – például oktatástechnológiai cégek – rendszereit alkalmazzák. Ez azonban nem csökkenti a 4. cikk szerinti kötelezettséget: az alkalmazói minőség önmagában elegendő a MI-jártasság biztosításának kötelezettségéhez.

A kötelezettek körének meghatározásakor külön vizsgálni kell a fenntartói struktúrát. Köznevelési intézmények esetében a fenntartó – állami vagy egyházi szerv – bizonyos esetekben maga is minősülhet alkalmazónak, ha központilag biztosít MI-alapú rendszereket az intézmények számára. Ilyen helyzetben a kompetenciabiztosítási kötelezettség megoszlása az intézmény és a fenntartó között a konkrét működési modell függvénye.

A 4. cikk hatálya nem korlátozódik magas kockázatú rendszerekre. Ez különösen releváns az oktatásban, ahol a generatív MI-eszközök – például szövegalkotó modellek – széles körben elterjedtek. Amennyiben az intézmény ilyen eszközöket szervezeti keretben alkalmaz, az alkalmazói minőség fennáll. A kompetenciabiztosítási kötelezettség tehát nem kizárólag vizsgaértékelő vagy felvételi döntést támogató rendszerek esetén merül fel, hanem az általános szervezeti használat során is.

A felsőoktatás és a köznevelés között a különbség elsősorban a rendszerek komplexitásában és az alkalmazási kontextusban jelentkezik. A felsőoktatásban gyakoribb a kutatási és innovációs célú MI-fejlesztés, ami szolgáltatói minőséget eredményezhet. A köznevelésben ezzel szemben a hangsúly az intézményi szintű használaton van. Mindkét szektorban azonban az alapelv azonos: aki MI-rendszert működtet, köteles gondoskodni arról, hogy az érintett személyek megfelelő kompetenciával rendelkezzenek.

A kötelezettek körének meghatározása tehát nem intézménytípushoz, hanem szerephez kötött. Az oktatási szektor egészére kiterjedően a 4. cikk olyan szervezeti felelősségi normát állít fel, amely az MI-rendszerhez való funkcionális kapcsolódáson alapul.

A 4. cikk gyakorlati alkalmazása a hallgatók és tanulók MI-használata során

A 4. cikk alkalmazása az oktatásban ott válik igazán konkréttá, ahol az intézménynek el kell döntenie: mikor minősül a hallgatók vagy tanulók MI-használata intézményi felelősségi körbe tartozó tevékenységnek. A döntési pont nem az MI jelenléte, hanem az, hogy a használat intézményi keretben, szervezett vagy előírt formában történik-e.

Felsőoktatásban gyakori, hogy a hallgatók saját elhatározásukból alkalmaznak generatív MI-eszközöket beadandók készítéséhez, kutatási jegyzeteléshez vagy tanulási segédeszközként. Amennyiben az intézmény nem írja elő az adott eszköz használatát, nem integrálja azt kötelező tantervi elemként, és nem építi be a hivatalos értékelési struktúrába, a használat nem tekinthető az intézmény által működtetett rendszerhasználatnak. Ilyen helyzetben a 4. cikk szerinti kompetenciabiztosítási kötelezettség nem terjed ki teljes hallgatói képzési programra. A gyakorlati megoldás ilyenkor az, hogy az intézmény világos MI-használati szabályzatot alkot, meghatározza az elfogadható és nem elfogadható felhasználási módokat, és tájékoztatást ad az MI korlátairól, például a hallucináció jelenségéről vagy az adatvédelmi kockázatokról.

A helyzet megváltozik, ha az intézmény kötelezővé teszi egy MI-eszköz alkalmazását. Amennyiben egy kurzus előírja generatív rendszer használatát, vagy a hallgatók számára intézményi platformon keresztül biztosít MI-alapú tanulástámogató rendszert, a használat az intézmény működési körébe kerül. Ebben az esetben a 4. cikk alapján az intézménynek biztosítania kell, hogy a hallgatók rendelkezzenek az adott rendszer használatához szükséges MI-jártassággal. Gyakorlatban ez nem jelent teljes körű technikai felkészítési követelményt, de megköveteli legalább a rendszer működésének alapvető megértését, a korlátok ismeretét és az eredmények kritikus értékelésének képességét. A megfelelés legegyszerűbb módja egy kötelező, rövid bevezető modul, amely dokumentáltan teljesíthető.

Az általános és középfokú oktatásban a kérdés még egyértelműbb. A tanulók MI-használata rendszerint pedagógiai keretben zajlik. Ha egy iskola tanórai keretben generatív eszközt alkalmaz, vagy MI-alapú tanulásanalitikai rendszert vezet be, a használat intézményi felelősség alá tartozik. Ilyenkor a 4. cikk nemcsak a pedagógusok, hanem – a használat mértékéig – a tanulók felkészítését is szükségessé teszi. A gyakorlati megoldás itt az életkornak megfelelő tájékoztatás: az MI működésének egyszerű magyarázata, a hibalehetőségek bemutatása és az adatvédelmi tudatosság fejlesztése.

Külön figyelmet igényel az MI-alapú értékelés és döntéstámogatás. Ha a rendszer a tanulmányi előmenetel, vizsgaeredmény vagy felvételi döntés befolyásolására szolgál, a kompetenciabiztosítás szintje magasabb. Felsőoktatásban ez az oktatók felkészítését jelenti a rendszer működésének, torzításainak és korlátainak ismeretére. Köznevelésben a pedagógus köteles biztosítani, hogy a rendszer alkalmazása ne váltsa ki az egyéni mérlegelést, és a döntések felülvizsgálhatók legyenek.

A 4. cikk tehát nem általános digitális képzési kötelezettséget ír elő, hanem a kötelező vagy szervezett MI-használathoz kapcsolódó célzott kompetenciabiztosítást. A gyakorlati kérdés mindig az, hogy az intézmény milyen mértékben irányítja vagy írja elő az MI alkalmazását. Amint az irányítás intézményi szintre emelkedik, a felelősség is intézményi szintre kerül.

Gyakorlati megfelelési modell: hogyan épüljön be a MI-jártasság a mindennapi működésbe?

A 4. cikk valódi jelentősége az oktatási intézmények számára akkor válik láthatóvá, amikor az MI-használat nem egyedi kísérlet, hanem a szervezet mindennapi működésének része lesz. A gyakorlati megfelelés nem különálló projekt, hanem olyan intézményi működési rendszer, amely az MI alkalmazását strukturált keretbe helyezi.

A felsőoktatásban az első konkrét lépés egy belső, vezetői szinten elfogadott MI-használati irányelv kialakítása. Ennek nem kell terjedelmes dokumentumnak lennie, de rögzítenie kell, hogy az intézmény milyen célokra engedélyezi az MI használatát, mely esetekben kötelező az emberi felülvizsgálat, és milyen eljárásrend érvényes értékelési vagy döntéstámogató rendszerek esetén. Az irányelv adja meg azt a szervezeti keretet, amelyhez a kompetenciabiztosítási intézkedések illeszkednek. A felsőoktatási intézmények jelentős része rendelkezik már valamiféle MI-szabályozással, ezek azonban az EU Act követelményeit még nem építették be, holott közvetlenül érvényesülő uniós jogforrásról van szó, melynek számos rendelkezése már hatályba lépett. A köznevelésben ma még az intézményi szabályozás gyakorlata nem alakult ki, elvétve találunk olyan iskolákat, ahol már sor került belső MI-szabályzat elfogadására.

A következő gyakorlati elem egy kijelölt felelős vagy munkacsoport. A 4. cikk nem ír elő külön, kötelezően létrahozandó tisztséget, mégis célszerű, hogy az intézményben legyen egy koordinációs pont, amely áttekinti az alkalmazott rendszereket, összegyűjti a tapasztalatokat, és frissíti a képzési tartalmakat. Felsőoktatásban ez lehet digitális oktatásért felelős vezető, informatikai igazgató vagy rektori megbízott. A köznevelésben az igazgató, egy kijelölt igazgatóhelyettes, vagy egy digitális munkaközösség láthatja el ezt a szerepet.

A kompetenciabiztosítás beépítése a gyakorlatba akkor hatékony, ha az nem elszigetelt képzési esemény, hanem a munkafolyamat része. Felsőoktatásban a kurzusindításkor rövid MI-orientáció, a tanulmányi szabályzatban külön MI-fejezet, valamint vizsgaidőszak előtt módszertani frissítés biztosíthatja a tényleges tudatosságot. Köznevelésben a pedagógusok éves továbbképzésébe integrált MI-modul, valamint tanórai keretben megvalósított bevezetés jelenthet működő megoldást. A hangsúly minden esetben azon van, hogy az érintettek értsék az MI-rendszer korlátait, a lehetséges torzításokat, valamint az adatvédelmi kockázatokat.

Külön figyelmet igényel az MI-alapú értékelési és döntéstámogató rendszerek használata. Ilyen esetben a gyakorlati megfelelés része kell legyen egy világos eljárásrend: mikor alkalmazható a rendszer, hogyan történik az emberi ellenőrzés, és miként biztosítható a döntés felülvizsgálata. Felsőoktatásban ez például vizsgaszabályzati kiegészítéssel valósítható meg. Köznevelésben a pedagógiai program módosítása lehet indokolt.

A dokumentálás a jogbiztonsági eszközként értelmezendő: egy rövid, rendszeresen frissített belső nyilvántartás a megtartott képzésekről, az alkalmazott rendszerekről és az esetleges incidensekről elegendő lehet a megfelelés igazolására. A 4. cikk megsértésének kockázata elsősorban akkor merül fel, ha az intézmény nem tudja bemutatni, hogy az MI-használat tudatos, ellenőrzött és felkészültségen alapuló módon történik.

A felsőoktatásban a modell hangsúlya az innováció és a felelősség egyensúlyán van, a köznevelésben inkább a védelem és a pedagógiai kontroll biztosításán. Mindkét szektorban közös azonban, hogy a 4. cikk nem tilt, hanem keretet ad: az MI alkalmazása akkor jogszerű és fenntartható, ha a szervezet képes biztosítani a szükséges kompetenciaszintet, és ezt strukturált működési rendbe ágyazza.

A vezetők felkészítésének módszertana: konkrét lépések és tantervi alap

A 4. cikk gyakorlati érvényesítése az oktatási intézményekben azon múlik, hogy a vezetők – rektorok, dékánok, igazgatók, tagintézmény-vezetők, fenntartói döntéshozók – rendelkeznek-e a szükséges MI-jártassággal ahhoz, hogy szervezeti szinten tudatos döntéseket hozzanak. A vezetők felkészítése nem általános digitális továbbképzés, hanem célzott, felelősségalapú program kell legyen, amely az MI-kockázatkezelés, az intézményi irányítás és a jogi megfelelés összefüggéseire koncentrál.

A módszertan első lépése egy strukturált vezetői helyzetdiagnózis. Ez nem technikai tudásszint-felmérés, hanem annak feltárása, hogy az adott intézményben hol és milyen formában jelenik meg az MI: oktatásban, értékelésben, adminisztrációban, kutatásban. A vezetőknek meg kell érteniük, hogy az MI-használat milyen döntési pontokon érinti közvetlenül az intézményi felelősséget. A diagnózis eredménye határozza meg a képzés hangsúlyait.

A második lépés egy moduláris, rövid ciklusú vezetői képzési program kialakítása. Ennek nem elméleti előadásnak, hanem esetalapú műhelymunkának kell lennie. A képzésben konkrét helyzeteket kell feldolgozni: MI-alapú vizsgaértékelés bevezetése, generatív eszköz kötelezővé tétele, tanulásanalitikai rendszer használata, adatvédelmi incidens kezelése. A vezetőknek döntési forgatókönyveken keresztül kell megérteniük, hogyan kapcsolódik össze a MI-jártasság biztosítása, az emberi felülvizsgálat és a dokumentálás.

A harmadik lépés a felelősségi mátrix kialakítása. A képzés során minden intézménynek el kell készítenie saját döntési térképét: mely kérdések tartoznak stratégiai szintre, melyek operatív szintre, és hol szükséges szakmai vagy jogi bevonás. Ez a gyakorlat biztosítja, hogy a 4. cikk szerinti kötelezettség ne maradjon absztrakt, hanem beépüljön a szervezeti döntéshozatalba.

A vezetők felkészítésének fontos eleme a kockázatalapú gondolkodás fejlesztése. A programnak konkrét eszközöket kell adnia annak mérlegelésére, hogy egy adott MI-rendszer milyen hatással van a hallgatókra vagy tanulókra, milyen mértékű emberi kontroll szükséges, és mikor indokolt külön képzési modul bevezetése. Ez a megközelítés felsőoktatásban az innováció felelős irányítását, köznevelésben pedig a pedagógiai biztonság fenntartását támogatja.

A képzés tantervi alapját négy egységre lehet építeni. Az első egység a jogi és felelősségi keret, amely a 4. cikk gyakorlati következményeit mutatja be vezetői nézőpontból. A második egység az MI működésének alapjai és korlátai, különös tekintettel a hallucinációra, torzításra és adatkezelésre. A harmadik egység az intézményi bevezetési modellek, amely konkrét implementációs példákat és döntési sablonokat tartalmaz. A negyedik egység a képzési és felülvizsgálati rendszer kialakítása, amely segít a vezetőknek saját intézményi programjuk megtervezésében.

A felkészítés nem zárulhat le a képzési alkalommal. Célszerű évente frissítő műhelyt tartani, amely áttekinti az új MI-alkalmazásokat és a tapasztalatokat. A vezetői kompetencia fenntartása így folyamatos folyamat marad.

A módszertan lényege tehát nem az információátadás, hanem a döntési képesség fejlesztése. Ha a vezetők képesek felismerni, mikor válik az MI-használat intézményi felelősségi kérdéssé, és hogyan kell ehhez képzési struktúrát rendelni, akkor a 4. cikk gyakorlati alkalmazása biztos alapokra kerül mind a felsőoktatásban, mind az általános és középfokú oktatásban.

Összegzés

A mesterséges intelligencia oktatási alkalmazása ma már nem jövőbeli lehetőség, hanem jelen idejű intézményi feladat. Az MI-jártasság kialakítása, a pedagógusok és oktatók felkészítése, valamint a szervezeti szintű szabályozási és módszertani válaszok kidolgozása nem halasztható tovább. Az uniós szabályozás világossá teszi, hogy az érintett szervezeteknek nem csak követniük kell a technológiai változásokat, hanem aktívan gondoskodniuk kell arról, hogy munkatársaik képesek legyenek az MI-eszközök biztonságos, jogszerű, etikus és pedagógiailag megalapozott használatára. Ez a kötelezettség tehát nem elméleti, hanem nagyon is gyakorlati természetű, nem teljesítése pedig a rendelet szerinti szankciók alkalmazásához vezethet.

Különösen fontos ennek tudatosítása azért, mert a közoktatásban és a felsőoktatásban az MI-eszközök használata már megkezdődött: a technológia jelen van a tanulásban, a feladatmegoldásban, az értékelésben, a tartalomkészítésben és az adminisztratív folyamatokban is. A kérdés ezért már nem az, hogy belép-e az intézmények világába, hanem az, hogy az intézmények felkészülten vagy felkészületlenül találkoznak-e vele. Ebben az értelemben máris időhátrányban vagyunk. Minden további halogatás növeli a pedagógiai bizonytalanságot, a jogi kockázatokat és az intézményi kiszolgáltatottságot. A valódi feladat most az, hogy a szabályozási kötelezettséget mielőbb intézményi cselekvéssé, a technológiai nyomást pedig tudatos szakmai felkészüléssé alakítsuk.

A cikk emberi és mesterséges intelligencia együttműködésével jött létre.

2026. február 17., kedd

Generatív mesterséges intelligencia a digitális oktatásban – fókuszban az OECD 2026-os jelentése


2026-ra a digitális átalakulás új szakaszába lépett az oktatás: a generatív mesterséges intelligencia megjelenése a technológiai innováció és egyben a tanulás, az értékelés és az intézményi működés átfogó újragondolásának kihívásává vált. Írásunk az OECD Digital Education Outlook 2026 című, 2026 januárjában megjelent nemzetközi jelentésére épül, mely generatív mesterséges intelligencia oktatási hatásait vizsgálja nemzetközi empirikus kutatások alapján. A jelentés azt elemzi, hogyan befolyásolja a GenAI a tanulási eredményeket, a feladatmegoldási teljesítményt, a metakognitív folyamatokat, a tanári autonómiát és az oktatási rendszerek irányítását, valamint milyen feltételek mellett támogatja a valódi tudásépülést. Kiemelt figyelmet fordít a pedagógiailag tervezett alkalmazásra, az értékelési rendszerek átalakulására és a 2030-ig kirajzolódó kompetenciakövetelményekre. Írásunk célja, hogy az OECD jelentés kutatási eredményeire támaszkodva az áttekintés igényével bemutassuk a generatív MI oktatási integrációjának napjainkra jellemző fő dilemmáit, és feltárjuk magyar oktatásügyet közvetlenük érintő következményeit. Külön figyelmet szentelünk a tanulási minőség, a tanári szakmai autonómia, az értékelési kultúra és a szakpolitikai keretalkotás kérdéseinek, melyek a felelős és minőségközpontú tovább haladás lehetséges irányait a jelentés szerint meg fogják határozni – meggyőződésünk szerint Magyarországon is.

Az OECD Digital Education Outlook című kiadványsorozata a digitális átalakulás oktatásra gyakorolt hatásainak nemzetközi elemzésére jött létre. Indulását az a felismerés vezérelte, hogy a digitalizáció az oktatásban is alapvető szerkezeti változásokat indít el: az adatok egyre meghatározóbb szerepet kapnak az oktatási rendszerek és intézmények irányításában, a szakpolitikai beavatkozások célzásában és az innováció ösztönzésében. A mesterséges intelligenciával támogatott technológiai eszközök mind gyakoribbá válnak az osztályteremben és az otthoni tanulásban, miközben az oktatástechnológiai vállalatok új megoldásokat fejlesztenek. Az oktatás módja és tanulási élménye gyors ütemben alakul át, ami egyaránt jelent lehetőségeket és kihívásokat a szakpolitikai döntéshozók és az érintettek számára. A 2021-ben indult, s eddig három részt megért sorozat célja, hogy átfogó és nemzetközi összehasonlító referenciapontot nyújtson az oktatáspolitikai szakemberek és kutatók számára a digitális technológia és az adatalapú működés oktatási alkalmazásának legújabb trendjeiről és szakpolitikai irányairól (OECD Shaping Digital Education, 2023, OECD Digital Policy Outlook 2025).

Hogyan használják az európai diákok a mesterséges intelligenciát tanulás közben? (2024) - Mit használ jelenleg mesterséges intelligencia-alkalmazásokat, amikor az iskolán kívül tanul, és nem a tanárai irányítása mellett?

Keletkezési háttér, intézményi és tudományos kontextus

A 2021-es OECD Digital Education Outlook fókuszában annak vizsgálata állt, hogy miként alakítják át az oktatást az olyan „okos technológiák”, mint a mesterséges intelligencia, a learning analytics, a robotika és más digitális megoldások, különös tekintettel a személyre szabott tanulásra, a speciális tanulási igények támogatására és az innovatív hitelesítési rendszerekre. A 2023-as OECD Digital Education Outlook középpontjában az országok digitális oktatási ökoszisztémáinak összehasonlító elemzése állt, s annak vizsgálata, hogy az oktatási rendszerek miként tudják a digitális technológiát és az AI-t megbízható, hatékony és méltányos módon integrálni, s ebben az infrastruktúra, az irányítás, az adatkezelési rendszerek és a tanári digitális kompetenciák milyen szerepet tudnak betölteni.

A 2026-os OECD Digital Education Outlook középpontjában kifejezetten a generatív mesterséges intelligencia (GenAI) áll, amely a kiadvány egyik alapvető tézise szerint az oktatási környezetet a tanításon és tanuláson túl is átalakítja. A 2026-os Outlook az új kutatási eredményeket elemezve azt vizsgálja, milyen feltételek mellett képes a GenAI valódi tanulási támogatást nyújtani, és rámutat arra, hogy pedagógiai iránymutatás nélkül az eszközhasználat pusztán teljesítménynövekedést eredményezhet tényleges tudásgyarapodás nélkül, miközben bemutatja a GenAI szerepét tutorként, partnerként és asszisztensként, valamint összegzi azokat a tervezési és szakmai kritériumokat, amelyek biztosítják hatékony és felelős oktatási alkalmazását.

A kiadvány a Smart Data and Digital Technology in Education: AI, learning analytics and beyond projekt keretében készült, az OECD Centre for Educational Research and Innovation (CERI) szervezésében, az Education and Skills Directorate (EDU) irányítása alatt. A projektet Stéphan Vincent-Lancrin, a CERI helyettes osztályvezetője és vezető oktatásközgazdásza vezette. A projektcsapat tagjai voltak Quentin Vidal (OECD elemző), Yixi Wang (korábbi secondee), Jennifer O’Brien és Federico Bolognesi. A kötet szerkesztője Vincent-Lancrin; az áttekintő fejezet szerzői Vincent-Lancrin és Vidal. A további fejezeteket nemzetközileg elismert kutatók jegyezték, s az interjúfejezetekben is neves szakemberek működtek közre.

A tanulási nyereség és a teljesítmény egyensúlya a generatív mesterséges intelligencia használatában - A zöld görbe a kívánatos állapotot jelzi: a teljesítmény növekedése együtt jár a tanulás mélyülésével. A piros görbe a nem kívánatos helyzetet mutatja: a teljesítmény javulása nem eredményez valódi tudásgyarapodást.

A jelentés szakpolitikai irányultsága és problémamegközelítése

Mint a kiadvány bevezetője hangsúlyozza, hogy a jelentés középpontjában a generatív mesterséges intelligencia a tanulói tudásépítésre, a személyre szabott oktatásra, a tanári autonómiára és az oktatási rendszerek hatékonyságára gyakorolt hatása áll. A dokumentum a pedagógia-első megközelítést tekinti irányadónak, és azt vizsgálja, miként erősítheti a GenAI az emberi szakértelmet, a tanulási mélységet és az oktatási rendszerek minőségét felelős irányítás mellett.

Az OECD Digital Education Outlook 2026 három nagy szerkezeti egységre és összesen tizenhárom fejezetre tagolódik. A részek és fejezetek beosztása nem lineáris technológiai narratívát követ, hanem problémaközpontú elemzést alkalmaz. A szöveg maga sem monografikus, az egyes fejezeteket más-más szerzők jegyzik, az elemzések és következtetések minden esetben kutatási adatokra támaszkodnak. A kötetben interjúk is helyet kaptak, ezek a digitális oktatás terén dolgozó, nemzetközi rangú szakértők – köztük Stanfordon kutató Demszky Dóra – megszólaltatásával engednem szubjektív bepillantást a gyakorlat fontos kérdéseire. A generatív MI megjelenése a könyvben a tanulási folyamatok, az értékelési rendszerek és a pedagógiai döntések kontextusában kerül értelmezésre. A dokumentum a technológiai fejleményeket a tanulásminőség, a kognitív erőfeszítés, a pedagógiai támogatás és az intézményi irányítás összefüggésében tárgyalja.

Az első rész a generatív mesterséges intelligencia oktatási hatásainak empirikus vizsgálatát mutatja be: elemzi a feladatmegoldási teljesítmény (task performance) és a valódi tanulási eredményesség (learning gains) közötti eltérést, valamint a metakognitív bevonódás (metacognitive engagement), vagyis a gondolkodási folyamat tudatos irányításának szerepét. A második rész a pedagógiai tervezésre és a tanári szerepre fókuszál: tárgyalja az intelligens tutor rendszereket (Intelligent Tutoring Systems), az emberközpontú tervezést (human-centred design), továbbá a tanári szakmai autonómia (teacher agency) kérdését. A teacher agency a generatív MI használatának kontextusában a tanári szakmai autonómia, döntési kompetencia és szakmai mozgástér összességét jelenti. A dokumentum részletesen tárgyalja a teacher-AI teaming jelenségét is, amely a pedagógus és a generatív MI rendszerek együttműködésének szervezeti és pedagógiai dimenzióit írja le. A forrás nem használja a „co-agency” kifejezést, ezért a pontos terminológia a tanári autonómia és a tanár–MI együttműködés fogalmain alapul. A harmadik rész rendszerszintű perspektívát ad: vizsgálja a generatív MI felsőoktatási alkalmazását, az értékelési kultúra átalakulását és a tudományos kutatásban betöltött szerepét.

Az Outlook 2026 a generatív MI oktatási alkalmazásait nemzetközi adatok, empirikus kutatások és rendszerszintű elemzések alapján értelmezi. A jelentés a tanulási folyamatokra, a pedagógiai gyakorlatra és az oktatási rendszerek működésére gyakorolt hatásokat egységes keretben vizsgálja, és a generatív MI-t az oktatási innováció szélesebb kontextusában helyezi el. Hivatkozik a TALIS 2024 (Teaching and Learning International Survey) adataira, amelyek szerint a pedagógusok jelentős része már használ generatív MI-eszközöket a tanítás előkészítésében, az értékelésben vagy a tanulói támogatásban. A dokumentumban szerepel egy törökországi mezőnykísérlet, amely a generatív MI rövid távú teljesítményhatásait vizsgálta. Megjelennek amerikai kutatások a kognitív és metakognitív folyamatokról, továbbá kínai felsőoktatási vizsgálatok, köztük Fan et al. (2025) és Huang et al. (2025) tanulmányai, amelyek a tanulási eredmények és a metakognitív aktivitás összefüggéseit elemezték.

Az SPL funkcióinak áttekintése - Az SPL-rendszer fő működési elemei: az automatizált forgatókönyv-építés (külső ciklus), az interaktív szokratikus párbeszédmotor (belső ciklus), az interaktív tanulási módok, a fejlett pedagógiai és értékelési logika, valamint a több szakterületre kiterjedő skálázhatóság és adaptivitás alapjai.

A módszertani háttér többféle kutatási megközelítést integrál. A jelentés hivatkozik randomizált kontrollvizsgálatokra, designalapú fejlesztésekre, kvalitatív elemzésekre és szakpolitikai keretvizsgálatokra. A különböző módszerek együttes alkalmazása a generatív MI oktatási hatásainak összetett természetéből következik. A dokumentum szerkezete tükrözi ezt a pluralitást, és az empirikus eredményeket összeveti a pedagógiai és irányítási kérdésekkel. A kötetet gazdag vizuális apparátus egészíti ki: számos ábra és táblázat támogatja az elemzés értelmezését.

Fő empirikus megállapítások - a tanulási paradoxon

A generatív MI terjedésének a jelentésben való leírása a technológiai adaptáció gyorsaságára és az intézményi alkalmazkodás folyamatára fókuszál. A dokumentum rámutat arra, hogy a pedagógiai gyakorlat, az értékelési rendszerek, az adatkezelési normák és az etikai keretek folyamatos fejlesztést igényelnek a generatív MI használatának fényében. A használat intézményi és egyéni szinten egyaránt megfigyelhető, a szabályozási és irányítási keretek pedig párhuzamosan formálódnak.

Az Outlook 2026 fontos sajátossága a fogalmi precizitás és következetesség. A jelentés terminológiája pontosan elkülöníti a teljesítménymutatókat és a tanulási eredményeket, a pedagógiai eszközhasználatot és a szakmai döntéshozatalt, valamint a tanári autonómiát és a technológiai támogatást. A dokumentum ezzel olyan elemzési keretet alakít ki, amelyben a generatív MI használata az oktatás komplex rendszerében, többdimenziós módon értelmezhető.

A jelentés egyik központi megállapítása, hogy különbség lehet a feladatmegoldási teljesítmény (task performance) és a tartós tanulási eredmény (learning gains) között. A generatív mesterséges intelligencia képes javítani az azonnali feladatteljesítményt – például jobb szövegek vagy pontosabb válaszok születnek –, ám ez nem mindig jár együtt mélyebb megértéssel vagy hosszú távon megmaradó tudással.

A generatív mesterséges intelligencia lehetséges szerepei az együttműködésen alapuló tanulás támogatásában -  Információs társként, személyre szabott tananyagok készítőjeként, feladatvégrehajtóként, tanári vagy facilitátori szerepben, tutor vagy párbeszédpartnerként, illetve mesterséges csoporttagként működhet közre.

Az Outlook 2026 ezt a teljesítmény és a valódi tanulás közötti eltérésként írja le. Ezt támasztja alá egy a jelentésben bemutatott törökországi kísérlet is: a GPT-4 használata jelentősen növelte a rövid távú eredményeket, különösen tutor jellegű beállítás mellett, ám amikor az eszközt elvették, a korábban MI-t használó tanulók gyengébben teljesítettek. Ez arra utal, hogy a technológia által támogatott siker nem mindig épül be tartós tudássá. A jelentés hangsúlyozza a metakognitív bevonódás (metacognitive engagement) szerepét, vagyis azt, hogy a tanuló mennyire tudatosan irányítja saját gondolkodását. Ha az MI kész megoldásokat ad, a mentális erőfeszítés csökkenhet; ha viszont pedagógiailag strukturált módon alkalmazzák, támogathatja a mélyebb tanulást.

A „tanulási paradoxon” (the paradox of generative AI in skill acquisition) kifejezés a fenti empirikus eredmények összefoglaló megjelöléseként használható: a generatív MI jelentős rövid távú teljesítményjavulást eredményezhet, miközben a tartós tudásmegtartás és a fogalmi mélység alakulása differenciált képet mutat. A jelentés hangsúlyozza, hogy a pedagógiai konfiguráció, az eszközhasználat módja és a tanulási környezet szerkezete meghatározó tényező a hosszú távú eredmények szempontjából.

Az empirikus fejezetek azt igazolják, hogy a generatív MI hatása nem értelmezhető egységes mutatók mentén. A rövid távú teljesítménymutatók, a metakognitív folyamatok, valamint a tartós tanulási eredmények eltérő irányú változásokat mutathatnak. A dokumentum ezzel olyan analitikus keretet alakít ki, amelyben a generatív MI oktatási alkalmazásai mérhető, számszerűsíthető adatok és kognitív folyamatokra vonatkozó kutatások alapján értékelhetők.

„Sok tanár kísérletezik, de sokan még mindig nem tekintenek magukra kreatív személyként. Általános nézet – a pedagógusok körében is –, hogy a gyerekek kreatívabbak a felnőtteknél. Ez a meggyőződés problematikus. Sokan úgy gondolják, hogy a gyerekek szabadabbak, többet játszanak, ezért kreatívabbak. Valójában azonban összekeverik a kreativitást a puszta eredetiséggel. Igaz, hogy a fiatalok gyakran állnak elő meghökkentő, merész ötletekkel. Ahogy azonban idősebbek leszünk, megismerjük a világ korlátait és realitásait. A kreativitás viszont nem korlátlan újdonság, hanem korlátok közé ágyazott eredetiség: az adott feladathoz illeszkedőnek kell lennie, és tudásban kell gyökereznie.” Ron Beghetto, Arizonai Állami Egyetem

Újdonságok: pedagógiailag tervezett generatív MI

Az Outlook 2026 egyik hangsúlyos újítása a generatív mesterséges intelligencia eszközeinek pedagógiai konfiguráció szerinti megkülönböztetése. A dokumentum világosan elkülöníti a general-purpose GenAI tools, vagyis az általános célú chatbotokat és nyelvi modelleket azoktól a rendszerektől, amelyeket kifejezetten oktatási célra fejlesztettek vagy oktatási környezetben, pedagógiai struktúrába ágyazva alkalmaznak. A jelentés elemzése szerint a tanulási eredmények alakulása jelentős mértékben függ az eszköz tervezési logikájától és pedagógiai beágyazottságától.

A dokumentum külön fejezetben tárgyalja az Intelligent Tutoring Systems (ITS) fejlődését és szerepét. Az intelligens tutor rendszerek a tanulói válaszokra reagáló, adaptív visszajelzést nyújtó, strukturált tanulási útvonalat támogató megoldásokként jelennek meg (B. Rodrigues, R. Pinto, G. Gonçalves, 2025). A generatív MI integrációja ezekben a rendszerekben a személyre szabott visszacsatolás és a differenciált tanulási támogatás lehetőségét bővíti. A jelentés bemutatja, hogy az oktatási célra konfigurált eszközök esetében a tanulási eredmények stabilabb mintázatot mutatnak, különösen akkor, ha a rendszer a tanulói gondolkodási folyamatokat irányított kérdésekkel és lépésenkénti támogatással segíti.

A pedagógiai tervezés kérdése a dokumentumban a közös alkotás (co-creation) és a szakmai bevonás fogalmához kapcsolódik.  A jelentés szerint a generatív mesterséges intelligencia oktatási alkalmazásai akkor működnek hatékonyan, ha nem pusztán technológiai fejlesztés eredményeként kerülnek be az iskolákba, hanem a pedagógusok és a tanulók aktív részvételével formálódnak. A „teachers and students co-created” megközelítés azt jelenti, hogy a tanárok és diákok nem csupán felhasználói az eszközöknek, hanem visszajelzéseikkel, tapasztalataikkal és igényeikkel alakítói is azoknak. A jelentés szerint e két perspektíva integrálása javítja az eszközök használhatóságát, pedagógiai relevanciáját és tanulástámogató funkcióinak pontosságát. A közös tervezés így nem csupán technikai fejlesztési módszer, hanem pedagógiai alapelv: biztosítja, hogy a generatív MI valóban a tanulási folyamat szolgálatába álljon, és illeszkedjen az adott oktatási környezet szakmai kultúrájához.

MI-megoldás az esszék javításának támogatására - Egy alkalmazás digitalizálja a tanulók kézzel írt dolgozatait, majd internetkapcsolat esetén feltölti azokat egy szerverre, ahol természetesnyelv-feldolgozó rendszer (NLP) automatikus, strukturált visszajelzést generál az írás formai, tematikus és retorikai jellemzőiről, valamint a szöveg kohéziójáról.

A generatív MI pedagógiai alkalmazásának egyik központi eleme a tanári autonómia (teacher agency) megőrzése: ezt a jelentés VII. fejezete a generatív mesterséges intelligencia oktatási integrációjának kulcstényezőjeként tárgyalja. A tanári autonómia ebben az értelmezésben nem pusztán módszertani szabadságot jelent, hanem a pedagógus azon képességét, hogy tudatos szakmai döntéseket hozzon a digitális eszközök használatáról: mikor, milyen célra és milyen mértékben vonja be a generatív MI-t a tanítási folyamatba. A jelentés hangsúlyozza, hogy a GenAI nem helyettesíti a pedagógiai ítélőképességet, hanem olyan környezetet teremt, amelyben a tanári döntések súlya és felelőssége megnő.

A dokumentum részletesen elemzi a tanár–MI együttműködés (teacher-AI teaming) fogalmát is. Ez az együttműködés nem technikai integrációt jelent, hanem valódi munkamegosztást: a generatív MI támogathatja az óratervezést, a differenciált feladatkészítést, a visszajelzések megfogalmazását vagy az értékelési folyamat egyes elemeit, miközben a tanár határozza meg a pedagógiai célokat, a tanulási elvárásokat és az értelmezési kereteket. A jelentés szerint azok a modellek bizonyulnak eredményesebbnek, ahol a tanár aktív irányító szerepben marad, és az MI használata illeszkedik a tanulási folyamat strukturált felépítéséhez.

A tanári autonómia jelentősége különösen akkor válik láthatóvá, amikor a generatív MI képes kész megoldásokat előállítani. Ilyen helyzetben a pedagógus feladata annak meghatározása, hogy az eszköz a gondolkodást támogassa, ne pedig kiváltsa. A jelentés arra is rámutat, hogy a tanári kompetenciák fejlesztése – beleértve a digitális és etikai tudatosságot – alapfeltétele annak, hogy a generatív MI valóban a tanulás minőségét szolgálja. A teacher agency tehát a felelős, pedagógiailag megalapozott technológiahasználat garanciája az oktatásban. Ebben az értelmezési keretben a generatív MI olyan támogató eszközként jelenik meg, amely a pedagógus szakmai döntéseit kiegészíti, a tanulási folyamat szervezésében és az értékelésben új lehetőségeket nyit.

A dokumentum kitér arra is, hogy az oktatási célra tervezett rendszerek fejlesztése során kiemelt figyelmet igényel az adatvédelem, az etikai megfelelés és az átláthatóság. A tanulói adatok kezelése, a modell működésének érthetősége és a döntéstámogató funkciók felelősségi keretei a pedagógiai alkalmazás integráns részét képezik. A jelentés ezeket a kérdéseket a szakpolitikai és intézményi irányítás összefüggésében vizsgálja.

A komplementaritás paradigmája a tanári autonómia és az automatizáció tengelyén - A bal felső mező a komplementaritás paradigmáját mutatja, ahol az MI-modellek a gondolkodás reprezentációinak átalakítását támogatják, és a tanár aktív szereplő marad (H → A). A jobb alsó mező a helyettesítési paradigmát jelzi, ahol az MI az emberi feladatok automatizált kiváltására törekszik (H ← A). A bal alsó terület a hagyományos oktatástechnológiák világát reprezentálja, alacsony automatizációval és korlátozott transzformatív hatással.

A pedagógiailag tervezett generatív MI rendszerek a dokumentumban a tanulási minőség javításának kontextusában jelennek meg. A strukturált, tanulásorientált konfiguráció hozzájárulhat a metakognitív folyamatok aktiválásához, a problémamegoldó gondolkodás támogatásához és a személyre szabott visszajelzés erősítéséhez. A jelentés ezzel a generatív MI alkalmazását a tanulási folyamat tudatos tervezésének és a pedagógiai innovációnak a keretébe helyezi.

Rendszerszintű hatások és hosszú távú perspektíva

Az Outlook 2026 a generatív mesterséges intelligencia hatásait nem kizárólag osztálytermi szinten vizsgálja, hanem egy, az oktatási rendszerek egészére kiterjedő elemzés keretében. A dokumentum értelmezési kerete a tanulási folyamatok, az intézményi irányítás, a szakpolitikai szabályozás és a digitális infrastruktúra összefüggéseit egyaránt figyelembe veszi. A generatív MI beépülése az oktatásba strukturális következményekkel jár, amelyek a tanulási eredményektől az irányítási mechanizmusokig terjednek.

A jelentés központi elemzési szempontja itt a feladatmegoldási teljesítmény (task performance) és a tartós tanulási eredmény (learning gains) viszonya. A feladatmegoldási teljesítmény azt mutatja, hogy a tanuló egy adott helyzetben milyen jól old meg egy konkrét feladatot, míg a tanulási eredmény a hosszabb távon megmaradó tudást és megértést jelenti. A generatív mesterséges intelligencia jelenléte átalakítja az értékelési rendszereket, a vizsgagyakorlatot és a tantervi elvárásokat, ezért újra kell gondolni, mit és hogyan mérünk. A dokumentum kiemeli az autentikus tudásmérés, vagyis a valódi megértést és alkalmazási képességet vizsgáló értékelési formák jelentőségét. A generatív MI használata így arra készteti az oktatási rendszereket, hogy a látható teljesítmény és a mélyebb tudás közötti kapcsolatot tudatosan újraértelmezzék.

Ember–MI automatizációs modell - A bal oldalon a tanár kizárólagos irányítása jelenik meg, ahol a technológia legfeljebb támogató információt nyújt. Ezt követi a tanári asszisztencia, ahol a tanár továbbra is teljes kontrollt gyakorol, a technológia pedig kiegészítő szerepet tölt be. A középső szakaszban részleges és feltételes automatizáció látható: a technológia egyes vagy tágabb feladatköröket önállóan kezel, miközben a tanár monitoroz, és szükség esetén visszaveheti az irányítást. A jobb oldalon a magas és teljes automatizáció jelenik meg, ahol a technológia a feladatok többségét, illetve mindegyikét önállóan végzi, a tanári beavatkozás  csak kivételes vagy egyáltalán nem szükséges.

A rendszerszintű hatások egyik területe a kognitív infrastruktúra kérdése. A jelentés nem használja szó szerint ezt a fogalmat, ugyanakkor tartalmilag tárgyalja azt a jelenséget, hogy a generatív MI beépül a tanulási környezetekbe, mint digitális támogató struktúra. A tanulói információfeldolgozás, az írásbeli teljesítmény és a problémamegoldás szerveződése átalakul a generatív rendszerek elérhetőségének fényében. A tanulási folyamat technológiai környezete a tanulás feltételrendszerének részévé válik.

A jelentés kitér a digitális egyenlőtlenségek kérdésére is. A generatív MI hozzáférhetősége, az eszközök minősége és a digitális kompetenciák szintje eltérő mértékben áll rendelkezésre az egyes országokban és intézményekben. A szakpolitikai irányítás feladata a hozzáférési különbségek mérséklése és az inkluzív digitális környezet kialakítása. A dokumentum a digitális infrastruktúra, a pedagógusképzés és a tanulói támogatás összekapcsolását javasolja a fenntartható bevezetés érdekében.

2030-ra előre tekintve az Outlook 2026 nem egy részletes, számszerű előrejelzési modellt ad, hanem irányjelző jövőképet vázol fel a generatív mesterséges intelligencia oktatási szerepéről. A dokumentum szerint a következő években – a 2030-ig tartó időszakban – a generatív MI az oktatási rendszerek strukturális részévé válhat: beépülhet a tanulástámogatásba, az értékelésbe, a kutatásba és az intézményi működésbe. A jelentés nem a pedagógushiány csökkenését prognosztizálja, hanem azt hangsúlyozza, hogy az MI eszközök bizonyos terheket mérsékelhetnek, például az adminisztráció és a visszajelzés területén.

A 2030-as horizont kapcsán a dokumentum kiemeli a nyelvi akadályok enyhülését is a tudományos és felsőoktatási térben: a generatív MI támogathatja a fordítást, a tudományos szövegek szerkesztését és a nemzetközi együttműködéseket. A jövőkép központi eleme azonban a pedagógiailag irányított, felelős integráció: a jelentés szerint 2030-ra azok az oktatási rendszerek lehetnek sikeresek, amelyek a generatív MI-t a tanulási minőség, az egyenlő hozzáférés és a tanári szakmai autonómia erősítésének keretében alkalmazzák.

A JeepyTA által javasolt vitaindító kérdések a kvalitatív adatok kódolásáról a „Kvantitatív etnográfia és episztemikus hálózatelemzés” kurzus heti megbeszéléséhez A rendszer a heti olvasmányok alapján strukturált témákat és irányító kérdéseket fogalmaz meg, amelyek a k- ódolási rendszer kialakítására, az automatizáció és a szakértői értelmezés egyensúlyára, az etikai megfontolásokra, valamint a kódolás következetességére és integritására irányulnak.

A rendszerszintű elemzés egyik kulcseleme a szakpolitikai keretalkotás, vagyis annak meghatározása, milyen irányítási, szabályozási és szakmai elvek mentén épül be a generatív MI az oktatási rendszerekbe. Az Outlook 2026 hangsúlyozza, hogy a kormányzati és intézményi döntéshozatal nem korlátozódhat technikai bevezetési kérdésekre: világos etikai normákra, átlátható adatkezelési szabályokra és egyértelmű pedagógiai iránymutatásokra van szükség - ahogy az MI az oktatási adminisztrációba való alkalmazásának területén is.

A jelentés szerint a generatív MI integrációja akkor tekinthető fenntarthatónak, ha a szabályozás összekapcsolódik a szakmai fejlesztéssel: a pedagógusképzés, a digitális kompetenciafejlesztés és az intézményi minőségbiztosítás egységes keretben működik. A szakpolitikai koordináció célja kettős: egyrészt biztosítani kell a tanulási minőség megőrzését és erősítését, másrészt garantálni kell a hozzáférési egyenlőséget, hogy a generatív MI ne mélyítse tovább a digitális különbségeket. Az Outlook jövőképe szerint 2030 felé haladva azok az oktatási rendszerek lesznek stabilak és innovatívak, amelyek a technológiai fejlődést tudatos irányítási és etikai keretek között valósítják meg.

„A motiváció és a kapcsolatépítés olyan kulcstényezők, amelyeket a GenAI valószínűleg soha nem tud olyan jól megvalósítani, mint az ember. Bár további kutatások szükségesek, az oktatási szakértők egyetértenek ebben, és intuitíve is belátható. Az MI nem válik példaképpé. A diákok megoszthatnak vele olyan dolgokat, amelyeket emberrel nem, mert kevésbé tartanak a sebezhetőségtől. Ugyanakkor az érzelmi jóllét támogatására és a felelősség kialakítására az ember alkalmasabb. Az MI esetében nincs valódi elszámoltathatóság. A szociális-érzelmi készségek is inkább emberi tanárral és társakkal fejlődnek. A tanulás jóval több puszta ismeretszerzésnél.” Dora Demszky, Standford Egyetem

A felsőoktatás átalakulása generatív MI használatával

Az Outlook 2026 önálló fejezetekben foglalkozik a generatív mesterséges intelligencia intézményi, s ezen belül kiemelten A felsőoktatási alkalmazásával. A dokumentum szerint a felsőoktatásban a technológiai adaptáció különösen intenzív, mivel a hallgatók és az oktatók egyaránt magas digitális kompetenciaszinttel rendelkeznek, és az írásbeli, kutatási és projektalapú feladatok aránya jelentős. A generatív MI beépülése a felsőoktatási gyakorlatba több dimenzióban értelmezhető: a tanulási folyamatok, az értékelési kultúra, a kutatási tevékenység és az intézményi szolgáltatások szintjén-

A dokumentum kitér az akadémiai integritás kérdésére. A generatív MI használata új etikai és értékelési dilemmákat vet fel, különösen az önálló hallgatói teljesítmény és a technológiai támogatás határainak meghatározásában. A tanulásmódszertan és az értékelési rendszer átalakulása központi elem. A generatív MI jelenléte mellett az oktatási rendszereknek olyan értékelési formákat kell erősíteniük, amelyek a mély megértést, az alkalmazási képességet és a problémamegoldást mérik. A hagyományos, reproduktív tudást ellenőrző vizsgák mellett előtérbe kerülnek az autentikus, komplex feladatok. Az integritási kérdések a beadandó dolgozatok, esszék, kutatási jelentések és vizsgafeladatok kontextusában jelennek meg, és az értékelési módszerek átgondolását igénylik. A jelentés összegzése szerint 2030 felé az oktatás akkor marad minőségi és hiteles, ha a generatív MI használata tudatos pedagógiai keretben, a kompetenciák fejlesztését szolgálva történik. A jelentés hangsúlyozza az átlátható irányelvek, az intézményi szabályozás és a hallgatói tájékoztatás fontosságát.

Egy nagy állami egyetem kurzusainak vetületei (projekciói) - Történeti kurzusfelvételi mintázatok alapján, neurális hálózati reprezentációs modell (kurzusvektor-beágyazás) segítségével készült. A pontok az egyes kurzusokat jelölik, amelyek tematikus és szervezeti közelség szerint klaszterekbe rendeződnek. A középpontban elsősorban az alapképzéshez tartozó, nagy hallgatói létszámú kurzusok koncentrálódnak, míg a periférián inkább specializált, felsőbb éves vagy graduális tárgyak jelennek meg. A vizualizáció kirajzolja a STEM és a bölcsészettudományi területek közötti strukturális mintázatokat, valamint az egyes karok és diszciplínák közötti kapcsolódási pontokat.

A dokumentum tárgyalja a generatív MI szerepét a kutatásban is. A nyelvi modellek hozzájárulhatnak a szakirodalmi áttekintések készítéséhez, a szövegszerkesztéshez és a nyelvi akadályok csökkentéséhez. A jelentés hivatkozik olyan előrejelzésekre, amelyek szerint a generatív MI csökkentheti a nyelvi korlátokat a nemzetközi kutatási együttműködésekben. A kutatási integritás, az átláthatóság és a szerzőségi felelősség kérdései a felsőoktatási szabályozás részévé válnak.

Az oktatói szerep változását elemezve a jelentés kiemeli, hogy a generatív MI használata a felsőoktatásban a tanulási folyamat szervezésének és az értékelési stratégiák kialakításának újragondolását teszi szükségessé. Az oktatók szakmai autonómiája és döntési kompetenciája a digitális eszközhasználat kontextusában értelmeződik. A teacher agency és a teacher-AI teaming fogalmai a felsőoktatásban is relevánsak, különösen a kutatási és oktatási feladatok integrációjában.

Az Outlook 2026 záró fejezeteiben a generatív mesterséges intelligencia már kifejezetten a jövőbeni kompetenciakövetelmények alakító tényezőjeként jelenik meg. 2030 felé haladva egyre inkább alapvető készséggé válik a digitális és MI-műveltség, vagyis annak képessége, hogy a tanulók értsék a generatív rendszerek működésének logikáját, kritikusan értékeljék azok kimeneteit, és tudatosan használják őket tanulási és munkafolyamatokban. A hangsúly a kritikai gondolkodáson, az önszabályozó tanuláson és a metakognitív tudatosságon van: a tanulóknak nem pusztán alkalmazniuk kell az MI-t, hanem érteniük is kell annak korlátait és torzításait.

„Az írásfeladat során az MI csak egyszer avatkozik be: a vizsgázó kap egy témát, ír, majd az MI arra kéri, hogy egy adott részről írjon bővebben. A beszédfeladat ezzel szemben párbeszéd, több interakcióval, ami nehezebbé teszi a lebonyolítást. Az MI-nek „értenie” kell a beszélőt, különösen, ha nem anyanyelvi, eltérő akcentussal és nyelvi szinten beszél. Biztosítani kell, hogy felismerje, értékelje a választ, és megfelelően reagáljon. Ez lényegesen összetettebb, mint az írásfeladat. Tudomásom szerint most először alkalmaznak milliós létszámú, nagy tétű vizsgában ilyen interaktív, adaptív beszédfeladatot.” Alina von Davier, Oxfordi Egyetem

Az MI pedagógiailag irányított integrációja – jövőkép Magyarország számára is

Az OECD Digital Education Outlook 2026 tanulságai alapján A következő évekre előre tekintve a magyar oktatásügy számára is programszerű, de a jelenlegi, az MI oktatási bevezetésének kezdeti szakaszában megrekedt hazai stratégiáktól eltérő irány rajzolható ki. Ennek középpontjában a mesterséges intelligencia pedagógiailag irányított integrációja áll, ahol a cél nem csak eszközhasználat támogatása, hanem a tanulási minőség erősítése is.

Ennek első pillére az értékelési kultúra megújítása: tudatosan külön kell választani a feladatmegoldási teljesítményt és a tartós tanulási eredményt, és olyan autentikus tudásmérési formákat kell előtérbe helyezni, amelyek a megértést, az alkalmazási képességet és a problémamegoldást vizsgálják. Fontos, hogy ez ne rekedjen meg az elvi követelményként való rögzítés szintjén, hanem induljon meg az előkészítő munka a változások szakmai kidolgozására és tényleges bevezetésére is.

A második pillér a tanári szakmai autonómia megerősítése. A generatív MI csak akkor válik minőségerősítő tényezővé, ha a pedagógusok képesek tudatos döntéseket hozni használatáról. Ehhez rendszerszintű – ingyenes, és a pedagógus-továbbképzés rendszeréről szóló kormányrendelet szerinti kreditértékkel elszámolt - képzési és továbbképzési programokra, digitális és MI-műveltségi fejlesztésre van szükség. A tanár–MI együttműködés olyan modelljeit kell kialakítani, amelyek támogatják a differenciálást és a személyre szabott visszajelzést, miközben megőrzik a tanulói gondolkodási erőfeszítést.

A harmadik pillér a világos szakpolitikai és etikai keret kialakítása. Egységes adatvédelmi szabályozásra, átlátható intézményi irányelvekre és a hozzáférési egyenlőtlenségek mérséklésére van szükség. A generatív MI oktatása – a köznevelésben alapozó, a felsőoktatásban mélyebb, diszciplináris beágyazottságú formában – a jövőbeni kompetenciák részévé kell váljon.

 A mesterséges intelligenciával kapcsolatos aktivitás változása a tudományterületeken A függőleges tengely az MI-hez kötődő publikációs vagy kutatási aktivitás százalékos arányát jelzi, míg a vízszintes tengely az időbeli alakulást mutatja az 1980-as évektől napjainkig. A görbe mérsékelt, fokozatos növekedést jelez a 2000-es évekig, majd 2015 után markáns, exponenciális jellegű emelkedés figyelhető meg. Az összesített változás több mint 1200%-os növekedést mutat, ami az MI széles körű tudományos diffúziójára és interdiszciplináris térnyerésére utal.

A magyar oktatásügy számára tehát az irány: minőségközpontú, pedagógiailag szabályozott, szakmailag támogatott MI-integráció, amely a tanulási mélységet, az egyenlő hozzáférést és a tanári szakmai felelősséget erősíti 2030 felé. Ezt azonban csak egy konzisztens, és a gyakorlatban végre is hajtott, jövőközpontú  politikát követve lehet megvalósítani.


OECD (2026), OECD Digital Education Outlook 2026: Exploring Effective Uses of Generative AI in Education, OECD Publishing, Paris, https://doi.org/10.1787/062a7394-en


Az írás emberi és mesterséges intelligencia együttműködésével készült.


Az MI-generált tartalmak jelölésének új európai kerete – elkészült az átláthatósági gyakorlati kódex második tervezete

  Az Európai Bizottság 2026 márciusában közzétette az AI Act 50. cikkének végrehajtását támogató gyakorlati kódex második tervezetét , amel...