2025. október 15., szerda

A generatív mesterséges intelligencia a jogtudományi kutatásban és publikációban

 

A generatív mesterséges intelligencia (GMI) megjelenése a jogtudományi kutatás, a jogi publikáció és a jogi elemzés folyamatát is átalakította. A jónéhány éve már jelenlévő legaltech megoldások – az automatizált szerződéskezeléstől az adatbázis-elemzésig – mellett mára a generatív modellek, mint a ChatGPT, a Gemini vagy a Claude, a jogi szakmai és kutatói gondolkodás szerves részévé váltak. Írásunk célja, hogy egy most megtartott szakmai előadás és annak kutatásmódszertani előzményei alapján áttekintő képet adjon a mesterséges intelligencia jogtudományi felhasználásának lehetőségeiről, a kapcsolódó etikai, adatvédelmi és felelősségi kérdésekről, a nemzetközi és hazai gyakorlat alakulásáról.

A technológiai fejlődés hatásait végső soron a tudományos integritás szemszögéből mutatjuk be, arra keresve a választ, hogyan lehet a generatív MI-t úgy beépíteni a jogi kutatás és publikálás folyamatába (is), hogy az a tudományos hitelességet ne gyengítse, hanem erősítse.

Generatív mesterséges intelligencia és legaltech

A jogtudományi kutatás és a jogi gyakorlat digitalizációja két, látszólag rokon, valójában eltérő technológiai irány mentén halad: a legaltech és a generatív mesterséges intelligencia között. A legaltech célja az automatizálás – az ismétlődő feladatok kiváltása sablonokkal és adatvezérelt folyamatokkal. Ilyenek például a szerződésgenerálók, a verzió- és ügykezelő rendszerek, vagy a peres kimeneteket előrejelző algoritmusok, amelyek strukturált jogi adatbázisokra építenek. A generatív MI ezzel szemben nyelvi mintázatokból tanul, és új tartalmakat hoz létre – szöveget, képet, kódot, akár teljes elemzéseket. Míg a legaltech a jogi logikát kódolja, a GMI az emberi gondolkodás formáit imitálja.

A GPT-technológia alapja a mélytanulás: a modell több milliárd szókapcsolatot elemzett tudományos, szakmai és köznyelvi forrásokból, így képes a szövegben rejlő árnyalatokat és szándékokat felismerni. A rendszer nem értelmez, hanem valószínűségi alapon generál. Ebből adódik a kettős természet: a válaszok gyakran kreatívak és koherensek, de nem mindig faktualizálhatók. A tudományos közegben ez különösen érzékeny: a jogi vagy kutatási kontextusban a pontatlanság nemcsak hibát, hanem jogi kockázatot is jelenthet.

A generatív modellek előnye mégis vitathatatlan. A kutatói munka egyik legnagyobb kihívása az idő: a forráskutatás, az adatrendezés és a nyelvi finomítás órákat, olykor napokat vesz igénybe. A GMI ezeket percek alatt képes elvégezni, összegzéseket, fordításokat, szerkezetjavaslatokat készítve. A többnyelvűség révén megkönnyíti a nemzetközi publikációs térbe való belépést, ami különösen fontos a kisebb tudományos közösségek számára.

Azonban az előnyökkel együtt nő a felelősség is. A GMI-rendszerek hajlamosak a „hallucinációra”, vagyis nem létező források, fiktív hivatkozások előállítására. Ez a tudományos integritás egyik legnagyobb veszélye. A modell által generált információ azonban nem tekinthető sem hitelesnek, sem a kutatás és információfeldolgozás szakmai normái szerint megalapozottnak – minden adatot, hivatkozást vagy idézetet a kutatónak kell ellenőriznie. A forráshitelesség, az adatvédelem és a szerzői jog kérdése ezért az MI-használat szerves része. Az előadás hangsúlyozza, hogy a ChatGPT vagy bármely más modell nem helyettesíti a jogi szakértelmet és semmiképpen nem adhat(na) jogi tanácsot.

A legaltech és a GMI különbségének megértése azért is fontos, mert a két irány eltérő felelősségi és etikai keretrendszert kíván. A legaltech folyamatok (és a mögöttük álló, a technikát használó cég, ügyvédi iroda vagy szervezethez kötött célalkalmazások) eredménye ellenőrizhető: ismert adatalapokon, rögzített szabályok szerint, magas szintű adatvédelmi és szakmai titoktartási követelmények között működnek. A GMI viszont valószínűségi természetű külső rendszer, amit a kutató nem tud ellenőrzése alatt tartani, a rendszer által létrehozott eredményt pedig nem csak kritikusan kell vizsgálnia, de minden esetben validálnia is kell. A jogi és tudományos közösség előtt tehát nem az a kérdés, hogy használható-e a generatív MI, hanem hogy hogyan és milyen feltételek mellett illeszthető be a felelősségteljes kutatási gyakorlatba. A cél nem az automatizálás, hanem az emberi gondolkodás támogatása – annak érdekében, hogy a technológia a tudományos tudás kiterjesztésének, ne torzításának eszköze legyen.

A ChatGPT és a kutatói munka új dimenziói

A ChatGPT és más, hasonló chatbot alapon működő nagy nyelvi modellek megjelenése a kutatói munka történetének egyik leggyorsabban terjedő technológiai fordulópontja. Míg a legaltech a háttérben dolgozó infrastruktúra maradt, a ChatGPT közvetlenül az alkotás folyamatába lépett be: a gondolatok megszületésének, a szövegek formálásának és a tudományos kommunikációnak az aktív részesévé vált. Az OpenAI GPT-5 modellje – amely 2025 nyarától az alapértelmezett verzió – már nem csupán szövegalkotó, hanem komplex kutatási platform, amely képes webes keresésre, mélykutatásra, képgenerálásra, hangalapú interakcióra és saját „projektek” létrehozására. Ezzel az MI valóban tudományos asszisztenssé vált: segít rendszerezni a gondolatokat, összegyűjteni a releváns forrásokat és megfogalmazni a tudományos érveket.

A ChatGPT működésének alapja a promptolás – vagyis a felhasználói utasítás megfogalmazása. A modell nem értelmez, hanem valószínűségi mintázatokból épít fel válaszokat, ezért az eredmény minőségét a kutató instrukciójának pontossága határozza meg. A STAR- és CISCO-modelleket emelhetők ki, mint olyan stratégiák, amelyek a tudományos felhasználás során segítik az MI-t célzottan és átláthatóan működtetni. A jó prompt nemcsak az MI-t irányítja, hanem a kutató gondolkodását is szervezi: világossá teszi a kutatási célt, a kontextust és az elvárt eredményt. A generatív MI-vel való munka így egyszerre technikai és intellektuális kompetencia, amely új kutatói szerepet formál.

A ChatGPT mellett számos alternatíva segíti az – elsősorban angol nyelven folyó - tudományos tevékenységet. Az Anthropic Claude elsősorban strukturált jegyzetelésre és dokumentumelemzésre alkalmas; a Google Gemini a csoportmunkát támogatja, adatfeldolgozási és vizualizációs feladatokat lát el; a Perplexity.ai a legmegbízhatóbb hivatkozás-alapú kereső, amely minden válaszhoz konkrét forráslinket ad; a Consensus az adott kutatási témákban kialakult tudományos egyetértéseket jeleníti meg, így segít elhelyezni az új kutatásokat a nemzetközi szakirodalmi térben. Ezek az eszközök kiegészítik egymást: a ChatGPT a kreatív szövegalkotásban, a Perplexity a forráshitelességben, a Claude és a Gemini pedig az oktatási és elemzési folyamatokban erősek.


A kutató számára a legnagyobb érték a sebesség és a rugalmasság: néhány másodperc alatt készíthet vázlatot, fordíthat absztraktot, vagy rendszerezheti az összegyűjtött adatokat. A többnyelvű képességek különösen előnyösek azoknak, akik angol nyelvű publikációban vesznek részt, de anyanyelvük más. Ugyanakkor a ChatGPT-t nem szabad önálló tudásforrásként kezelni. A modell nem értékel és nem ellenőriz, csak valószínűsíti a leggyakoribb mintázatot. A kutatónak így új típusú felelőssége van: az MI-vel generált tartalmakat ellenőriznie, validálnia kell, és azokat kontextusban kell értelmeznie.

A ChatGPT tehát a jogtudományban sem váltja fel a kutatót, hanem meghosszabbítja a gondolkodását. Az MI-asszisztens nem helyette dolgozik, hanem mellette: gyorsítja az adatfeldolgozást, javaslatokat ad, stilizál, de a döntés és az értékelés mindig emberi kompetencia marad. A jogtudományi kutatásban ez különösen lényeges, hiszen az MI által generált érvek vagy források nem tekinthetők hivatkozási alapnak, csak kiindulópontnak. A ChatGPT így az akadémiai munka új rétegét hozza létre – az ember és gép közötti dialógust, amelynek minőségét a kritikus gondolkodás határozza meg.

A kutatási folyamat és az MI integrációja

A generatív mesterséges intelligencia a kutatás minden szakaszában támogató szerepet játszhat – a kezdeti ötletformálástól a publikációs előkészítésig. Az előadásban bemutatott modell szerint a folyamat hat fő szakaszra bontható: téma- és problémafelvetés, hipotézisalkotás, forráskutatás, vázlat- és szövegalkotás, fordítás és stilizálás, valamint disszemináció. Mindegyik lépésben más-más típusú MI-eszköz használható, és más kockázatokat rejt a beavatkozás mértéke.

A kiindulópont a téma kiválasztása és problémafelvetés, ahol a ChatGPT és a Claude már inspirációs eszközként működnek. A kutató röviden leírhatja érdeklődési körét vagy diszciplínáját, a modell pedig trendeket, kulcsszavakat, kutatási réseket azonosít. Ez különösen a fiatal kutatók számára hasznos, akik még nem látják át a nemzetközi szakirodalom hálózatait. Az MI itt nem dönt, hanem ötletkatalizátorként segít, de a választás mindig a kutatóé marad.

A második szakasz a hipotézisalkotás és kutatási kérdés megfogalmazása, ahol a GMI képes nagymennyiségű szöveg – tanulmányok, bírósági döntések, adatbázisok – gyors áttekintésére és összegzésére. A kutató így rövid idő alatt láthatja, mely elméletek uralkodnak, hol vannak ellentmondások. Ugyanakkor az MI nem értékeli a források megbízhatóságát, ezért ez a lépés kizárólag emberi ellenőrzéssel tekinthető érvényesnek.

A harmadik fázis a forráskutatás és irodalomfeltárás, ahol a ChatGPT mellett megjelennek a kifejezetten tudományos keresőmotorok: a Perplexity.ai minden válaszhoz hivatkozásokat rendel, a Consensus a kutatási eredmények közötti konszenzust mutatja, míg az Elicit vagy a ResearchRabbit a publikációk kapcsolati hálóit tárja fel. Ezek a rendszerek – elsősorban az angol nyelvi keresések és kutatás kontextusában - megkönnyítik a komparatív elemzéseket és a kulcsszavas kutatást, de csak nyilvánosan elérhető tartalmakban tudnak keresni. A zárt adatbázisok (pl. MERSZ, az Orac Szakcikk Adatbázis Plusz, a JSTOR, vagy a HeinOnline) tartalma nem férhető hozzá az MI számára, ezért a kutatónak kettős keresési stratégiát kell alkalmaznia: emberi adatbázis-használatot és MI-támogatott elemzést.

A negyedik szakasz a vázlat- és szövegalkotás, amelyben a ChatGPT vagy a Writing GPT strukturálja a gondolatmenetet, bevezető- és összefoglalóterveket készít, javaslatot tesz a fejezetek logikájára. A Claude segítségével a kutató nyelvileg és stilisztikailag finomíthatja a szöveget, vagy elkészítheti az első angol nyelvű változatot. Ez a lépés akár 60–70%-kal rövidítheti a kézirat előkészítésének idejét, de csak akkor, ha a szerző kritikusan szerkeszt és nem mechanikusan veszi át az MI javaslatait.

Az ötödik fázis a fordítás és nyelvi ellenőrzés, ahol a DeepL, az eTranslation és a ChatGPT többnyelvű képességei használhatók. A magyar–angol és magyar-német fordítás tudományos szövegek esetén is megfelelő minőségű lehet, de a terminológia és hivatkozási rendszer ellenőrzése elengedhetetlen. A jogtudományban különösen fontos a fogalmak konzisztenciája – az MI itt csak első vázlatot adhat, nem végleges változatot.

A folyamat zárólépése a disszemináció, azaz az eredmények kommunikációja. A DALL·E, a Midjourney vagy a Canva MI-moduljai segíthetnek tudományos poszterek, prezentációk vagy infografikák készítésében, míg a ChatGPT vagy a Gemini összefoglaló absztraktokat és közérthető kivonatokat generálhat a kutatási eredmények bemutatásához. Ezek az eszközök nemcsak kényelmet, hanem átjárhatóságot is biztosítanak a tudományos és a közéleti kommunikáció között – új csatornákat nyitva a tudásmegosztás felé.

A kutatási folyamat tehát nem gépivé válik, hanem hibriddé: az ember és az MI közösen építi fel a tudományos szöveget – utóbbi jól strukturált alapokat szolgáltathat hozzá, a folyamat ellenőrzése és az eredmény validálása azonban minden esetben emberi feladat marad. A kulcs a helyes arány: ahol az MI gyorsít, ott az embernek értékelnie kell; ahol az MI összegzi, ott az embernek szelektálnia; ahol az MI javasol, ott az embernek döntenie. Ez a felelősségi viszony az, ami a tudományos autonómiát a digitális korszakban is fenntartja – és ezért nem támogathatók azok a törekvések, amelyek az ún. ügynöki megoldásokat a tudományos kutatásba is bevezetnék.

A mesterséges intelligencia területén ezek – mint a ChatGPT esetében is - tipikusan olyan modellek, amelyek autonóm módon kutatnak, írnak, elemeznek vagy kommunikálnak, például egy több-lépéses kutatási folyamatot teljesítenek emberi beavatkozás nélkül – kizárva ezzel a szövegfejlesztés folyamatában fontos emberi ellenőrzési és iteratív visszajelzési lehetőséget.

Akadémiai és kiadói gyakorlatok a mesterséges intelligencia használatáról

A jogtudományi, és tágabban vett tudományos közegben a generatív mesterséges intelligencia használata mára mindennapossá vált, ugyanakkor a gyors technológiai terjedéshez nem társul egységes akadémiai szabályozás. Az elmúlt két évben ugyan megjelentek az első intézményi irányelvek és kiadói útmutatók, de ezek nagyon eltérő szintűek és részletességűek. Míg egyes szervezetek konkrétan rögzítik, mikor és milyen feltételek mellett használható MI a kutatásban, mások csupán általános elvi megállapításokat fogalmaznak meg.

A legnagyobb tudományos és a jog területén is meghatározó kiadók – például a Springer Nature, az Oxford University Press, az Elsevier, a Wiley és a Taylor & Francis   már meghatározták a generatív MI-vel kapcsolatos alapelveiket: a modellek használata nem tiltott, de csak akkor elfogadható, ha a szerzők az alkalmazás tényét feltüntetik és indokolják, valamint garantálják, hogy az emberi ellenőrzés a folyamat minden szakaszában megmarad. Az MI nem lehet szerző, és nem ruházható rá tudományos felelősség.

A nemzetközi publikációs gyakorlatban ezért egyre gyakoribb, hogy a kéziratok végén külön AI Disclosure Statement vagy Author Contribution Form szerepel. Ezek célja a transzparencia, vagyis annak rögzítése, hogy az MI-használat mely szakaszokra terjedt ki – például nyelvi stilizálásra, fordításra, adatfeldolgozásra vagy képgenerálásra. A legtöbb kiadó csak akkor fogad el MI által előállított ábrákat vagy illusztrációkat (pl. DALL·E, Midjourney), ha azok egyértelműen megjelölve vannak, és a szerző kijelenti, hogy a képek nem sértik szerzői jogokat.

A hazai akadémiai gyakorlat ezzel szemben még széttartó. Míg a nemzetközi kiadók a teljes tudományos spektrumra egységes szabályokat érvényesítenek, a magyar folyóiratokban a mesterséges intelligencia alkalmazásáról nem alakult ki közös álláspont. Egyes kiadók és szaklapok – például a Wolter Kluwers MERSZ, a Magyar Tudomány – már beépítették a tiltó vagy feltételes elfogadási klauzulát a szerzői útmutatóikba: a ChatGPT és más generatív modellek használata csak akkor megengedett, ha az egyértelműen feltüntetésre kerül a kéziratban, és az MI által előállított tartalom nem torzítja a tudományos eredményt. Más lapoknál az MI-használat kérdése egyelőre nincs szabályozva, ami bizonytalanságot okoz a kutatók körében.

E szabályozási hiány végső soron a tudományos közösségre is kockázatot jelent: ha nem világos, mikor és milyen módon használtak MI-t, az a publikációk ellenőrizhetőségét és hitelességét veszélyezteti. Ezért a legfontosabb lépés a transzparencia intézményesítése, vagyis annak rögzítése, hogy az MI-használat nem önmagában probléma, ha nem a titkolt, ellenőrizetlen alkalmazás az, ami az akadémiai integritást gyengíti.

Mindez arra mutat rá, hogy a generatív mesterséges intelligencia akkor válhat a tudomány hasznára, ha a kutatók és kiadók közös elveket fogalmaznak meg az etikus, dokumentált és ellenőrzött használatra. Ez a jövőben nemcsak a publikációs folyamat biztonságát, hanem a kutatói bizalom megőrzését is szolgálja. A felelősség mindig emberi marad – az MI csupán eszköz, amely a kutatást gyorsítja, de a tudományos döntéseket nem helyettesítheti.

A felelős integráció iránya

A generatív mesterséges intelligencia nem csupán új eszközt, hanem új kutatási szemléletet jelent. A GMI a tudományos gondolkodás partnere, amely gyorsítja az elemzést, segíti a rendszerezést, és lehetővé teszi a tudás szélesebb körű megosztását – úgy, hogy a konkrét lehetőségek nagy mértékben függenek a használt modelltől, a kutató az egyes alkalmazások kreatív összekapcsolására való felkészültségétől. A legnagyobb kihívást azonban végső soron nem a használat, hanem a használatért való felelősség és a transzparencia kérdése jelenti.

Sok évtized oktatói és tudományos munkáján alapuló meggyőződésem szerint a jogtudomány és a jogi tudományos publikáció jövője (is) azon múlik, hogy az MI alkalmazása mennyire képes etikus és átlátható keretek között maradni. A kutató feladata, hogy a mesterséges intelligenciát tudatosan, dokumentáltan és ellenőrzötten építse be a munkájába, megőrizve ezzel az emberi szakértelem elsődlegességét – de ez legnagyobb felelőssége is. Magunkkal, és a tudományos közösség jövőjével szemben egyaránt.

2025. október 7., kedd

Mesterséges intelligencia az iskolákban és egyetemeken: az EU MI rendeletének kihívásai

 

Az Európai Unió 2024-ben elfogadott MI rendelete (EU) 2024/1689 új korszakot nyitott az oktatás világában is: az iskolák és egyetemek a mesterséges intelligencia használatának immár egységes, kötelező szabályozási kereteihez igazodva kell kialakítaniuk vagy újragondolniuk digitális stratégiáikat, s ehhez kell igazítaniuk működési feltételeiket. A jogszabály kockázatalapú rendszere különösen hangsúlyossá teszi a nevelés és képzés területén működő nagy kockázatú MI-rendszerek szabályozását, amelyek a tanulók és hallgatók hozzáférésére, értékelésére vagy előmenetelére hatással vannak. A rendelet összekapcsolódik a GDPR előírásaival, biztosítva, hogy az adatkezelés, az átláthatóság és az emberi felügyelet garanciái az oktatásban is érvényesüljenek. A kötelező alkalmazásig rendelkezésre álló felkészülési időszak ezért kulcsfontosságú: az intézményeknek belső szabályzatokat kell alkotniuk, fel kell készíteniük pedagógusaikat és hallgatóikat, valamint át kell alakítaniuk belső folyamataikat. Az írás célja, hogy az erre való felkészüléshez nyújtson hasznos támpontokat, a szabályozás alapjainak és kulcskérdéseinek áttekintésével mutatva meg, miként alakítható ki biztonságos, átlátható és emberközpontú MI-használat az oktatásban.

Az Európai Unió 2024-ben elfogadott (EU) 2024/1689 rendelete a mesterséges intelligenciáról (MI rendelet, MI törvény) jelentős mérföldkőnek számít az uniós digitális szabályozás történetében.  Célja kettős egyrészt a belső piac működésének javítása az MI-rendszerek egységes, minden tagállamban azonos módon alkalmazandó szabályozása révén, másrészt az alapvető jogok, a biztonság és a közérdek magas szintű védelmének biztosítása.

Az üzleti életben az elvárt hatás a piaci bizalom növelése, vagyis, hogy a fogyasztók és partnerek megbízhatónak tekintsék az MI-alapú szolgáltatásokat, és ezzel gyorsuljon a technológia bevezetése. A kulturális szférában a cél, hogy az MI ne torzítsa a pluralizmust és a kreatív szabadságot, hanem hozzájáruljon a kulturális értékek hozzáférhetővé tételéhez, például a digitalizáció és a tartalomajánló rendszerek révén. Az oktatásban pedig az Unió azt várja, hogy a mesterséges intelligencia az egyéni tanulási utak támogatására és a lemorzsolódás csökkentésére szolgáljon, miközben minden esetben biztosított marad a tanulói jogok védelme és az emberi felügyelet. A jogalkotó világosan kimondja: a mesterséges intelligencia csak akkor támogathatja az európai társadalmak fejlődését, ha annak alkalmazása emberközpontú, átlátható és megbízható módon történik.

A rendeletet ugyanakkor számos kritikus megközelítés és aggodalom kíséri, nemcsak az oktatási szférában, hanem az iparban, az IT-cégeknél és az MI-alkalmazásokat fejlesztő szolgáltatóknál is. Az utóbbiak gyakran hangsúlyozzák, hogy a szabályozás túl részletes megfelelőségi eljárásokat ír elő, amelyek lassíthatják az innovációt, különösen a kisebb vállalkozások számára. Gyakori aggodalom, hogy a „nagy kockázatú” kategória túl szélesen értelmezett, így olyan alkalmazások is szigorú kötelezettségek alá kerülhetnek, amelyek tényleges veszélye csekély. Az iparági szereplők attól is tartanak, hogy az egységes uniós szabályozás nehezen tud lépést tartani a gyorsan változó technológiai trendekkel, és a bürokratikus megfelelőségi követelmények hátráltathatják az új fejlesztések piaci bevezetését. Az oktatási intézmények részéről az a félelem jelenik meg, hogy a szabályozás jelentős adminisztratív és pénzügyi terheket ró rájuk, miközben sok esetben nincs megfelelő szakértői háttér az előírások teljesítéséhez.

Ezek az aggodalmak bizonyos tekintetben megalapozottak is lehetnek, hiszen a gyakorlat majd csak a hatálybalépés után mutatja meg, mennyire bizonyulnak a szabályok rugalmasnak és alkalmazhatónak a mindennapokban. Mindezek ellenére az érintett szereplőknek – így az ipari és technológiai szolgáltatóknak éppúgy, mint az iskoláknak és egyetemeknek – jelenleg a jogszabály ismert szövegéből, valamint az időközben megjelent európai és nemzeti iránymutatásokból kell kiindulniuk, és ezek alapján megkezdeniük a felkészülést a fokozatos hatálybalépésre. Egyes tiltott gyakorlatokra vonatkozó tilalmak már 2025-től érvényesek, de a legtöbb kötelező előírás csak 2026 júniusától válik alkalmazandóvá. A mostani átmeneti időszak arra szolgál, hogy az oktatási intézmények is megalkossák saját belső szabályzataikat, felkészítsék a pedagógusokat és az oktatókat, valamint elindítsák azokat a megfelelési programokat, amelyek a rendeletben meghatározott követelmények teljesítését biztosítják. Az első lépés azonban mindenütt a rendelet szabályozási tartalmának megismerése, az intézmény működési keretei közötti értelmezésének megkezdése és az alkalmazásra való felkészülés kell, hogy legyen.

Az EU MI rendelete és az oktatás kapcsolata: alapok és keretek

A rendelet egyik legfontosabb sajátossága a kockázatalapú megközelítés, amely négy szintet határoz meg, és ezáltal különböző súlyú jogi követelményeket állít az egyes MI-rendszerekkel szemben. A tiltott MI-rendszerek körébe tartoznak például azok, amelyek a gyermekek kognitív viselkedésének torzítására alkalmas manipulatív technológiákat alkalmaznak, valamint azok, amelyek az emberi magatartást tiltott módon próbálják befolyásolni; ezeket az 5. cikk kifejezetten tiltja.

A nagy kockázatú MI-rendszerek közé sorolja a rendelet többek között azokat az oktatásban és képzésben használt megoldásokat, amelyek a tanulók vagy hallgatók hozzáférésére, értékelésére, besorolására vagy előmenetelére hatással vannak. Ide tartozhatnak az online vizsgafelügyeleti eszközök, az automatikus értékelési platformok, a tanulmányi előrehaladást elemző modellek, valamint a felvételi döntést támogató algoritmusok is. Ennek jogalapját a 6. cikk és a III. melléklet 3. pontja adja. A korlátozott kockázatú MI-rendszerek esetében elsősorban az átláthatósági kötelezettség érvényesül, ahogyan azt az 50. cikk előírja, míg a minimális kockázatú MI-rendszerek körét a jogalkotó olyan alkalmazásokra szűkíti, amelyekre nem vonatkozik kötelező megfelelőségi szabály, és így szabadon használhatók, bár etikai és szakmai irányelvek mellett ezeknél is szükséges a tudatos intézményi gyakorlat.

Az oktatás területén a legnagyobb jelentősége annak van, hogy a rendelet a nevelés és képzés keretében használt MI-rendszereket egyértelműen a nagy kockázatú kategóriába sorolja. A 3. melléklet III. pontja szerint ide tartozik minden olyan rendszer, amely a tanulók vagy a képzésben részt vevők hozzáférését, értékelését, besorolását vagy előmenetelét közvetlenül befolyásolja. Ez a meghatározás széles körben értelmezhető, lefedi az adaptív tanulási szoftverek, az automatikus vizsgáztatási rendszerek, a teljesítményértékelő algoritmusok és a felvételi döntéseket támogató megoldások körét is. Ezen túlmenően azonban ide sorolhatók azok a háttérrendszerek is, amelyek tanulói adatokból építenek előrejelzéseket, és amelyek bár közvetlen döntést nem hoznak, mégis befolyásolják az oktatási folyamatokat. Ez a széles definíció biztosítja, hogy a legérzékenyebb oktatási szituációkban mindig a legszigorúbb jogi és etikai garanciák érvényesüljenek.

A szabályozás szoros kapcsolatban áll az uniós adatvédelmi kerettel. Míg a GDPR – az (EU) 2016/679 rendelet – elsődlegesen a személyes adatok védelmét biztosítja, addig az MI rendelet a műszaki dokumentációra, a kockázatkezelési folyamatok működtetésére és az emberi felügyelet garantálására állapít meg kötelezettségeket. Az oktatásban ez például azt jelenti, hogy egy vizsgafelügyeleti MI-rendszernek nem csupán az adatkezelési előírásoknak kell megfelelnie, hanem rendelkeznie kell részletes dokumentációval a rendszer működéséről, kockázatkezelési protokollt kell működtetnie a 9. cikk szerint, és biztosítania kell az emberi ellenőrzés érvényesülését a 14. cikk értelmében. A két szabályozás így kiegészíti egymást: a GDPR az adatszintű biztonságot, az MI rendelet pedig a rendszerszintű átláthatóságot és ellenőrizhetőséget biztosítja.

Az oktatási szektoron belül eltérő logika érvényesül. Az a közoktatás iskolái elsősorban felhasználói szerepben vannak: harmadik felek által fejlesztett szoftvereket és platformokat alkalmaznak, és számukra kulcskérdés, hogy kizárólag olyan rendszereket vegyenek igénybe, amelyek az uniós nyilvántartásban szerepelnek, és rendelkeznek CE-jelöléssel, ahogyan azt a 49. cikk előírja. Az egyetemek ezzel szemben kettős szerepben jelennek meg. Nemcsak használják a mesterséges intelligenciát oktatási és adminisztratív célokra, hanem kutatásaik révén új MI-rendszerek fejlesztésében is részt vesznek. Ezért rájuk nemcsak a felhasználói, hanem a fejlesztői kötelezettségek is vonatkozhatnak, így például a műszaki dokumentáció összeállításának kötelezettsége a 11. cikk szerint, vagy a megfelelőségértékelési eljárás lefolytatása a 43. cikk alapján. Ez a kettős helyzet különösen nagy felelősséget ró az egyetemekre: egyszerre kell biztosítaniuk, hogy hallgatóik jogai minden helyzetben érvényesüljenek, és hogy saját innovációik megfeleljenek az uniós jogi kereteknek.

Az MI rendelet hatásai az iskolai oktatásra

Az általános és középiskolai oktatásban a mesterséges intelligencia alkalmazása különösen érzékeny terület, mivel a döntések közvetlenül érintik a tanulók jogait, a tanulási lehetőségeket és a jövőbeli életpályát. Az MI rendelet ezért a nevelés és képzés területén használt rendszereket a nagy kockázatú MI-rendszerek közé sorolja, amennyiben azok a tanulók hozzáférésére, értékelésére, besorolására vagy előmenetelére hatással vannak. Ezt a besorolást a rendelet 6. cikke és a III. melléklet 3. pontja rögzíti. Ez a megfogalmazás lefedi az olyan technológiákat, mint az adaptív tanulási szoftverek, az automatikus vizsgafelügyeleti rendszerek, a teljesítményértékelést végző algoritmusok vagy a pályaorientációs és felvételi előrejelző eszközök.

Az ilyen rendszerek használatát szigorú feltételekhez köti a rendelet. A 9. cikk értelmében kötelező a kockázatkezelési rendszer működtetése, amelynek folyamatosan fel kell mérnie és kezelnie kell azokat a kockázatokat, amelyek a tanulók jogait vagy biztonságát érinthetik. A 10. cikk előírja, hogy a nagy kockázatú rendszerekhez minőségi adatkészleteket kell használni, amelyek nem vezethetnek hátrányos megkülönböztetéshez. Ez a gyakorlatban azt jelenti, hogy az iskolai környezetben nem lehet olyan adatokat alkalmazni, amelyek a tanulókat szociális helyzetük, etnikai hovatartozásuk vagy fogyatékosságuk alapján hátrányosan érintenék. A 14. cikk kötelezővé teszi az emberi felügyelet biztosítását, ami azt jelenti, hogy egyetlen döntés sem születhet kizárólag automatizáltan, a pedagógusnak vagy az intézmény felelős munkatársának mindig képesnek kell lennie a beavatkozásra.

Ezek a szabályok szorosan kapcsolódnak a GDPR 22. cikkében foglalt tilalomhoz, amely megakadályozza, hogy valakit kizárólag automatizált adatkezelés alapján érjen olyan döntés, amely jelentős hatással van az életére. Az oktatásban ez különösen releváns: egy vizsga, egy felvételi döntés vagy egy évfolyam-besorolás nem történhet pusztán algoritmus által, mert ez sértené a tanulók jogait. Az MI rendelet e ponton kiegészíti és megerősíti a GDPR rendelkezéseit, előírva, hogy az iskolai környezetben alkalmazott MI-rendszereknek minden esetben biztosítaniuk kell az emberi felülvizsgálat lehetőségét.

A szabályozás további központi eleme a tájékoztatási kötelezettség. A GDPR általános elvei szerint az adatkezelés csak akkor jogszerű, ha az érintettek világos és közérthető tájékoztatást kapnak arról, hogy mi történik az adataikkal. Az MI rendelet 13. cikke ugyanezt a logikát érvényesíti az MI-rendszerek esetében: a tanulóknak, hallgatóknak és kiskorúak esetén a szülőknek egyértelműen tudniuk kell, ha mesterséges intelligencia működik közre egy oktatási folyamatban. Az iskoláknak ezért nem elég egyszerűen használni egy vizsgafelügyeleti szoftvert vagy egy teljesítményértékelő algoritmust, hanem tájékoztatniuk kell a diákokat és családjaikat a rendszer működéséről, céljáról és következményeiről. Ez a transzparencia nem csupán jogi kötelezettség, hanem a bizalomépítés kulcseleme is, hiszen így előzhető meg az a félelem, hogy a gyerekek jövőjéről láthatatlan, érthetetlen gépek döntenek.

Az átmeneti időszakban a legnagyobb kihívást az jelenti, hogy az intézményeknek ki kell alakítaniuk saját belső szabályzataikat, amelyek lefedik a mesterséges intelligencia használatának módját. Ez a szabályozás nem merülhet ki abban, hogy rögzítik a technológia alkalmazásának feltételeit, hanem kiterjed a pedagógusok képzésére, a szülők tájékoztatására és a tanulók jogainak védelmére is. A dokumentációs kötelezettségek növelik ugyan az adminisztratív terheket, de hosszú távon erősítik a bizalmat, mert világossá teszik minden érintett számára, hogy milyen körülmények között működnek az MI-eszközök.

Az MI rendelet a felsőoktatásban

A felsőoktatás sajátos helyet foglal el a mesterséges intelligencia szabályozásában, hiszen az egyetemek és főiskolák egyszerre jelennek meg felhasználóként, alkalmazóként, kutatóként és fejlesztőként. Ez a többes szerep indokolja, hogy az MI rendelet hatása a felsőoktatásra összetettebb, mint az iskolai környezetben.

A tanulmányi életút során az egyik legkritikusabb pont a felvételi eljárás. A nagy kockázatú MI-rendszerek közé tartozik minden olyan technológia, amely a hallgatók értékelésére, kiválasztására vagy előmenetelére hatással van, és amely a 6. cikk és a III. melléklet 3. pontja alapján szigorú megfelelési követelmények alá esik. Ez vonatkozik az automatikus jelentkezőszűrő algoritmusokra, a felvételi előrejelző modellekre és a vizsgáztatást támogató MI-megoldásokra is. Az ilyen rendszerek csak akkor használhatók jogszerűen, ha megfelelnek a rendeletben előírt dokumentációs és kockázatkezelési kötelezettségeknek, és biztosítják az emberi felügyeletet.

A felsőoktatásban azonban nemcsak az adminisztráció és a vizsgáztatás tartozik a rendelet hatálya alá, hanem a hallgatói élet más területei is. Ide sorolhatók például a tanulmányi pályaelemző eszközök, amelyek előrejelzik a lemorzsolódás kockázatát, vagy az olyan megoldások, amelyek az oktatók munkáját támogatják az értékelésben és a visszajelzésben. A 9. és 10. cikk által előírt kockázatkezelés és adatintegritás a felsőoktatási környezetben különösen fontos, mert a hallgatói teljesítményről gyűjtött adatok alapján születő döntések hosszú távon befolyásolják a karrierutakat.

A kutatási dimenzió szintén kulcsszerepet játszik. Az MI rendelet 2. cikk (6) bekezdése mentességet biztosít a kizárólag kutatási célból fejlesztett MI-rendszereknek mindaddig, amíg azokat nem hozzák forgalomba és nem helyezik üzembe. Ez azt jelenti, hogy egy laborban kísérleti jelleggel fejlesztett vizsgakorrektor MI vagy egy hallgatói dolgozatokat elemző algoritmus ideiglenesen mentesülhet a megfelelőségi kötelezettségek alól. Amint azonban a rendszert ténylegesen bevezetik az oktatásban vagy az adminisztrációban, teljeskörűen alkalmazni kell rá a megfelelőségértékelésre és a műszaki dokumentációra vonatkozó szabályokat.

A felsőoktatásban a fejlesztői szerep is kiemelt. Az egyetemek sokszor olyan MI-rendszereket hoznak létre, amelyek nemcsak belső oktatási célra, hanem piaci felhasználásra is alkalmasak. Ezekre a fejlesztésekre a teljes körű fejlesztői kötelezettségek érvényesek, így a műszaki dokumentáció elkészítése a 11. cikk alapján, a megfelelőségértékelés a 43. cikk szerint, valamint a piacfelügyeleti kötelezettségek a 74-76. cikk értelmében. Ez egyértelműen rögzíti, hogy az egyetemek nem bújhatnak ki a piaci szereplőkre vonatkozó előírások alól, ha saját fejlesztésű rendszereiket hallgatói vagy kereskedelmi használatra szánják.

A hallgatók szempontjából a tájékoztatáshoz való jog különösen fontos. Az MI rendelet 13. cikke előírja, hogy az érintetteknek világos információkat kell kapniuk arról, ha egy folyamatban mesterséges intelligencia működik közre. Ez a GDPR átláthatósági kötelezettségével összhangban garantálja, hogy a hallgatók tudják, mikor és hogyan határoz meg róluk adatokat egy algoritmus. A gyakorlatban ez azt jelenti, hogy ha egy egyetem például MI-t alkalmaz a vizsgaeredmények elemzésére vagy a hallgatói pályaalkalmasság előrejelzésére, akkor a hallgatót tájékoztatni kell a rendszer működéséről, céljáról és az esetleges következményekről. Ez a tájékoztatás nem formális aktus, hanem tényleges garancia, amely lehetővé teszi a hallgatók számára, hogy tudatosan viszonyuljanak a technológiához.

Az MI rendelet és a GDPR együtt biztosítja azt is, hogy a hallgatók ne kerülhessenek kiszolgáltatott helyzetbe az automatizált döntésekkel szemben. A GDPR 22. cikke tiltja a kizárólag automatizált döntéshozatalt, ha annak jelentős jogi vagy tényleges hatása van az érintettre. Ez a védelem a felsőoktatásban azt jelenti, hogy például egy hallgatót nem lehet pusztán egy algoritmus által generált értékelés alapján elutasítani a felvételin, vagy kizárni egy vizsgáról, hanem mindig biztosítani kell az emberi felülvizsgálatot. A 14. cikk által előírt emberi felügyelet kötelezettsége itt közvetlenül összekapcsolódik a GDPR biztosította jogokkal, így az oktatási intézménynek egyértelmű mechanizmusokat kell fenntartania a jogorvoslatra.

A gyakorlatban ez azt jelenti, hogy a hallgatóknak lehetőséget kell kapniuk arra, hogy megkérdőjelezzék az algoritmusok által hozott döntéseket, és emberi felülvizsgálatot kérjenek. Ez nem csupán jogi garancia, hanem a felsőoktatási bizalom alapja is: ha a hallgatók tudják, hogy van beleszólásuk a saját sorsukat érintő döntésekbe, akkor nagyobb bizalommal fogadják az új technológiák bevezetését.

Oktatási intézmények felkészülése és jövőbeli kilátások

Az MI rendelet egyik legfontosabb következménye, hogy az oktatási intézményeknek átfogó felkészülési folyamatot kell végrehajtaniuk annak érdekében, hogy 2026 júniusától minden kötelező előírásnak megfeleljenek. Ez a felkészülés nem korlátozódik pusztán technikai intézkedésekre, hanem szervezeti, pedagógiai és jogi dimenziókat is érint.

Az első kihívás a belső szabályzatok kidolgozása. Minden iskolának és egyetemnek meg kell határoznia, hogy milyen körülmények között, milyen célokra és milyen feltételekkel használhatók mesterséges intelligencia alapú rendszerek. Ezeknek a szabályzatoknak összhangban kell lenniük az MI rendelet előírásaival, különösen a kockázatkezelési követelményekkel a 9. cikk alapján, az adatintegritással a 10. cikk szerint, valamint az emberi felügyelet biztosításával a 14. cikk értelmében. Emellett a szabályzatokat össze kell hangolni a GDPR által megkövetelt adatvédelmi dokumentációval, így például az adatkezelési tájékoztatókkal és az adatvédelmi hatásvizsgálatokkal. Ez a kettős megfelelés azt biztosítja, hogy az intézmények ne csak technikai, hanem jogi szempontból is védjék a tanulók és hallgatók jogait.

A felkészülés másik alappillére a tájékoztatás és átláthatóság kultúrájának megerősítése. Az MI rendelet 13. cikke világosan előírja, hogy az érintetteket tájékoztatni kell az MI-rendszerek használatáról, a GDPR pedig szigorú követelményeket fogalmaz meg az adatkezelés átláthatóságával kapcsolatban. Az oktatási intézményeknek tehát olyan kommunikációs csatornákat kell kialakítaniuk, amelyek révén a diákok, hallgatók és szülők egyértelműen megértik, mikor és hogyan kerül sor mesterséges intelligencia alkalmazására. A transzparencia növeli a bizalmat, és megelőzi azt a félelmet, hogy algoritmusok döntenek ellenőrizhetetlen módon a tanulók sorsáról.

Az intézményeknek emellett gondoskodniuk kell a pedagógusok és oktatók felkészítéséről is. Az MI rendelet nem csupán a rendszerek működését szabályozza, hanem kimondatlanul a pedagógusok felelősségét is erősíti. A tanároknak tisztában kell lenniük azzal, hogyan működik egy nagy kockázatú MI-rendszer, mik a korlátai, hogyan lehet felismerni a hibákat, és milyen esetekben szükséges az emberi beavatkozás. Ez nem pusztán technikai képzés kérdése, hanem új pedagógiai kompetenciákat igényel, amelyeket az oktatási rendszereknek be kell építeniük a továbbképzési struktúrákba.

A felkészüléshez hozzátartozik a minőségbiztosítás és ellenőrzés rendszerének megerősítése is. A nagy kockázatú MI-rendszereket a 43. cikk alapján megfelelőségértékelési eljárásnak kell alávetni, és a 49. cikk értelmében csak akkor hozhatók forgalomba vagy használhatók, ha rendelkeznek CE-jelöléssel. Az oktatási intézményeknek ezért olyan belső auditmechanizmusokat kell kialakítaniuk, amelyek képesek rendszeresen ellenőrizni a használt eszközök jogszerűségét és hatékonyságát. Ez különösen fontos a GDPR összefüggésében is, hiszen az adatvédelmi tisztviselőknek össze kell hangolniuk az AI-rendszerek megfelelőségét az adatvédelmi szabályok betartásával.

Az átmeneti időszak ugyanakkor nemcsak kihívásokat, hanem lehetőségeket is kínál. Az intézmények számára ez az időszak alkalmat ad arra, hogy kísérleti projekteket indítsanak, és teszteljék azokat az MI-megoldásokat, amelyek hosszú távon segíthetik a tanulás személyre szabását, a lemorzsolódás megelőzését vagy a hallgatói életpálya támogatását. Az MI rendelet 2. cikk (6) és (8) bekezdése lehetővé teszi a kutatási mentességeket, így az egyetemek és középiskolák pilotprogramok keretében kipróbálhatják az új rendszereket, mielőtt azok teljes körű megfelelőségi kötelezettség alá esnének.

A jövőbeli kilátások szempontjából az MI rendelet bevezetése az oktatásban kettős hatást gyakorol. Egyfelől növeli az adminisztratív terheket és a megfelelés költségeit, másfelől azonban hosszú távon megerősíti a bizalmat a digitális technológiák iránt, és hozzájárul ahhoz, hogy az oktatásban az innováció ne a jogbizonytalanság, hanem a kiszámítható keretek között bontakozzon ki. A GDPR és az MI rendelet együttes érvényesítése biztosítja, hogy a mesterséges intelligencia nem válik ellenőrizhetetlenné, hanem az emberi méltóság, az átláthatóság és a jogorvoslat lehetősége mellett segíti az oktatást.

A felkészülés tehát nem csak technológiai kérdés, hanem egy új oktatási kultúra megalapozása. Az MI rendelet azt üzeni az iskoláknak és egyetemeknek, hogy a mesterséges intelligencia helye az oktatásban megkérdőjelezhetetlen, de annak használata csak akkor jogszerű és legitim, ha az intézmények képesek megteremteni a biztonságos, átlátható és emberközpontú környezetet, amelyben a tanulók és hallgatók érdekei elsőbbséget élveznek.

A cikk emberi és mesterséges intelligencia együttműködésével jött létre.

Az MI-generált tartalmak jelölésének új európai kerete – elkészült az átláthatósági gyakorlati kódex második tervezete

  Az Európai Bizottság 2026 márciusában közzétette az AI Act 50. cikkének végrehajtását támogató gyakorlati kódex második tervezetét , amel...