2025. november 16., vasárnap

Digitális transzformáció, új megközelítésben – Ausztria új stratégiája 2040-ig átrajzolja a felsőoktatás mai keret- és értékrendszerét

 

Az osztrák kormány 2025 októberében elfogadott Felsőoktatási Stratégiája nem egyszerű oktatáspolitikai reform: a demokrácia védelmének eszköze. A hárompárti koalíció – ÖVP, SPÖ és NEOS – közös programja szerint az egyetemek feladata már nem kizárólag a tudás termelése és a munkaerő képzése, hanem a kritikus gondolkodás, a társadalmi részvétel és az európai értékek közvetítése is. A stratégia három pillére – a demokrácia megélése, az esélyegyenlőség kiteljesítése és az innováció szolgálata – átrajzolja a felsőoktatás szerepét. A 77 osztrák felsőoktatási intézmény számára a jövő nem a terjeszkedésben, hanem az együttműködésben és a hatékony munkamegosztásban rejlik. A dokumentum előrevetíti a mesterséges intelligencia etikai integrálását is, miközben élénk vitát indított el az egyetemi autonómia és az állami irányítás határairól.  Vezérgondolata és célkitűzése szerint 2040-re Ausztria a tudományos kiválóság közép-európai központjává kell alakítani – minőségi alapon.

A stratégia elfogadására a 2025–2029-es kormányprogramban meghatározott elvek és prioritások alapján került sor, amely a hárompárti – ÖVP, SPÖ és NEOS – koalíció történelmi kompromisszumára épül. A program egyik kulcsfogalma az védekező demokrácia (wehrhafte Demokratie), amely nemcsak a politikai rendszer védelmét jelenti, hanem az oktatás és tudomány szerepének újraértelmezését is a demokratikus kultúra megerősítése érdekében. A stratégia kiindulópontja az, hogy a felsőoktatás a jövő Ausztriájának „társadalmi innovációs motorja” lesz, ahol a tudás nemcsak gazdasági értéket, hanem társadalmi rezilienciát is teremt, azzal, hogy egyben tudatos választ is ad az elmúlt évtized tanulságaira és a következő másfél évtized kihívásaira.

A szemléletváltás évtizede az osztrák felsőoktatásban: 2015-2025

Az osztrák felsőoktatás az elmúlt tíz évben egy átfogó szerkezeti és szemléletváltáson ment keresztül. A 2015–2025 közötti időszakot a digitalizáció, a nemzetköziesedés és a társadalmi inklúzió hármas célja határozta meg, miközben a kormányzat folyamatosan próbálta megőrizni az intézmények akadémiai autonómiáját (akademische Autonomie) és pénzügyi stabilitását. A jelentős vitákkal kísért változások hátterében nem csupán oktatáspolitikai, hanem gazdasági és demográfiai tényezők is álltak: a munkaerőpiac gyors átalakulása, a migrációs hullámok, valamint a tudásintenzív ágazatok növekvő igénye a magasan képzett, digitális kompetenciákkal rendelkező munkaerő iránt.

A 2017-es Bildungsreformgesetz (oktatási reformtörvény) volt az első lépés afelé, hogy az egyetemi és főiskolai rendszer egységesebb és rugalmasabb keretben működjön. Az ezt követő években a Szövetségi Oktatási, Tudományos és Kutatási Minisztérium (Bundesministerium für Bildung, Wissenschaft und Forschung, BMBWF) a „Qualität durch Kooperation” elvét tette a fejlesztéspolitika középpontjába: az egyetemek, a szakfőiskolák (Fachhochschulen) és a tanárképző főiskolák (Pädagogische Hochschulen) közötti partnerségre építve kívánta növelni a minőséget és az innovációs kapacitást. Az OECD 2025-ös átfogó elemzése („Constructing Scenarios for the Future of Teaching in Austria”) e folyamat eredményeit értékelve úgy fogalmaz, hogy Ausztria az oktatási innováció „kooperatív professzionalizmus” (connective professionalism) modelljévé vált, amelyben a tanítás, a kutatás és a társadalmi felelősség összekapcsolódik.

Az osztrák felsőoktatás fejlődésének egyik központi kérdése a tanárképzés megújítása volt. Az új koncepció szerint a tanári hivatás nem elszigetelt szakma, hanem interdiszciplináris együttműködésre épülő, reflektív gyakorlat. A PädagogInnenbildung NEU program keretében 2020 után fokozatosan bevezették az egységes, gyakorlatorientált képzési struktúrát, amely szorosabb kapcsolatot teremtett az egyetemek, a pedagógiai főiskolák és az iskolák között. A 2025-ös OECD-jelentés ezt úgy értékeli, hogy Ausztria újraértelmezte a tanári professzionalizmus fogalmát, és a tanári szerepet a társadalmi innováció motorjaként pozicionálta.

Ezzel párhuzamosan a digitalizáció és a mesterséges intelligencia megjelenése új kihívásokat hozott. A felsőoktatási intézmények 2019 és 2024 között jelentős forrásokat fordítottak a digitális infrastruktúra fejlesztésére, a tanulásmenedzsment-rendszerek modernizálására és a hibrid oktatási formák elterjesztésére. Az OECD által idézett adatok szerint 2023-ra az osztrák egyetemek 92%-a használta rendszeresen a mesterséges intelligenciát támogató tanulási platformokat, és a hallgatók közel fele vett részt digitális kompetenciafejlesztő kurzusokon. A folyamat azonban nemcsak technológiai, hanem etikai és pedagógiai dilemmákat is felvetett: a tanári autonómia, a hallgatói adatvédelem és a tudományos integritás kérdései a szakmai párbeszéd középpontjába kerültek.

A demográfiai változások is formálták a felsőoktatás képét. Az elöregedő oktatói kar és a fiatal kutatók nemzetközi mobilitása miatt a rendszer egyre inkább a tudástranszfer és a generációk közötti tudásmegosztás felé mozdult el. Az új generációs oktatók számára a legfontosabb motiváció már nem a státusz, hanem az értelmes munka, a rugalmasság és az önfejlesztés lehetősége – derül ki az OECD által készített tanári „personákból” (teacher personas). Ezek a fiktív, de adatvezérelt szereplők – például Jelena és Lukas, a jövő tanárai – a tanári hivatás új mintáit jelenítik meg: a digitális, inkluzív, kollaboratív oktatás képviselőit.

A jelenlegi helyzetre jellemző kettősséget tehát az adja, hogy miközben Ausztria nemzetközi összevetésben stabil, jól finanszírozott és innovációra képes felsőoktatási rendszerrel rendelkezik, egyre élesebben jelentkeznek az emberi erőforrás és motivációs kihívások. Az oktatói pálya elöregedése, a pályaelhagyás növekedése, a középgenerációs utánpótlás hiánya és a növekvő adminisztratív terhek mind olyan tényezők, amelyek a rendszer hosszú távú fenntarthatóságát veszélyeztetik. A 2025-ben elfogadott Hochschulstrategie 2040 ezért nem az alapoktól indul: egy sikeres, de feszültségekkel terhelt rendszerből próbál új, fenntartható egyensúlyt kialakítani.

A stratégia politikai és társadalmi háttere

A 2020-as évek első felének gazdasági és társadalmi megrázkódtatásai – az infláció, a háborús válságok és a társadalmi megosztottság – mély nyomot hagytak az osztrák politikai gondolkodásban. A 2025-ös kormány megalakuláskor világos volt, hogy a stabilitás és a jövőkép záloga a tudásalapú társadalom újjáépítése. Ebből a felismerésből fakadt a döntés, hogy a felsőoktatást nemzeti stratégiai ügyként kezeljék. A kormány célja, hogy Ausztria 2040-re a tudományos kiválóság egyik regionális központjává váljon – nem mennyiségi, hanem minőségi növekedés révén.

A kormányprogram oktatásra és tudományra vonatkozó fejezete világosan kijelöli, hogy az ország jövője a „legjobb oktatás és igazságos esélyek" (beste Bildung & gerechte Chancen) biztosításán múlik. A stratégia kiindulópontja, hogy a felsőoktatás többé nem pusztán gazdasági motor, hanem társadalmi integrációs intézmény: olyan tér, ahol a polgárok megtanulják a kritikus gondolkodást, az együttműködést és az európai értékek tiszteletét. A felsőoktatás, mint az élő, védelmező demokrácia alakító ereje (Hochschulen als Gestaltungskräfte einer lebhaften, wehrhaften Demokratie) gondolat vált a teljes reformfolyamat hívószavává.

A Szövetségi Nőügyi, Tudományos és Kutatási Minisztérium (Bundesministerium für Frauen, Wissenschaft und Forschung, BMFWF) élén álló Eva-Maria Holzleitner miniszter a stratégia bejelentésekor hangsúlyozta, hogy a „minőség, együttműködés és világos profilok" (Qualität, Kooperation und klare Profile) hármasa lesz az új felsőoktatás-politika vezérelve. Ez a hangsúlyeltolódás jól tükrözi az európai trendeket: a kis, erősen szegmentált osztrák felsőoktatási rendszer (77 intézmény, 2700 képzési program) számára a jövő kulcsa nem az újabb kapacitásbővítés, hanem a hatékony munkamegosztás és a szoros intézményi együttműködés.

A kormányülés elé került előterjesztés (Ministerratsvortrag) a stratégia alapjait három történeti szakaszhoz köti. Az 1970-es évek nyitása tette lehetővé, hogy a felsőoktatás a társadalom szélesebb rétegeihez jusson el, az 1990-es és 2000-es évek reformjai pedig a munkaerőpiaci és innovációs orientációt erősítették. Most a harmadik korszak kezdődik, amelyben a felsőoktatás demokratikus funkciója kerül előtérbe: az egyetemeknek nemcsak oktatniuk és kutatniuk kell, hanem a társadalmi párbeszéd platformjaként is működniük, ahol a tudomány és a közélet találkozik.

A stratégia megszületését egyértelműen befolyásolta az a felismerés, hogy az antidemokratikus tendenciák és a dezinformáció nemcsak politikai, hanem tudományos kihívást is jelentenek. A felsőoktatás így nemcsak tudásközpont, hanem kultúrmissziót betöltő intézmény is: feladata a tudományos gondolkodás védelme és terjesztése. Az új politikai konszenzus szerint a tudás, a kutatás és a kritikus gondolkodás fejlesztése a demokrácia fenntartásának előfeltétele.

A Stratégia 2040 fő irányvonalai és összefüggései

A Felsőoktatási Stratégia 2040 három egymást kiegészítő alappilléren nyugszik, amelyek kijelölik, milyen irányba fejlődik az osztrák felsőoktatás a következő másfél évtizedben. Ezek a pillérek – a demokrácia megélése, az esélyegyenlőség kiteljesítése és az innováció szolgálata – nem csupán politikai jelszavak, hanem strukturális reformirányok, amelyek átszövik a kormányzati, intézményi és tudományos szinteket is.

Az első pillér a felsőoktatási intézmények, mint a demokrácia megélt terei (Hochschulen als Orte gelebter Demokratie). A dokumentum szerint az egyetemeknek nem pusztán oktatási központokként, hanem a nyilvános párbeszéd arénáiként kell működniük, ahol a tudomány és a társadalom találkozik. Ennek egyik célja a tudomány közvetítése (Wissenschaftsvermittlung), azaz, hogy a kutatási eredmények ne maradjanak az akadémiai világ falai között, hanem hozzájáruljanak a közgondolkodás formálásához. Az egyetemi oktatás feladata nem csupán a munkaerőpiaci felkészítés, hanem művelt, felelősen gondolkodó polgárok nevelése – olyanok nevelése, akik képesek felismerni a dezinformációt és értékelni a bizonyítékokon alapuló érvelést. A stratégia ezzel a lépéssel a felsőoktatás demokratikus funkcióját új szintre emeli: az egyetemeknek egyszerre kell a tudományos kiválóság (wissenschaftliche Exzellenz) és a társadalmi részvétel (gesellschaftliche Teilhabe) bástyáivá válniuk.

A második pillér az esélyegyenlőség tereiként működő felsőoktatás (Hochschulen als Orte der Chancengerechtigkeit). A stratégia elismeri, hogy Ausztriában továbbra is erősen érvényesül az oktatási öröklés (Bildungsvererbung) jelensége: a szülők társadalmi státusa és iskolázottsága meghatározza a gyerekek tanulmányi esélyeit. A dokumentum ezért tudatos hozzáférési politikát sürget, különösen az alulreprezentált csoportok – első generációs értelmiségiek, migrációs hátterű hallgatók, fogyatékossággal élő fiatalok – számára. A kormány és az egyetemek közös célja, hogy a felsőoktatás a társadalmi mobilitás motorjává váljon. Ennek eszközei közé tartozik a szociális ösztöndíjrendszer reformja, a regionális hozzáférés erősítése, valamint a társadalmi átjárhatóság (soziale Durchlässigkeit) növelése a különböző képzési szintek között. Az intézményi missziók így nemcsak a kutatás és oktatás minőségére, hanem az inkluzivitásra és részvételre is kiterjednek.

A harmadik pillér a felsőoktatás, mint az innováció és haladás motorja (Hochschulen als Motoren für Innovation und Fortschritt). Ez a dimenzió közvetlenül kapcsolódik a kutatás–fejlesztési stratégiához, amely szerint az osztrák gazdasági növekedés és versenyképesség kulcsa a tudásgazdaság erősítése. A stratégia ennek érdekében az együttműködés, nem terjeszkedés (Kooperation statt Expansion) elvére épül. A cél nem új intézmények létrehozása, hanem a meglévők összehangolása és a felesleges párhuzamosságok lebontása. A 77 felsőoktatási intézmény közül többnek várhatóan új, specializált profilja lesz, és regionális szinergiák alakulnak ki: például Grazban és Bécsben az egyetemek és a szakfőiskolák (Fachhochschulen) közös kutatási infrastruktúrát használnak majd. Ez az irány a profilélesítés és munkamegosztás (Profilbildung und Arbeitsteilung) politikájában csúcsosodik ki, amelyet az ÖVP tudománypolitikusai, különösen Rudolf Taschner, határozottan támogatnak.

Ezzel párhuzamosan megjelenik a teljesítményorientált felsőoktatás-irányítás (leistungsorientierte Hochschulgovernance) koncepciója. A stratégia kimondja: a finanszírozásnak és az intézményi autonómiának kiegyensúlyozott viszonyban kell állnia. Az egyetemek szabadsága továbbra is alkotmányos érték, de az államnak stratégiai iránymutató szerepe van abban, hogy a közpénzeket hatékonyan és célzottan használják fel. A dokumentum kiemeli, hogy a jövőben nagyobb hangsúlyt kap az irányítási hatékonyság – a döntéshozatali struktúrák karcsúsítása, az intézményi átfedések megszüntetése, valamint az átlátható karrierutak biztosítása a fiatal kutatók számára. Ez utóbbi cél a kutatói pályák kiszámíthatóságát és a tudományos pálya vonzerejének (Attraktivität der Wissenschaft als Beruf) növelését szolgálja.

A nemzetközi dimenzió sem hiányzik a tervezetből. Ausztria célja, hogy 2040-re a nemzetközi tudományos együttműködés regionális központja legyen Közép-Európában. A stratégia ezért a nemzetköziesítés és hálózatosodás (Internationalisierung und Vernetzung) kettősére épít, hangsúlyozva, hogy a tudományos kiválóságot csak nemzetközi mobilitással és partnerséggel lehet fenntartani. Az uniós programokban (például Horizon Europe) való részvétel mellett a stratégia új, bilaterális kutatási partnerségek létrehozását is szorgalmazza a szomszédos országokkal.

A Felsőoktatási Stratégia 2040 nem forradalmi újításokat hozott, hanem finomhangolást és az értékek átpozicionálását - de már ezzel is alapjaiban változtatja meg a gondolkodást a felsőoktatás szerepéről. Felfogásában az egyetemek nem elszigetelt tudás-szigetek többé, hanem aktív társadalmi szereplők, akiknek egyszerre kell megőrizniük autonómiájukat és választ adniuk a közjó kihívásaira. A stratégia irányvonalai így nemcsak oktatási reformot, hanem társadalmi szerződést is jelentenek a tudás, az igazságosság és a demokrácia között.

A mesterséges intelligencia helye a Felsőoktatási Stratégia 2040-ben

Ebben a keretben a mesterséges intelligencia a stratégia egyik rejtett, de meghatározó metatémájaként jelenik meg. Bár a dokumentum nem szentel neki önálló fejezetet, az MI a kulcsterületek – kutatás, oktatás, innováció, tudományos integritás és demokratikus reziliencia – mindegyikében megkerülhetetlen elemként bukkan fel. Az osztrák kormány ezzel nem csak technológiai fejlesztési célokat fogalmaz meg, hanem társadalmi jelentőségű értelmezési keretet is: a mesterséges intelligencia a demokrácia védelmének és az emberi döntéshozatal támogatásának eszköze.

A stratégia egyik sarokpontja, hogy a jövő felsőoktatási intézményei nemcsak alkalmazói, hanem formálói legyenek az MI fejlődésének. A kormányülés elé terjesztett indoklás kimondja: a tudományos és technológiai átalakulások – a jelen társadalmi és technológiai, romboló és teremtő átalakulási tényezői (gesellschaftliche und technologische Disruptionen der Gegenwart) – közül az MI az, amely a legmélyebben érinti a felsőoktatás küldetését. Az egyetemek feladata, hogy az innováció és az etika határán mozogva egyszerre legyenek a technológiai fejlődés hajtómotorjai és az emberi döntések minőségének őrzői. A cél nem a gépi rendszerek korlátlan bevezetése, hanem az, hogy az MI használata az emberi kreativitást és felelősséget erősítse.

Kutatási szinten a stratégia az MI-t a digitális szuverenitás és stratégiai önállóság (digitale Souveränität und strategische Autonomie) kulcsterületének tekinti. Az osztrák kormány felismerte, hogy a nemzeti tudományos infrastruktúra csak akkor maradhat versenyképes, ha képes önálló MI-fejlesztési kompetenciákat létrehozni, különösen az alkalmazott tudományokban, az ipari automatizálásban, az orvosi diagnosztikában és a klímamodellezésben. A nemzetközi együttműködések (Vernetzung und Kooperation) célja, hogy az osztrák egyetemek ne periférikus felhasználók, hanem regionális tudásközpontok legyenek a közép-európai MI-kutatásban. Az egyetemek közötti munkamegosztás – a profilképzés és munkamegosztás (Profilbildung und Arbeitsteilung) – így kiterjed a mesterséges intelligenciával foglalkozó laborok, doktori programok és etikai műhelyek koordinált működésére is.

Az oktatási dimenzióban a stratégia kifejezetten utal arra, hogy a hallgatókat digitális állampolgári kompetenciákkal kell felvértezni. Az MI ebben a kontextusban nem csupán technológiai tudás, hanem kritikai gondolkodás és felelősségteljes döntéshozatal fejlesztésének eszköze. A Szövetségi Nőügyi, Tudományos és Kutatási Minisztérium  által meghirdetett cél szerint az egyetemeknek minden tudományterületen – nemcsak az informatikán, hanem a társadalomtudományokon és pedagógián is – be kell építeniük az MI-vel kapcsolatos etikai, jogi és módszertani ismereteket. A hallgatóknak meg kell tanulniuk, hogyan lehet az MI-t emberi célok szolgálatába állítani, miközben megőrzik az autonóm ítélőképességet és a forráskritikai gondolkodást. Ez az elképzelés szervesen illeszkedik a stratégia egyik kulcsfogalmához: a tudatos, felelős, demokratikus polgárok (mündige Bürgerinnen und Bürger) neveléséhez.

A mesterséges intelligencia kérdése összekapcsolódik a tudományos integritás (wissenschaftliche Integrität) és a jó tudományos gyakorlat (gute wissenschaftliche Praxis) témájával is. Az Osztrák Egyetemek Konferenciája (Österreichische Universitätenkonferenz, uniko) és az Osztrák Tudományos Integritási Ügynökség (ÖAWI) közötti vita jól mutatja, hogy a mesterséges intelligencia új etikai kihívásokat vet fel az adatkezelés, a kutatási átláthatóság és a plágiummegelőzés terén. Az uniko álláspontja szerint az MI csak akkor válhat a tudomány hitelességének eszközévé, ha megmarad az egyetemi önszabályozás (Selbstregulierung) és az autonóm felelősség (Autonomie der Hochschulen) keretei között. Az MI alkalmazása nem lehet centralizált ellenőrzési eszköz – éppen ellenkezőleg: az átláthatóságot és az etikus kutatói kultúrát kell szolgálnia. Az MI a felsőoktatásban nem cél, hanem közeg, amelyen keresztül a tudás természete, a tanulás folyamata és a társadalom szerkezete is átalakul. A stratégia üzenete szerint az egyetemeknek az MI-korszakban is meg kell őrizniük az emberi ítélőképesség primátusát – az algoritmusok nem helyettesíthetik, csak kiegészíthetik az emberi gondolkodást.

Távlatok és következmények 2025–2040 között

A Felsőoktatási Stratégia 2040 nem csupán középtávú fejlesztési terv, hanem egy hosszú, másfél évtizedes társadalmi kísérlet kezdete. Az osztrák kormány a 2025-ös elfogadással egy több szakaszban zajló, 2040-ig tartó átalakítási folyamatot indított el, amelyet a dokumentum a Felsőoktatási Párbeszéd 2026 (Hochschuldialog 2026) keretében kíván mélyíteni. Ez a párbeszéd – amelyben az egyetemek, szakfőiskolák, pedagógiai főiskolák, és magánegyetemek egyaránt részt vesznek – a következő években határozza meg az osztrák felsőoktatás új ökoszisztémáját. A cél, hogy az együttműködés, a tudományos kiválóság és a társadalmi felelősség egyensúlyát megtalálják: együttműködés központosítás nélkül (Kooperation ohne Zentralisierung). A stratégia jövőképe szerint 2040-re három strukturális modell körvonalazódhat:

Az első a kooperációs modell, amelyben az intézmények közös infrastruktúrákat, kutatási adatbázisokat és doktori iskolákat működtetnek, miközben megőrzik jogi önállóságukat. Ez a modell illeszkedik az EU által is támogatott European Universities Initiative irányába, és az osztrák felsőoktatást szorosabban kapcsolná a kontinens tudásrégióihoz. A második az ún. profilosítási modell (Profilbildungsmodell), ahol az egyes egyetemek specializált kutatási vagy képzési irányokra koncentrálnak – például a bécsi egyetem a társadalmi innovációra, a grazi műszaki egyetem az energiaátmenetre. A harmadik, legvitatottabb forgatókönyv a centralizációs modell, amelyben az állam egyfajta koordináló hatóságként lépne fel, és az intézmények finanszírozását teljesítménymutatókhoz kötné. Bár ez a megoldás hatékonyságot ígér, sokan attól tartanak, hogy az egyetemi autonómia (Autonomie der Hochschulen) rovására valósulna meg.

A következő évek kulcskérdése tehát az, hogy a Stratégia mennyiben tud dinamikus egyensúlyt teremteni a szabadság és a felelősség között. Ennek biztosítására a kormány a tervek szerint egy nemzetközi tanácsadó testületet (Advisory Board) is felállít, amelyben európai és észak-amerikai felsőoktatási szakértők segítik a folyamat független értékelését. A kormányülés elé terjesztett indoklás szerint a testület célja nem ellenőrzés, hanem reflexiós és iránymutató szerep (Reflexions- und Orientierungshilfe) betöltése lenne.

Az egyik legizgalmasabb távlat, hogy a stratégia összekapcsolja a felsőoktatást a társadalmi reziliencia kérdésével. Az egyetemek feladata nem csupán tudás termelése, hanem a társadalom alkalmazkodóképességének növelése: a klímaváltozás, a technológiai automatizáció és a politikai szélsőségek korában az egyetemeknek kell azokat a kompetenciákat erősíteniük, amelyek fenntartják a demokrácia kulturális immunrendszerét. Ezért kapott központi helyet az önvédelmi demokrácia (wehrhafte Demokratie) elve, amely a tudás, a nyitottság és a kritikus gondolkodás összekapcsolását jelenti a nemzeti identitás újrafogalmazásával.

A mesterséges intelligencia jövőbeni szerepe is tovább bővül: a stratégia következő fázisában várhatóan külön „Digitális Transzformáció 2030+" alprogram indul, amely az MI-alapú oktatás, kutatásmenedzsment és adminisztráció kérdéseit fogja szabályozni. Ezzel Ausztria az egyik első európai ország lehet, amely etikai és oktatáspolitikai keretbe illeszti az egyetemi MI-használatot – a tudományos autonómia megőrzése mellett.

A horizont 2040-ig terjed, de a stratégia első mérföldköveit 2027-re és 2030-ra jelölik ki. 2027-re elkészül a felsőoktatási szektor átfogó szerkezeti térképe, 2030-ra pedig az új finanszírozási modell, amely az intézményi teljesítményt a társadalmi hasznosság (gesellschaftlicher Impact) szempontjából is értékeli. Az elképzelés szerint a tudományos eredményeket nemcsak a publikációs számok, hanem társadalmi hatásmutatók alapján is mérnék. Ezzel a stratégia az egyik első kísérlet Európában arra, hogy az egyetemek hozzájárulását a közjóhoz számszerűsítse.

A hosszabb távú következmények azonban túlmutatnak az intézményi szinten. A Felsőoktatási Stratégia 2040 Ausztria szerepét is újradefiniálja az európai tudáspolitikai térben. Célja, hogy az ország közvetítő hídként működjön az északi technológiai innovációs központok és a délkelet-európai tudásfejlesztési régiók között. Ezt szolgálja az Ausztria, mint Európa tudáscsomópontja (Österreich als Wissensdrehscheibe Europas) koncepció, amelyben a nemzetközi mobilitás, a doktori képzések és a közös kutatási platformok mind stratégiai eszközként jelennek meg. A stratégia úgy kívánja újraértelmezni az osztrák felsőoktatás szerepét, hogy az egyszerre szolgálja a tudományos kiválóságot, a társadalmi igazságosságot és a demokratikus önvédelmet.

A 2040-ig tartó folyamat végére egy olyan rendszer körvonalazódhat, amelyben az egyetemek nem csupán a tudás letéteményeseiként, hanem a jövő társadalmi stabilitásának aktív őreinek teljesítik majd küldetésüket. A stratégia mottója – „Felelősséggel a jövőért" (Aus Verantwortung für die Zukunft) – nemcsak politikai deklaráció, hanem erkölcsi vállalás is: annak ígérete, hogy Ausztria a 21. század közepére a tudás, az emberi méltóság és a demokrácia hármas egységére építi felsőoktatási jövőjét.

Az írás a mesterséges intelligencia közreműködésével készült. Az illusztrációkat a Midjourney készítette.

2025. november 9., vasárnap

A deepfake-től a szerkesztői felelősségig – elindult az MI által létrehozott tartalmak jelölésére vonatkozó európai gyakorlati kódex előkészítése

Az Európai Bizottság 2025 szeptemberében széles körű nyilvános konzultációt indított az AI Act 50. cikkének gyakorlati végrehajtásáról, amely az átláthatóság és a mesterséges intelligencia által létrehozott tartalmak megjelölésének egyik kulcsszabálya. A konzultáció célja, hogy feltérképezze, miként alkalmazhatók a szabályozásban előírt jelölési és címkézési kötelezettségek a mindennapi gyakorlatban – különös tekintettel a deepfake-tartalmakra, az MI-vel generált hírekre, valamint a közérdekű tájékoztatás területére. A Bizottság a szakmai szervezetek, fejlesztők, médiaplatformok, újságírói közösségek és civil szervezetek tapasztalataira építve kívánja kialakítani a mesterséges intelligencia által létrehozott tartalmak jelölésére és címkézésére vonatkozó gyakorlati kódexet, amely az AI Act végrehajtásának egyik alappillére lehet.

Az Európai Unió a mesterséges intelligenciára vonatkozó harmonizált szabályok megállapításáról szóló (EU) 2024/1689 rendelete (AI Act) megköveteli, hogy minden olyan tartalom, amelyet mesterséges intelligencia hoz létre vagy módosít, egyértelműen felismerhető legyen a felhasználók számára. Ez különösen a közérdekű tájékoztatás esetében bír jelentőséggel, ahol a mesterséges eredet elhallgatása torzíthatja a közvéleményt és gyengítheti a demokratikus döntéshozatalt. A szabályozás megkülönbözteti a szolgáltatói és a közzétevői felelősséget: az előbbieknek géppel olvasható jelöléseket kell alkalmazniuk, míg az utóbbiaknak ember által is jól látható figyelmeztetéseket kell elhelyezniük. Ugyanakkor a cikk több vitás kérdést is felvet: miként különíthető el az MI által támogatott szerkesztés a valódi tartalomgenerálástól, hogyan kezelhetők a művészeti és szatirikus kivételek, és milyen határvonal húzható a közérdekű tájékoztatás és a magánkommunikáció között. A konzultáció résztvevőitől a Bizottság gyakorlati példákat, jelölési technikákat és etikai javaslatokat vár, amelyek hozzájárulhatnak egy arányos, technológiailag megvalósítható és egységes európai kódex megalkotásához. A dokumentum várhatóan 2026-tól szolgál majd iránytűként az MI-rendszerek által létrehozott tartalmak kezeléséhez, célja pedig, hogy az átláthatóság, a hitelesség és a digitális bizalom erősítésével hozzájáruljon az európai információs tér védelméhez és megbízhatóságához.

Az AI Act szabályozási háttere és a konzultáció meghirdetése

Az AI Act 2024. augusztus 1-jén lépett hatályba, létrehozva az Európai Unió egységes jogi keretrendszerét a megbízható és emberközpontú mesterséges intelligencia fejlesztéséhez és alkalmazásához. A rendelet kettős célt követ: elősegíti az innováció és az MI-alkalmazások terjedését, ugyanakkor biztosítja az egészség, a biztonság és az alapvető jogok magas szintű védelmét, beleértve a demokrácia és a jogállamiság megóvását. A rendelet átfogó megközelítést alkalmaz, és a különböző kockázati szintű MI-rendszerekre eltérő követelményeket határoz meg.

Az 50. cikk átláthatósági követelményeket tartalmaz bizonyos, az emberekkel közvetlenül interakcióba lépő MI-rendszerek szolgáltatói és felhasználói számára. E követelmények célja, hogy a természetes személyek felismerjék, amikor MI-rendszerekkel lépnek kapcsolatba, vagy amikor MI-rendszerek által generált vagy manipulált, szintetikus tartalomnak vannak kitéve. Ezáltal csökkenthető a személyiséglopás, a megtévesztés vagy az antropomorfizáció kockázata, és erősíthető a bizalom az információs ökoszisztémában. Az átláthatósági kötelezettségek 2026. augusztus 2-től alkalmazandók, az érintett piaci szereplőknek kevesebb mint két év áll rendelkezésükre a felkészülésre.

Az 50. cikk előírja, hogy a felhasználót legkésőbb az első kapcsolatfelvételkor tájékoztatni kell arról, hogy KI-rendszerrel lép kapcsolatba, vagy hogy az adott tartalom mesterségesen generált.
Speciális szabályok vonatkoznak azokra az MI-rendszerekre, amelyek a nyilvánosság számára készítenek szövegeket: ezek esetében kötelező a gépi eredet feltüntetése, kivéve, ha az emberi szerkesztés felelősségvállalással párosul. A „deepfake”-tartalmak esetén szintén kötelező a jelölés, még akkor is, ha a cél szórakoztató, vagy művészi.

Az átláthatósági követelmények öt területet érintenek. Az 50. cikk (1) bekezdése szerint azok a szolgáltatók, akik olyan MI-rendszereket kínálnak, amelyek közvetlenül természetes személyekkel lépnek kapcsolatba, kötelesek biztosítani, hogy ezek a személyek tájékoztatást kapjanak arról, hogy MI-rendszerrel kommunikálnak. Kivételt képez, ha az interakció nyilvánvaló egy ésszerűen tájékozott, figyelmes és körültekintő természetes személy számára, figyelembe véve a használat körülményeit és kontextusát. Az 50. cikk (2) bekezdése olyan MI-rendszerek szolgáltatóit érinti, amelyek szintetikus szöveget, hangot, képet vagy videót generálnak. E szolgáltatóknak technikai megoldásokat kell alkalmazniuk annak biztosítására, hogy a rendszer kimenetei géppel olvasható formátumban jelöltté váljanak, és lehetővé tegyék annak felismerését, hogy a tartalmat MI generálta vagy manipulálta.

Az 50. cikk (3) bekezdése az érzelemfelismerő vagy biometrikus kategorizáló rendszerek felhasználóit kötelezi arra, hogy tájékoztassák az ezeknek a rendszereknek kitett természetes személyeket a rendszer működéséről. Az 50. cikk (4) bekezdése megköveteli azoktól a felhasználóktól, akik deepfake-tartalmat generáló vagy manipuláló MI-rendszereket alkalmaznak, vagy olyan MI által generált vagy manipulált szöveges publikációkat tesznek közzé, amelyek célja a nyilvánosság tájékoztatása közérdekű kérdésekről, hogy közzétegyék a tartalom mesterségesen generált vagy manipulált eredetét. Meglehetően széles körben értelmezhető kivételt képeznek meghatározott esetek, amikor a tartalom emberi felülvizsgálaton vagy szerkesztői kontrollon esett át. Az 50. cikk (5) bekezdése horizontális követelményeket ír elő: a szükséges információkat világos és megkülönböztethető módon, legkésőbb az első interakció vagy kitettség időpontjában kell közölni, betartva az alkalmazandó akadálymentességi követelményeket.

Az átláthatósági követelmények gyakorlati végrehajtásának támogatására az Európai Bizottság 2025. szeptember 2-án konzultációt indított az érdekelt felek körében. A kezdeményezés kettős jogalappal rendelkezik: az AI Act 96. cikkének (1) bekezdés d) pontja szerint a Bizottságnak iránymutatásokat kell kiadnia az 50. cikkben foglalt átláthatósági kötelezettségek gyakorlati végrehajtásáról, míg az 50. cikk (7) bekezdése felhatalmazza az MI Hivatalt arra, hogy ösztönözze és megkönnyítse magatartási kódexek kidolgozását a mesterségesen előállított vagy manipulált tartalom felismerésére és címkézésére vonatkozó kötelezettségek hatékony végrehajtása érdekében.

A Bizottság álláspontja szerint az átláthatósági követelmények segítik a szolgáltatókat és a felhasználókat abban, hogy felismerjék és megjelöljék az MI által generált vagy manipulált tartalmat, biztosítva, hogy a felhasználók tájékoztatást kapjanak, amikor MI-rendszerrel lépnek kapcsolatba. A konzultáció célja széles körű visszajelzés gyűjtése volt különböző érdekelt kategóriáktól, beleértve az interaktív és generatív MI-modellek és -rendszerek szolgáltatóit és felhasználóit, biometrikus kategorizáló és érzelemfelismerő rendszerek szolgáltatóit és felhasználóit, ezeket az interaktív és generatív MI-rendszereket használó magán- és közszférabeli szervezeteket, tudományos és kutatóintézeteket, civil társadalmi szervezeteket, kormányokat, felügyeleti hatóságokat és a széles nyilvánosságot.

A szintetikus tartalmak és a deepfake jelölésének kötelezettsége

Az 50. cikk (2) bekezdése legáltalánosabban a mesterséges intelligencia-rendszerek által előállított vagy manipulált, úgynevezett szintetikus tartalmak átláthatóvá tételét írja elő. Minden olyan szolgáltató, amely szöveget, képet, hangot vagy videót generáló MI-rendszert fejleszt vagy üzembe helyez, köteles biztosítani, hogy a kimenet egyértelműen megkülönböztethető legyen az emberi eredetű tartalmaktól.

A rendelkezés célja a félretájékoztatás és a manipuláció kockázatainak csökkentése, különösen a nagy tömegben terjeszthető digitális tartalmak esetében. A jelölésnek tartósnak, érzékelhetőnek és – ha lehetséges – géppel olvashatónak kell lennie, ugyanakkor az alkalmazott technológia fejlettségi szintjéhez kell igazodnia. Ez a kötelezettség nem alkalmazandó, ha azt törvény engedélyezi bűncselekmények felderítése, megelőzése, nyomozása vagy büntetőeljárás alá vonása céljából, vagy az MI-rendszerek támogató funkciót töltenek be hagyományos szerkesztés céljára, vagy nem változtatják meg lényegesen az alkalmazó által szolgáltatott bemeneti adatokat vagy azok szemantikáját. A szabályozásban megjelenő minor-editing exception a jogalkotói proporcionalitás-elv megtestesülése: a szabályozásnak nem célja, hogy a természetes szerkesztést jogellenes magatartásként kezelje.

A (4) bekezdés első albekezdése már kifejezetten a deepfake-tartalmakat célozza, a felhasználókra, illetve üzemeltetőkre (az alkalmazókra) vonatkozik, nem a szolgáltatókra. A „deepfake” az AI Act 3. cikk 60. pontja szerint olyan kép-, hang- vagy videóanyag, amely valós személyt, helyszínt vagy eseményt hitelesen utánzó módon jön létre vagy kerül módosításra, és emiatt egy átlagosan tájékozott, figyelmes természetes személy számára is valódinak tűnhet. Az ilyen rendszerek alkalmazóinak közölniük kell, hogy a tartalom mesterségesen létrehozott vagy manipulált. E közlés sem igényel géppel olvasható jelölést, hanem elegendő a megfelelő, érzékelhető felfedés – például szöveges kísérőinformáció vagy felirat formájában. Ez a kötelezettség nem alkalmazandó, ha a tartalom bűncselekmények felderítése, megelőzése vagy büntetőeljárás alá vonása céljából kerül felhasználásra. Ugyancsak kivételt képeznek a nyilvánvalóan művészeti, kreatív, szatirikus vagy fiktív művek, ahol a kötelezettség csupán a deepfake-elemek megfelelő módon történő felfedésére korlátozódik, anélkül, hogy az a mű élvezetét vagy rendes felhasználását akadályozná. a minor-editing exception a jogalkotói proporcionalitás-elv megtestesülése: a szabályozásnak nem célja, hogy a természetes szerkesztést kriminalizálja.

A (4) második albekezdése a nyilvánosság közérdekű ügyekről való tájékoztatása céljából közzétett szöveget generáló vagy manipuláló MI-rendszer alkalmazóira vonatkozó rendelkezés: nekik közlési kötelezettségük van, ha szöveget mesterségesen hozták létre vagy manipulálták. Ez a kötelezettség sem alkalmazandó abban az esetben, ha a felhasználást törvény engedélyezi bűncselekmények felderítése, megelőzése, nyomozása vagy büntetőeljárás alá vonása céljából, vagy ha a mesterséges intelligencia által létrehozott tartalmon emberi felülvizsgálatra vagy szerkesztési ellenőrzésre került sor, és amennyiben a tartalom közzétételéért természetes vagy jogi személy szerkesztői felelősséget visel. Ez pedig jellemzően csak a sajtótermékek esetében fordul elő, a szerkesztői felelősség a blogok, posztok esetében nem érvényesül. 

Az 50 cikk (2) és (4) bekezdése egymásra épül: az előbbi a tartalom-eredet technikai megjelölését, az utóbbi pedig a felhasználói-társadalmi felelősség keretét teremti meg. Az MI-rendszerek korában a jelölés nem csupán adatvédelmi vagy fogyasztóvédelmi kérdés, hanem az információs integritás védelmének jogi minimuma.

Korlátozó szabály vagy a közbizalom alapnormája a digitális korban?

Az 50. cikk (4) bekezdése szerinti kötelezettség nem általános tartalomjelölési szabály, hanem speciális normatív védőkorlát a demokratikus tájékoztatásban, a véleményformálás tisztaságának biztosítására. Az alakuló jogirodalom ezt igen tág körben érvényesülő követelményként fogja fel: abban a körben melyre alkalmazását a rendelet előírja (a nyilvánosság közérdekű ügyekről való tájékoztatása) a hírszolgáltatástól a személyes blogokon át a közösségi médiában közzé tett tartalmakig elvileg minden esetre vonatkozhat.

Nicolaj Feltes [Feltes, N. (2025). Article 50 AI Act: Do the Transparency Provisions Improve Upon the Commission’s Draft? JIPITEC, 16, 222–245.] elemzése szerint ez a szabály a mesterséges intelligencia-szabályozás politikailag legérzékenyebb pontja, mivel a hatálya a médián túl a teljes közösségi kommunikációs térre kiterjedhet. Feltes úgy értelmezi, hogy a „közérdekű tájékoztatás” kifejezés funkcionális fogalom: nem a tartalom műfaja vagy formája számít, hanem annak célja, hogy a közvéleményt politikai, gazdasági vagy társadalmi kérdésekben informálja. Ezért ugyanúgy a rendelkezés alá eshet egy MI-vel generált politikai hirdetés, mint egy automatikus hírelőállító rendszer, de akár egy influenszer által megosztott közéleti kommentár is, amennyiben az a közönség döntését vagy véleményét befolyásolhatja. Feltes ugyanakkor hangsúlyozza, hogy a szabály nem vezethet a véleménynyilvánítás korlátozásához: a kötelezettség célja nem a tartalom tiltása, hanem az eredet feltüntetése. A szerző ezért egy objektív-funkcionális tesztet javasol, amely három szempontot egyesít: a tartalom hatását a nyilvánosságra, a terjesztés körét és a félrevezetés kockázatát. Feltes továbbá felhívja a figyelmet az Európai Unió A digitális szolgáltatásokról szóló rendeletével való kapcsolódásra: ha egy MI-generált közérdekű szöveg megtévesztő, annak jelölés nélküli közzététele a DSA szerint akár „illegális tartalomnak” is minősülhet.

Thomas Gils [Gils, T. (2024). A Detailed Analysis of Article 50 of the EU’s Artificial Intelligence Act. KU Leuven, Centre for IT and IP Law (CITIP). Manuscript in preparation.] tágabb, normatív-összehasonlító megközelítést alkalmaz. Szerinte a közérdekű tájékoztatási kötelezettség az AI Act egyik „demokratikus integritás-klauzulája”, amely a véleménynyilvánítás szabadságát, a tájékozódáshoz való jogot és a technológiai átláthatósághoz való jogot hozza egyensúlyba. Gils a rendelkezést a nemzetközi normarendszer részeként értelmezi: megfeleltethető a UNESCO Recommendation on the Ethics of AI „transparency and explainability” elvének, az OECD AI Principles átláthatósági követelményének, valamint a 2023-as G7 Hiroshima Principles azon irányelvének, amely a tartalmak hitelességének gépi azonosítását írja elő. Ezzel szerinte az AI Act az európai demokráciák védelmi mechanizmusává válik a mesterséges információk korszakában. Gils kiemeli, hogy a „matters of public interest” nem szűkíthető le a klasszikus sajtóműfajokra: a tudományos, oktatási vagy egészségügyi témájú MI-tartalmak is ide tartozhatnak, ha befolyásolják a közösségi döntéshozatalt. Értelmezése szerint a rendelet nem korlátoz, hanem felhatalmaz: megőrzi a szólásszabadságot, miközben az MI-eredet jelölésével biztosítja a valósághű tájékoztatást. A szerző javasolja egy uniós „AI byline” szabvány bevezetését, amely lehetővé tenné, hogy az olvasó mindig lássa, ha a tartalom mesterségesen generált vagy MI-vel támogatott formában készült.

A rendelkezés értelmezése kapcsán a jövőben is komoly viták várhatók, melyek valószínűleg három kérdésre összpontosítanak majd: mit jelent a „közérdekű tájékoztatás”, ki felel a jelölésért, és milyen formában kell azt megtenni. Nem egyértelmű, hogy a fogalom a sajtóra, a közösségi médiára vagy minden befolyásoló tartalomra kiterjed-e. Vitás a felelősségmegosztás a fejlesztő és a közzé tevő között, valamint a jelölés módja – vizuális, metaadat vagy nyelvi formula – is értelmezésre szorul. Ehhez értékes hozzájárulást jelentenek majd szeptemberben kezdődött konzultációs folyamatra beérkezett válaszok.



A konzultációs kérdések felépítése

A szeptemberben megjelent konzultációs dokumentum szerint a kérdőív öt szekció mentén strukturálódik, amelyek mindegyike az 50. cikk egy-egy bekezdésére fókuszál, a sort pedig egy hatodik, horizontális szekció zárja. A válaszadók szabadon dönthetnek arról, hogy mely szakaszokhoz kívánnak hozzájárulni. A dokumentum konkrét, tömör magyarázatokat és valós használati eseteket kér. A konzultáció eredetileg október 2-ig volt nyitva, majd a határidőt október 9-re hosszabbították meg. Rövidesen Minden beérkezett vélemény nyilvánosan hozzáférhetővé válik majd, az egyéni válaszadók kivételével, akik kérhetik hozzájárulásuk anonimizálását.

Az első szekció az interaktív MI-rendszerekre vonatkozó átláthatósági követelményeket vizsgálja. Az 50. cikk (1) bekezdése olyan MI-rendszerek szolgáltatóit érinti, amelyek közvetlenül természetes személyekkel lépnek kapcsolatba. A 132. preambulumbekezdés szerint figyelembe kell venni a sérülékeny csoportokhoz tartozó természetes személyek jellemzőit. A kérdések gyakorlati példákat kérnek olyan rendszerekre, amelyek közvetlenül interakcióba lépnek természetes személyekkel, értékelni kell, hogy az interakció nyilvánvalónak tekinthető-e egy ésszerűen tájékozott személy számára. A második kérdés a bűnüldözési célú felhasználásra összpontosít: példákat kér jogszabály által felhatalmazható rendszerekre, megadva a felhatalmazó jogszabályt és a megfelelő biztosítékokat. A harmadik kérdés értesítési technikákat gyűjt, értékelve azok megfelelőségét a világos, megkülönböztethető és akadálymentes tájékoztatás szempontjából.

A második szekció a generatív MI-rendszerekre fókuszál. Az 50. cikk (2) bekezdése olyan rendszerek szolgáltatóit érinti, amelyek szintetikus szöveget, hangot, képet vagy videót generálnak. E szolgáltatóknak technikai megoldásokat kell alkalmazniuk, hogy a kimenetek géppel olvasható formátumban jelöltté váljanak. A 133. preambulumbekezdés példákat ad: vízjelek, metaadat-azonosítások, kriptográfiai módszerek, naplózási eljárások, ujjlenyomatok vagy ezek kombinációja. A kérdések gyakorlati példákat kérnek ezekre a rendszerekre, beleértve a kivételek alá tartozókat (szabványos szerkesztési segédfunkciók, bűnüldözési célú felhasználás). A hatodik kérdés részletes technológiai leírást kér a megjelölési és felismerési megoldásokról, megadva a technológia nevét, típusát, alkalmazási területét modalitásonként, érettségi szintjét és működésének leírását. A hetedik kérdés ezeknek a megoldásoknak a részletes értékelését kéri öt kritérium alapján: hatékonyság, interoperabilitás, robusztusság, megbízhatóság, valamint átláthatóság és hozzáférhetőség.

A harmadik szekció az érzelemfelismerő és biometrikus kategorizáló rendszerekre vonatkozik. Az 50. cikk (3) bekezdése megköveteli ezeknek a rendszereknek a felhasználóitól, hogy tájékoztassák az érintett természetes személyeket a rendszer működéséről, kivéve, ha jogszabály lehetővé teszi bűnüldözési célokra. A kérdések gyakorlati példákat kérnek ezekre a rendszerekre és átláthatósági intézkedéseket gyűjtenek.

A negyedik szekció két területet fed le. Az 50. cikk (4) bekezdésének első albekezdése megköveteli a deepfake-et generáló MI-rendszerek felhasználóitól a tartalom mesterséges eredetének közzétételét, az 50. cikk (4) bekezdésének második albekezdése azokat érinti, akik közérdekű kérdésekről tájékoztató szöveget generálnak. A Bizottság arra kéri az érintett szereplőket – fejlesztőket, közzétevőket, médiumokat, kutatókat és civil szervezeteket –, hogy osszák meg tapasztalataikat arról, hogyan alkalmazható az átláthatósági kötelezettség a deep fake tartalmak és a közérdekű tájékoztatás területén. A válaszokban olyan gyakorlati esetek bemutatását várják, amelyek segíthetnek azonosítani, milyen típusú MI-rendszerek generálnak vagy módosítanak képi, hangi vagy szöveges tartalmat, és mikor minősül ez „deep fake”-nek vagy közérdekű tájékoztatásnak.

A konzultáció e körben külön figyelmet fordít azokra a helyzetekre, amikor az MI által létrehozott tartalom emberi szerkesztésen vagy szerkesztői ellenőrzésen megy át, és a publikációért egy természetes vagy jogi személy visel felelősséget – olyan esetekre vár példákat, amikor a jelölési kötelezettség korlátozható lehet. A Bizottság emellett véleményeket vár a jelölési technikákról (például metaadat, vízjel, nyelvi formula vagy látható figyelmeztetés) és azok arányosságáról, továbbá a művészeti, szatirikus és fikciós tartalmak esetében alkalmazható sajátos megoldásokról. A konzultáció célja, hogy a beérkező javaslatok alapján a Bizottság pontosabban meghatározza, mikor tekinthető egy MI-generált szöveg valóban a nyilvánosság tájékoztatásának, és milyen jelölési gyakorlatok segíthetik elő a transzparencia, az információs integritás és a közbizalom megőrzését az európai információs térben.

Az ötödik szekció horizontális kérdéseket tárgyal. Az 50. cikk (5) bekezdése megköveteli, hogy a különböző átláthatósági követelmények alapján nyújtandó információkat világos és megkülönböztethető módon, legkésőbb az első interakció időpontjában kell közölni, betartva az akadálymentességi követelményeket. Az 50. cikk (6) bekezdése biztosítja, hogy ezek a követelmények ne legyenek ellentétesek a magas kockázatú MI-rendszerekre vonatkozó szabályokkal vagy más uniós vagy tagállami jogszabályokkal. A kérdések e kölcsönhatásokra vonatkozó tisztázást és a magatartási kódexre vonatkozó ajánlásokat és jó gyakorlatokat kérnek.

A magatartási kódex kidolgozásának megkezdése

A konzultációs folyamat eredményeire építve az Európai Bizottság 2025. november 5-én hivatalosan bejelentette a magatartási kódex kidolgozásának megkezdését. A bejelentés szerint a Bizottság elindította a munkát az MI által generált tartalom megjelölésére és címkézésére vonatkozó magatartási kódexen, amely az MI Act átláthatósági követelményeinek gyakorlati eszköze lesz.

A november 5-i nyitó plenáris ülés találkozási lehetőséget biztosított az Európai MI Hivatal által kinevezett független szakértők számára, de egy befogadó, hét hónapos, az érdekelt feleket bevonó folyamat elindulását is jelentette. A folyamatot független szakértők vezetik, felhasználva a nyilvános konzultációból érkező visszajelzéseket és a nyílt felhívásra kiválasztott érdekelt felek hozzájárulásait: ez biztosítja, hogy a magatartási kódex mind a széles körű nyilvánosság, mind a szakértők tapasztalatait tükrözze, és gyakorlati megvalósíthatósága mellett tudományos megalapozottsága is garantált legyen.

A készülő magatartási kódex önkéntes eszköz lesz, amely segíti a generatív MI-rendszerek szolgáltatóit átláthatósági kötelezettségeik hatékony teljesítésében. A kódex támogatni fogja az MI által generált tartalom megjelölését, ideértve a szintetikus hangot, képeket, videókat és szövegeket, géppel olvasható formátumokban, hogy lehetővé tegye azok felismerését. Ez a géppel olvasható megjelölés lehetővé teszi, hogy automatizált eszközök is képesek legyenek azonosítani az MI eredetű tartalmat, nem csupán emberi vizsgálat révén. A kódex segíteni fogja továbbá a deepfake-eket vagy MI által generált tartalmat használó felhasználókat abban, hogy egyértelműen jelezzék az MI részvételét, különösen akkor, amikor a nyilvánosságot közérdekű kérdésekről tájékoztatják.

A Bizottság hangsúlyozza, hogy az átláthatósági követelmények célja a félretájékoztatás, a csalás, a személyiséglopás és a fogyasztói megtévesztés kockázatának csökkentése azáltal, hogy erősítik a bizalmat az információs ökoszisztémában. Az AI Act átláthatósági rendelkezései támogatást nyújtanak az MI által generált tartalom megjelöléséhez, beleértve a szintetikus hang-, kép-, videó- és szöveges tartalmakat, géppel olvasható formátumban, lehetővé téve azok felismerését. Ez a demokratikus folyamatok védelme szempontjából különösen fontos, mivel az MI által generált dezinformáció jelentős veszélyt jelenthet a közvélemény formálására és a választási folyamatokra.

A magatartási kódex több kulcsfontosságú problémára és kihívásra keres választ. Tisztázza, hogy milyen konkrét technikai megoldások alkalmazhatók az MI által generált tartalom megjelölésére különböző modalitások esetében – szöveg, kép, hang, videó –, és ezek közül melyek tekinthetők hatékonynak, interoperábilisnak, robusztusnak és megbízhatónak. Útmutatást ad arra vonatkozóan, hogy miként lehet egyensúlyt teremteni az átláthatósági követelmények és a kreatív szabadság között, különösen művészi, szatirikus vagy fikciós alkotások esetében. Részletes praktikákat kínál arra, hogyan tájékoztassák a felhasználókat világos, megkülönböztethető és akadálymentes módon az MI-rendszerekkel való interakcióról vagy az MI által generált tartalomnak való kitettségről. Segíti a piaci szereplőket abban, hogy megértsék, melyek azok az esetek, amikor az átláthatósági kötelezettségek alól kivétel érvényesül, és milyen biztosítékokat kell alkalmazniuk bűnüldözési célú felhasználás esetén.

Összegzés

A 2026 augusztusától alkalmazandó magatartási kódex konkrét, a gyakorlatban alkalmazható megoldásokat kínál majd az AI Act átláthatósági követelményeinek megvalósításához, annak biztosítására törekedve, hogy a szabályozás és az innováció harmonikusan együttműködjön a megbízható MI-ökoszisztéma felépítésében. A kezdeményezés nemcsak az európai digitális egységes piac megerősítését szolgálja, hanem globális precedenst is teremthet az MI átláthatóságának szabályozásában, mivel más jogrendszerek is figyelemmel kísérik az EU munkáját ezen a területen. Mindez azonban nem ad megoldást az 50. cikk alkalmazásában várható legnagyobb problémára: az érintett jogsértő tartalmak már a jelenben is parttalan áradatára, mely a politikai kommunikációtól a marketingen át lényegében végtelen számú lehetőséget adna jogsértés miatti eljárások elindítására. Erre pedig sem az Unió MI-hivatala, sem az illetékes nemzeti MI piacfelügyeleti (?) hatóságok nem készültek fel - de nem is erre kerültek létrehozásra.

Az írás a mesterséges intelligencia közreműködésével készült. Az illusztrációkat a Midjourney készítette.

2025. november 4., kedd

Az MI megoldások felelősen használva valódi értéket teremtenek – rektori utasítás a mesterséges intelligencia oktatásban történő használatáról az ELTÉ-n

 


Az Eötvös Loránd Tudományegyetem 4/2025. (X. 28.) rektori utasítása mérföldkő az egyetemi szintű mesterséges intelligencia-szabályozásban.  Előkészítése a felelős, etikus és átlátható MI-használat elvi alapjaira épült. A szabályozás kiindulópontja az a felismerés volt, hogy a mesterséges intelligencia nem tiltandó, hanem fejlesztendő és tudatosan irányítandó technológia, amely az oktatás és a kutatás természetes részévé válik. Az Egyetem célja, hogy az MI az önálló gondolkodást és a kritikai szemléletet támogassa, ne pedig helyettesítse. A szabályozás a bevonás és partnerség elvére épül: a kari szakértők, az oktatók és a Hallgatói Önkormányzat közösen alakították ki az irányelveket, figyelembe véve az egyes tudományterületek eltérő igényeit. Az elvi alapok között kiemelt szerepet kap az akadémiai integritás, a kritikus gondolkodás megőrzése és a digitális kompetenciák fejlesztése.  Az új keretrendszer nem a tiltás, hanem a tudatos, reflektált és jogszerű MI-használat kultúráját vezeti be, amely egyaránt védi az oktatás minőségét és erősíti a hallgatók munkaerőpiaci felkészültségét. 

A dokumentum célja, hogy a jelenlegi fragmentált, kari szinten megjelenő kezdeményezések összehangolása és a koordinált fejlesztés érdekében egységes keretet adjon a hallgatói MI-használatnak, elősegítve annak etikus, átlátható és felelős alkalmazását az oktatásban. A bevezetőben elvi szinten hangsúlyozottak szerint a mesterséges intelligencia-alapú megoldások felelősen használva valódi értéket teremtenek: támogatják a tanulás hatékonyságát, fejlesztik a digitális kompetenciákat, és hozzájárulnak a munkaerőpiaci versenyképesség növeléséhez. Ugyanakkor az utasítás arra is figyelmeztet, hogy a technológia kontrollálatlan alkalmazása gyengítheti a kritikus gondolkodás és az önálló problémamegoldás képességét [1.].

A szabályozás célja és alapelvei

A szabályozás az Európai Unió 2024/1689. (EU) MI-rendeletének (AI Act) fogalomrendszerére épül. Az utasítás értelmében a mesterséges intelligencia-rendszer legáltalánosabban olyan gépi alapú rendszer, amely képes autonóm módon elemezni a bemeneteket és azokból tartalmakat, előrejelzéseket vagy döntéseket generálni. Ezen belül a generatív MI (GenAI) a tartalom-előállító megoldásokat jelöli, amelyek felhasználói utasítás (prompt) alapján képesek szöveget, képet, kódot vagy akár hanganyagot előállítani [2.1.-2.2.]. Az utasítás technológiasemleges, vagyis valamennyi, az egyetem hallgatói által elérhető MI-eszközre kiterjed, függetlenül annak típusától, fejlesztőjétől vagy elérési módjától [2.4.].

Az Egyetem a most kiadott rektori utasítás, valamint a Karok által ezzel összhangban meghatározott keretek között a legteljesebb mértékben támogatja az MI alapú megoldások és alkalmazások felelős és etikus használatát a hallgatói munka minden egyes szakaszában, kurzustól függően az órai és órán kívüli munka, a felkészülés, a tanulás, valamint az órai beadandó feladatok, az órán kívül beadandó feladatok, a portfólió, prezentáció, évfolyam- és szakdolgozat elkészítése során egyaránt [3.1.]. Személyi hatálya kiterjed minden, az ELTE-vel hallgatói vagy felnőttképzési jogviszonyban álló személyre, kivéve a doktori képzés résztvevőit [10.1.]. Lényegében az MI ezzel az ELTE valamennyi alap- és mesterszakos, illetve osztatlan képzésben részt vevő hallgatója számára a teljes tanulási folyamatban felhasználhatóvá válik, azzal, hogy a konkrét alkalmazás összefüggésében a kari szabályozások (irányelvek) között a szabályzatnak nem ellentétes, speciális, az adott képzés sajátosságaihoz rendelt keretfeltételeket állapíthatnak meg. Az MI-eszközök a hallgatói tevékenységben támogató szerepet tölthetnek be, de nem helyettesíthetik az emberi kreativitást, elemzőképességet és döntéshozatalt [3.2.].

A dokumentum rögzíti, hogy az MI-használat az egyetemen alapvetően önkéntes, de bizonyos kurzusokban – például a digitális írástudást vagy adatelemzést fejlesztő tárgyakban – az oktatók előírhatják a technológia alkalmazását [3.4.]. A karok e szabályok mentén saját, részletes kereteket is kialakíthatnak, amelyeknek azonban összhangban kell állniuk a rektori utasítással. A képzési célok által indokolt esetben az MI-használatra vonatkozó korlátozóbb szabályok is megállapíthatók. Minden eltérő előírást a kurzusleírásban kell feltüntetni, az oktatóknak pedig kötelességük a hallgatókat előzetesen tájékoztatni [3.5.-3.6.]. A hallgatók védelmét szolgálja az a kitétel, hogy senkit sem érhet hátrány amiatt, ha szabályosan és átlátható módon alkalmaz mesterséges intelligenciát tanulmányai során [3.8.].

Az ELTE célja, hogy a különböző tudományterületeken folyó oktatási gyakorlatokat egységes elvek mentén koordinálja, miközben meghagyja az autonóm döntési teret a karok számára. Amennyiben a karok a rektori utasítás keretei között megengedett speciális szabályokat állapítanak meg az MI-használatot illetően, úgy kötelező ennek kari szabályzatokban való rögzítése és a hallgatók számára elérhető formátumban való közzététele. Az ilyen szabályok megalkotásáról tájékoztatni kell a mesterséges intelligencia egyetemi zászlóshajó programot koordináló rektori biztost és az Oktatási Igazgatóságot [3.7.]. Kari szintű szabályozásra eddig irányelvek és értelmező állásfoglalások útján került sor (Pedagógiai és Pszichológiai Kar, 2023, Bölcsészettudományi Kar, 2024, Gazdaságtudományi Kar, 2025). Ezeket most a rektori utasítás függvényében célszerű felülvizsgálni, szükség szerint módosítani, és a kari specifikus rendelkezéseket immár kari szabályzat formájában újra kiadni.

Az utasítás kiemeli a transzparens dokumentálás fontosságát: minden hallgatónak egyértelműen nyilatkoznia kell, hogy milyen céllal, hogyan és milyen eszközöket használva vett igénybe MI-t a dolgozatában, prezentációjában vagy kutatásában [3.10. §]. A generált tartalom sajátként való feltüntetése szigorúan tilos, és a Hallgatói Követelményrendszer szerint plágiumnak minősül [3.11. §]. A hallgatók teljes felelősséget viselnek az MI által előállított információk pontosságáért és jogszerűségéért, beleértve az esetleges hibákat, torzításokat és jogsértéseket is [3.12. §]. Ebben a karok nagy mozgásteret kaptak: a dokumentálási kötelezettség tartalmát kari szabályzatukban ők állapíthatják meg [5.2.], és további szabályokat hozhatnak a támogatott használattal, annak eseteivel kapcsolatban, és ajánlásokat fogalmazhatnak meg az egyes MI használati esetekkel kapcsolatos bevált gyakorlatokról – természetesen a rektori utasítás keretein belül maradva [5.3.].

Etikai elvek, adatvédelem és a támogatott MI-használat

Az ELTE rektori utasítása a mesterséges intelligencia felelős használatát nemcsak technológiai, hanem etikai, valamint adat- és kibervédelmi szempontból is meghatározza. A szabályozás kiindulópontja, hogy az MI-eszközök az oktatásban akkor támogathatják a tanulást, ha az alkalmazásuk átlátható, ellenőrizhető és emberi felügyelet mellett történik. A hallgatók minden esetben kötelesek dokumentálni, ha MI-t vettek igénybe tanulmányaikhoz, különösen beadandó dolgozat, prezentáció, portfólió vagy szakdolgozat esetén [4.1.].

A dokumentáció és az MI-használati nyilatkozat nem kizárólag adminisztratív feladat, hanem az akadémiai etika garanciája. A hallgatónak be kell mutatnia, hogy milyen eszközöket, milyen céllal és milyen módon alkalmazott, és képesnek kell lennie arra is, hogy az elkészült munka tartalmát önreflexív módon magyarázza. A szabályozás kimondja: az MI által létrehozott tartalom sajátként való feltüntetése, vagy az alkalmazás dokumentálásának elmulasztása a plágiummal azonos megítélés alá esik [4.1.]. Az oktatók külön figyelmet fordítanak a beadott munkák értékelésekor az MI-használat felismerésére, és ha megalapozott gyanú merül fel, etikai vagy fegyelmi vizsgálatot kezdeményezhetnek [7]. A szabályzat nem írja elő MI-detektáló alkalmazások kötelező oktatói használatát, a HKR 74/B. § (2) bekezdése alapján azonban szakdolgozat/diplomamunka esetén kötelező elvégezni a Turnitin alapú plágiumkeresést.

A szerzőség kérdését a rektori utasítás egyértelműen rendezi: mesterséges intelligenciát szerzőként feltüntetni tilos, mert a szerzőség kizárólag emberi szellemi alkotómunkát és annak felelősségét jelenti. Az MI csak támogató szerepet tölthet be, nem tekinthető alkotótársnak vagy társszerzőnek [4.1.].

A felelős használat következő pillére az emberi felügyelet és felelősség elve [4.2.]. A hallgatóknak minden tanulmányi szakaszban meg kell őrizniük kritikai ítélőképességüket, az MI által generált tartalmakat pedig önállóan kell értékelniük és ellenőrizniük. Az utasítás külön kiemeli a torzítások és hallucinációk problémáját: az MI rendszerek kulturális, társadalmi és módszertani elfogultságokat hordozhatnak, ezért a hallgatónak kötelessége több nézőpontból megvizsgálni az eredményeket, és ellenirányú teszteléssel győződni meg azok megbízhatóságáról. A dokumentum egyértelművé teszi, hogy az MI kimeneteinek ellenőrzés nélküli felhasználásából fakadó hibákért kizárólag a hallgató viseli a felelősséget.

A harmadik fő etikai terület az adatvédelem és kiberbiztonság [4.3.]. A mesterséges intelligencia platformok használata során a hallgatóknak fokozott óvatosságot kell tanúsítaniuk, mert az online szolgáltatások nem mindig biztosítanak megfelelő adatbiztonságot, és a feltöltött adatok gyakran a szolgáltatók szerverein maradnak. Az utasítás tiltja a személyes adatok, kutatási titkok, üzleti információk vagy még nem publikált kutatási eredmények MI-rendszerekbe való bevitelét. Különösen szigorú a tiltás, ha az adatok titoktartási megállapodás hatálya alatt állnak, vagy harmadik fél jogait sérthetik. Az ilyen információk feldolgozása csak az egyetemi adatkezelési szabályzat és a GDPR előírásai szerint, engedély birtokában történhet.

A rektori utasítás kifejezetten ösztönzi a támogatott MI-használatot, amennyiben az az előírásoknak megfelelően történik [5.]. A hallgatók szabadon választhatnak a jóváhagyott eszközök közül, de minden esetben dokumentálniuk kell, miként építették be az MI-t tanulmányaikba. A karok kiegészítő szabályokkal segíthetik a tudatos használatot, és ajánlásokat fogalmazhatnak meg a bevált gyakorlatokról. Ez a megközelítés az ELTE rektori vezetésének azt a törekvését fejezi ki, hogy az MI ne tiltott terület, hanem a tanulás és önfejlesztés integrált támogató eszköze legyen – s azt is, hogy egy több szintű, plasztikusan a kari igényekhez igazítható, ugyanakkor a használatnak szilárd kereteket adó szabályozással segítse elő [5.1.-5.3.].

A II. számú melléklet részletes táblázatban mutatja be, milyen tevékenységekben ajánlott az MI bevonása, és milyen korlátok között. Az egyetemi példák jól érzékeltetik a rektori utasítás szemléletét: az MI használható tanulási asszisztensként a felkészüléshez, a problémafeldolgozás vagy a fogalommagyarázat során, sőt segítséget nyújthat a vázlatkészítésben, nyelvi javításban vagy akár adatvizualizációban is. A hallgatóknak azonban minden esetben ellenőrizniük kell az MI által előállított tartalmat, hiszen az eredmények nem minősülnek hivatalos megoldásnak, és torzításokat tartalmazhatnak.

Tiltott gyakorlatok, jogkövetkezmények és a megvalósítás rendje

A rektori utasítás részletesen meghatározza, mely mesterséges intelligencia-használati formák minősülnek tiltott vagy jogsértő gyakorlatnak, és ezek milyen következményeket vonnak maguk után. A dokumentum szerint minden olyan hallgatói tevékenység, amelyben az MI-t forrásmegjelölés nélkül vagy önálló szellemi munkát helyettesítő módon alkalmazzák, akadémiai kötelességszegésnek számít [6.1.]. Ide tartozik, ha valaki MI-vel készíttet szöveget, képet, kódot vagy ábrát, majd azt sajátjaként adja be, illetve, ha az MI-t a dolgozat vagy prezentáció elkészítésének lényegi szakaszaiban használja, de ezt nem jelöli. Az utasítás hangsúlyozza: ezek az esetek a plágiummal azonos megítélés alá esnek, és ugyanazon fegyelmi eljárási rend vonatkozik rájuk, mint a más forrásból történő jogtalan átvételre.

A vizsgák és zárthelyi dolgozatok esetében az MI használata kifejezetten tilos, mivel ezek a feladatok a hallgató önálló gondolkodását, tudását és érvelőképességét hivatottak mérni [6.2.]. Csak akkor engedélyezett a mesterséges intelligencia alkalmazása, ha azt az oktató vagy a kar a feladatleírásban kifejezetten megengedi [6.3.]. A tiltás nemcsak etikai, hanem értékelési indokokon is alapul: a vizsga a hallgató személyes tudásszintjét méri, amelyet gépi eszköz nem helyettesíthet.

A kiberbiztonsági és adatvédelmi előírások be nem tartása szintén a tiltott használat körébe tartozik. A hallgatók nem használhatnak MI-rendszereket bizalmas vagy érzékeny információk feldolgozására – ideértve a folyamatban lévő kutatások adatait, a személyes adatokat és a titoktartási szerződés hatálya alá tartozó információkat [6.4.]. E korlátozás célja az egyetem és partnerei adatvagyonának védelme: az MI-platformokra bevitt adatok nem mindig maradnak az egyetem felügyelete alatt, ezért bármilyen jogosulatlan feltöltés adatvédelmi incidensnek minősülhet.

A III. számú melléklet példákkal is bemutatja a tiltott gyakorlatokat. A táblázat szerint nem megengedett például az MI által generált szöveg vagy ábra jelölés nélküli beépítése, a források MI-vel történő összefoglalása és saját munkaként való benyújtása, valamint az MI-kód kritika nélküli átvétele. Az is etikai vétségnek számít, ha a hallgató elhallgatja a támogatott MI-használatot – vagyis olyan feladatban is elmulasztja a dokumentálást, ahol az egyébként engedélyezett lenne. A melléklet szerint minden ilyen eset az átláthatóság hiányát eredményezi, és a fegyelmi felelősség megállapítását vonhatja maga után.

A jogkövetkezmények fejezet [7.] a Hallgatói Követelményrendszerre (HKR) utal: a tiltott MI-használat az HKR 74/A–74/D. §-ai szerinti fegyelmi eljárást vonja maga után. Ez a szabályozás egyenértékű az akadémiai csalás vagy plagizálás esetével, így az egyetem akár fegyelmi büntetést vagy eltiltást is kiszabhat. Amennyiben egy oktatóban vagy bírálóban megalapozott gyanú merül fel, hogy a beadott munka mesterséges intelligencia segítségével készült, köteles egyeztetni a hallgatóval, majd szükség esetén jelentést tenni a kari etikai bizottságnak [7.4.].

Az utasítás nem csupán a tiltásokat, hanem a végrehajtás és felülvizsgálat rendszerét is rögzíti [8.]. A karoknak 2025. december 15-ig ki kell dolgozniuk saját különös MI-szabályaikat, amelyeket 2026. január 31-ig közzé kell tenniük. Ezek a kari szabályok kiegészítő jellegűek lehetnek, de nem térhetnek el a rektori utasítás alapelveitől. Minden kari módosítást be kell jelenteni a rektori biztosnak és az Oktatási Igazgatóságnak, hogy az egyetemi szintű koordináció fennmaradjon [8.2.].

A szabályozás a jövőbe is tekint: az ELTE a 2026/2027-es tanévtől kezdődően minden hallgató számára kötelező MI-képzést indít [8.3.]. Ez az oktatás bemutatja a mesterséges intelligencia működését, képességeit és korlátait, valamint a jogszerű és etikus használat elveit. Az MI-képzés az egyetemi tanulmányok alapelemévé válik, célja, hogy a hallgatók tudatos, felelős felhasználókká váljanak. Emellett az Egyetem folyamatosan ajánlásokat és segédanyagokat tesz közzé, a karok pedig bevált gyakorlatok megosztásával támogatják az oktatók és hallgatók munkáját [8.4–8.5.].

A végrehajtás felügyeletét az MI-zászlóshajó program koordinátori tisztét betöltő rektori biztos látja el, aki évente értékeli az utasítás tapasztalatait, és évente jelentést készít a rektor számára [8.6.]. A szabályozás évenkénti felülvizsgálata biztosítja, hogy az egyetem rugalmasan tudjon reagálni az MI gyors technológiai fejlődésére és az új oktatási kihívásokra [8.7.].

Az utasítás a kihirdetését követő napon lépett hatályba, így az egyetem a 2025/2026-os tanévtől már az új szabályok szerint biztosítja a mesterséges intelligencia felelős oktatási integrációját [10.2.].

A cikk emberi és mesterséges intelligencia együttműködésével készült.

Az MI-generált tartalmak jelölésének új európai kerete – elkészült az átláthatósági gyakorlati kódex második tervezete

  Az Európai Bizottság 2026 márciusában közzétette az AI Act 50. cikkének végrehajtását támogató gyakorlati kódex második tervezetét , amel...