2025. május 18., vasárnap

Tanári asszisztens a digitális térből – Hogyan segítheti a mesterséges intelligencia az egyetemi dolgozatok előzetes értékelését?

 


Az egyetemi oktatók mindennapjaiban egyre hangsúlyosabb szerepet kap a beadandó dolgozatok, projektfeladatok és szakdolgozatok értékelése. E feladatkör azonban messze nem merül ki a pontszámok megállapításában. Az érdemi, visszajelzésen alapuló értékelés időigényes, figyelmet követel, és a konzulensi-bírálói szerepkörön túl gyakran adminisztratív teendőket is magában foglal: dokumentálás, formai ellenőrzés, értékelőlapok kitöltése, a hallgatói munka pedagógiai és szakmai kommentálása. Amikor egy oktató egyszerre több tucat munkát lát el, könnyen kerülhet időzavarba, ami csökkentheti az értékelés mélységét és minőségét. Nem véletlen tehát, hogy a dolgozatok „gépi, mesterséges intelligencia által támogatott értékelésének” problémája mindenütt a világon az MI-t már alkalmazó, vagy az alkalmazás bevezetésére készülő felsőoktatási intézmények vizsgálódásainak egyik legfontosabb területévé vált, és sok helyen már szabályozás is született ebben a kérdésben.

Az elektronikus vizsgarendszerek elterjedésének erős lendületet biztosított a Covid világjárvány, amikor a felsőoktatási intézmények rákényszerültek a távolléti számonkérések bevezetésére, és azt a Covid utáni gyakorlatba is sikeresen beépítették. Vannak írásbeli vizsgáztatási feladatok, melyek már „rutinszerűen” megoldhatók az elektronikus vizsgarendszerek segítségével (Unipoll, Neptun, Moodle, vagy akár a nem a felsőoktatásban alkalmazott Kréta), s ezek esetében az tesztek ellenőrzését (javítását) a rendszer maga is biztosítani tudja. Más a helyzet a kifejtendő kérdésekkel, esszékkel, melyek, számos szempont alapján, komplex, tanári kiértékelést igényelnek – ahogy a nagy terjedelmű írásbeli dolgozatok, a projektfeladatok és a szakdolgozatok is.

Ezek jövője ma a nemzetközi felsőoktatás egyik központi problémáját jelenti, hiszen a fejlett generatív mesterséges intelligencia rendszerek megjelenésével a szakdolgozat klasszikus paradigmája – a hallgató a szakképzettségnek megfelelő, egyedi, egyéni alkotó jellegű, tanulmányokat lezáró, írásbeli munka, amelyet meghatározott formai és tartalmi követelményeknek megfelelően, egy általa választott témában, a témavezető iránymutatásával készít el, s mely azt  tanúsítja, hogy a hallgató kellő jártasságot szerzett az elsajátított ismeretanyag gyakorlati alkalmazásában, képes a szakirodalom tudományos szintű feldolgozására, az elvégzett munka és annak eredménye szakszerű összefoglalására, új gondolatok és következtetések megfogalmazására – fenntarthatatlanná vált: az egyéni alkotói/emberi és a gépi teljesítmény többé egzakt módon már nem különíthető el. A hosszabb távú megoldás csak új, differenciált értékelési rendszerek kialakítása lehet, ahol nem csak a szövegkorpusz maga, hanem annak létrehozási folyamata, a kutatómunka oktatói ellenőrzése, a megfelelő visszacsatolások biztosítása is a vizsgálat tárgyát képezi. Ez az oktatókkal szemben többletfeladatokat és mindenképpen más megközelítés igényét támasztja majd – miközben a jelenben olyan dolgozatokkal kell tömegeseb foglalkozniuk, melyekben a hallgatói MI használat jelen van, jegyei felismerhetők.

Itt válhat kulcsfontosságúvá a transzformer mesterséges intelligencia alkalmazások „második olvasóként” – de inkább: „előolvasóként” - való bevonásának kérdése, amely ebben segítséget tud nyújtani, ám csak szakmailag átlátható, etikus és megfelelően szabályozott jogi keretek között. A hazai vizsgálatok – mint Tolner, Pogatsnik és Takács 2023-ban megjelent átfogó tanulmánya – is azt igazolják, hogy az MI a hallgatói teljesítményértékelésbe való bevonása ugyan  segítséget nyújthat a megoldások kijavítása és pontozása terén, az automatikus vizsgakiértékelő rendszereknek lehetnek korlátaik, és hibák is előfordulhatnak, különösen akkor, ha bonyolultabb válaszokat vagy összetettebb kérdéseket kell kiértékelniük. Plágium-ellenőrzés, szöveges értékelés adása szintén megvalósítható mesterségesintelligenciát használó rendszerekkel, és vannak olyan alkalmazások is elérhetők, melyek a diákok hiányosságaira hívják fel a figyelmet. „Több alkalmazás vizsgálata után kijelenthető, hogy szinte az összes tanulási platform képes erre.” -írják a szerzők [Tolner, Nikoletta & Pogatsnik, Monika & Takacs, Judit. (2023). A mesterséges intelligencia szerepe az online vizsgáztatásban. Iskolakultúra. 33. 39-55., pp. 51-52. 10.14232/iskkult.2023.10.39.].

Bár az egyetemi szabályzatok az elektronikus vizsgáztatásra nézve általában részletes szabályokat állapítanak meg, de ezek inkább technikai jellegűek, alapvetően kérdőív/teszt jellegű megoldásokat tesznek lehetővé, a kiértékelés esetében pedig nem alkalmazhatósági kereteit, hanem beállításának módját határozzák elsősorban meg. Ugyanakkor az MI vizsgaértékelési célú használatának erős, az Európai Unió közvetlenül érvényesülő jogszabályan (GDPR és MI törvény) alapuló megkötései vannak, melyek figyelembevétele az egyetemi gyakorlatban ma – 2025. május - már nem mellőzhető. Az egyetemi dolgozatok értékelésében alkalmazott automatizált vagy MI-alapú rendszereknek meg kell felelniük a GDPR 22. cikkében foglaltaknak, amelyek megtiltják a kizárólag automatizált, joghatással bíró döntéseket emberi felügyelet nélkül, kivéve, ha az érintett kifejezetten hozzájárult. Emellett az EU Mesterséges Intelligencia törvénye szigorú követelményeket támaszt a nagy kockázatú rendszerekre, amelyek közé az oktatásban használt értékelő rendszerek is tartoznak.

Ezek a szabályok biztosítják, hogy az értékelési folyamatok átláthatóak, tisztességesek és jogilag megalapozottak legyenek, megvédve a hallgatók személyes adatait és alapvető jogait a digitális korszakban. Így az egyetemeknek és fejlesztőknek egyaránt gondoskodniuk kell arról, hogy az alkalmazott technológiák megfeleljenek ezeknek a követelményeknek, és a hallgatók érdekei elsődlegesek legyenek az értékelési folyamatok során.

A generatív mesterséges intelligencia alkalmazási lehetőségei

De mit is jelent az, hogy az MI a dolgozatok értékelésébe „második olvasóként” vonható bele? Semmiképp sem azt, hogy gépre bízzuk a döntést. Az MI nem pontoz, nem minősít, nem ír véleményt – hanem értelmez, kiemel, strukturál. Segít rámutatni azokra a szövegszerkezeti problémákra, formai hibákra vagy stiláris egyenetlenségekre, amelyek egy első, gyors olvasás során könnyen rejtve maradhatnak. Egy jól megfogalmazott MI-utasítás, prompt révén az oktató célzott visszajelzést kaphat arról, hogy például a dolgozat egyes fejezetei arányosak-e, a problémafelvetés világos-e, a bevezető és a konklúzió koherensen kapcsolódik-e egymáshoz, vagy épp a hivatkozási rendszer megfelel-e a formai elvárásoknak.

Egy korszerű egyetemi szabályozási környezet ezt az értelmező szerepet nemcsak lehetővé teszi, hanem szakmailag támogatja is. A cél, hogy a mesterséges intelligencia a tanulás és tanítás egyenrangú részévé váljon – mégpedig úgy, hogy nem csorbítja a hallgatói autonómiát, és nem helyettesíti az oktatói szakértelmet, hanem azokat kiegészíti és erősíti. A hangsúly itt is a reflektív használaton van: az MI nem ítéletet mond, hanem rávilágít bizonyos mintázatokra, amelyek az oktató számára hasznos információval szolgálnak. Ez a működésmód különösen értékes akkor, ha a dolgozat első ránézésre „túl sima” – stílusában túlságosan egységes, tartalmában mégis sekélyes. Az ilyen anyagokról gyakran derül ki, hogy teljes egészében gépi generálás útján jöttek létre, minden reflexió, egyéni állásfoglalás vagy kutatási szándék nélkül.

A mesterséges intelligencia tehát egyszerre diagnosztikai és didaktikai eszköz. Diagnosztikai, mert gyorsan képes feltérképezni a szöveg formai és szerkezeti hibáit, stiláris torzulásait vagy koherenciaproblémáit. És didaktikai, mert az oktató a kapott visszajelzések alapján jobban rá tud világítani arra, hogy a hallgatónak hol kellene még dolgoznia az anyagon. Így az értékelési folyamat nem csupán lezárás, hanem egyfajta visszacsatolt tanulási alkalom is lesz.

Ez a szemlélet összhangban van a felsőoktatás hosszú távú céljaival. Az egyetem nem a hibátlan szövegek gyártására, hanem a gondolkodás, a kritikai érzék és a tudományos íráskultúra kialakítására készít fel. A mesterséges intelligencia itt nem kiváltja az oktatói munkát, hanem lehetőséget teremt arra, hogy a figyelem valóban azokra az elemekre összpontosuljon, ahol az oktatói szakértelem pótolhatatlan: az érvelés minőségére, a források értelmezésére, az egyéni látásmód kibontására.

Ehhez azonban az MI-t nem „varázslatos dobozként” kell elképzelni, hanem úgy, mint egy nyelvi eszközt, amely csak akkor működik jól, ha jól kérdezünk tőle. Ezért az oktatók számára kulcskompetencia lett a promptolás, vagyis a világos, szakmailag megalapozott utasítások megfogalmazása. Ez a készség tanulható, s egyre több egyetemen tanítják is: a kari oktatói kézikönyvek és a hozzá kapcsolódó gyakorlati útmutatók már számos példát és mintapromptot kínálnak arra, hogyan kérhető be az MI-től értelmező visszajelzés.

Európai Uniós jogi keretek

Az Európai Unió adatvédelmi és mesterséges intelligencia szabályozása egyre nagyobb hangsúlyt fektet arra, hogy az egyetemi hallgatók dolgozatainak értékelése során alkalmazott automatizált vagy MI-alapú rendszerek megfeleljenek a jogi és etikai követelményeknek, különösen a GDPR 22. cikkében és az EU Mesterséges Intelligencia törvényében foglaltaknak.

A GDPR 22. cikke alapvetően tiltja, hogy kizárólag automatizált adatkezelés – ideértve a profilalkotást is – alapján olyan döntés szülessen, amely joghatással bír vagy hasonlóan jelentős mértékben érinti az érintettet. Ez a tiltás azt célozza, hogy a személyes adatok feldolgozása során ne szülessenek olyan automatikus döntések, amelyek a természetes személy jogait vagy helyzetét jelentősen befolyásolják emberi beavatkozás nélkül. Az egyetemi dolgozatok, s különösen a tanulmányok szempontjából jelentős kreditértékkel rendelkező szakdolgozat minősítése ilyen döntés lehet, hiszen az eredmény befolyásolja a hallgató tanulmányi előrehaladását, esetlegesen a további oktatási vagy szakmai lehetőségeit. Ezért az értékelés nem alapulhat kizárólag gépi döntésen, hanem biztosítani kell az emberi felülvizsgálatot, amely valódi mérlegelést jelent, nem csupán formai ellenőrzést. Az emberi döntéshozónak képesnek kell lennie a gépi eredmény módosítására vagy megkérdőjelezésére, így garantálva a döntés tisztességességét és jogszerűségét.

A GDPR ugyanakkor engedélyezi az automatizált döntéshozatalt, ha az érintett – jelen esetben a hallgató – kifejezett, önkéntes és tájékozott hozzájárulását adja ehhez, vagy ha erre jogszabály ad lehetőséget, de ilyenkor is szigorú garanciákat kell biztosítani. Az explicit hozzájárulásnak egyértelműnek és dokumentáltnak kell lennie, például egyértelmű nyilatkozat vagy beállítás formájában, amelyet a hallgató önkéntesen tesz meg.

Az automatizált döntéshozatal és profilalkotás gyakorlati alkalmazása során fontos megérteni, hogy az automatizált döntés nem csak a döntés maga lehet, hanem az érintett személy jellemzőinek, magatartásának vagy szokásainak elemzésén alapuló előrejelzés is, amely befolyásolhatja a döntést. Az egyetemi dolgozatok esetében például egy MI-alapú értékelő rendszer nemcsak az adott dolgozat pontszámát adhatja meg, hanem akár a hallgató teljesítményének profilját is kialakíthatja, amely további döntések alapja lehet. Ezért a GDPR 22. cikke különösen releváns az ilyen rendszerek használatakor, mivel megköveteli az átláthatóságot, az emberi kontrollt és az érintettek jogainak védelmét.

Az Európai Unió Mesterséges Intelligencia törvénye (AI Act), amely 2024-ben lépett hatályba és fokozatosan kerül bevezetésre 2025-2026 során, tovább szigorítja a szabályozást. A jogszabály négy kockázati kategóriát határoz meg: elfogadhatatlan kockázatú, magas kockázatú, korlátozott kockázatú és minimális kockázatú rendszereket. Az oktatás területén használt rendszerek, különösen azok, amelyek a hallgatók értékelését vagy oktatási hozzáférését befolyásolják, a magas kockázatú kategóriába tartoznak. A törvény tételesen felsorolja azokat a területeket, ahol a mesterséges intelligencia alkalmazása magas kockázattal járhat, és az oktatás, valamint a szakképzés kiemelt helyen szerepel ezen a listán.

A nagy kockázatú MI rendszerekre vonatkozóan az AI Act számos követelményt ír elő. Ezek közé tartozik a kockázatkezelési rendszer kialakítása, amely biztosítja, hogy a rendszer működése ne eredményezzen jogsértő vagy diszkriminatív döntéseket. Emellett elengedhetetlen a magas szintű adatminőség és adatgazdálkodási gyakorlat, amely minimalizálja a torzításokat és biztosítja az eredmények megbízhatóságát. A rendszer működéséről részletes műszaki dokumentációt kell vezetni, amely lehetővé teszi a hatósági ellenőrzést és az átláthatóságot.

Fontos követelmény az átláthatóság és az érintettek tájékoztatása is: a hallgatókat egyértelműen és érthetően kell informálni arról, hogy MI rendszert alkalmaznak az értékelés során, milyen adatokat használnak fel, és milyen módon történik az értékelés. Az oktatási MI-rendszerek esetében különösen fokozott transzparencia-követelmények érvényesek, beleértve azt is, hogy a hallgatóknak joguk van az MI-alapú értékelések megkérdőjelezésére és felülvizsgálatára. Ez a tájékoztatás segíti a hallgatók jogainak érvényesítését és a bizalom kialakítását.

Az AI Act kiemelten hangsúlyozza az emberi felügyelet szükségességét: az MI által hozott döntéseket mindig embernek kell felülvizsgálnia, aki képes a rendszer eredményeit értékelni, módosítani vagy megkérdőjelezni. Ez a követelmény összhangban áll a GDPR 22. cikkével, és együtt biztosítják, hogy a mesterséges intelligencia alkalmazása ne vezessen kizárólag gépi, ellenőrizetlen döntésekhez.

Továbbá a nagy kockázatú rendszerek esetében meg kell valósítani a pontosság, stabilitás és kiberbiztonság magas szintjét, hogy a rendszer működése megbízható és biztonságos legyen, elkerülve a hibás vagy manipulált eredményeket, amelyek hátrányosan érinthetik a hallgatókat.

Az AI Act jelentős szankciókat irányoz elő a szabályozás megsértése esetén. A legsúlyosabb esetekben a bírságok mértéke az éves globális bevétel 7%-áig is terjedhet, ami komoly ösztönzést jelent a jogszabályi megfelelés biztosítására az MI-rendszerek fejlesztői és üzemeltetői számára.

A jogszabály ugyanakkor biztosít bizonyos kivételeket a kutatási és innovációs célú felhasználásokra, amelyek lehetővé teszik az oktatási környezetben történő kísérletezést és fejlesztést, amennyiben megfelelő biztosítékok állnak rendelkezésre az érintettek jogainak védelmére. Ezek a kivételek azonban nem csökkentik a hallgatókat közvetlenül érintő értékelő rendszerekre vonatkozó szigorú követelményeket.

Az MI-használat három alappillére: átláthatóság, etika, tanulástámogatás

Ahhoz, hogy a mesterséges intelligencia valóban hasznos eszközzé válhasson az egyetemi oktatásban – különösen a dolgozatok előzetes értékelése során –, elengedhetetlen egy világos, következetes és etikus szabályozási környezet. Ennek célja nem csupán a visszaélések megelőzése, hanem egy olyan normarend kialakítása, amely segíti a hallgatókat az MI tudatos és reflektív alkalmazásában – és ezzel együtt az oktatókat is az értékelés új pedagógiai szerepeinek betöltésében.

A szabályozás három pilléren nyugszik: az átláthatóságon, az etikai megfelelőségen, és a tanulás fókuszú technológiahasználaton.

Az első és legfontosabb alapelv az átláthatóság. Az általánosnak mondható nemzetközi és hazai gyakorlat elvárja, hogy minden olyan dolgozatban, amelyben a hallgató mesterséges intelligenciát vett igénybe, ezt - külön nyilatkozatban vagy szövegközi hivatkozásban, esetleg mindkettőben -  tüntesse fel. Ezzel nemcsak azt rögzíti, hogy a hallgató használt-e MI-t, hanem azt is, hogy mikor, mire, és milyen mértékben. Ráadásul nem elegendő a dolgozat elején formálisan „bevallani” a használatot: a hallgatónak táblázatos formában, munkafázisonként kell jelölnie, hogy az MI milyen funkciót töltött be – például segített a szerkezet tervezésében, javasolt bevezető szöveget, stilisztikailag javított, vagy hivatkozásformátumokat ellenőrzött.

Ez a dokumentációs kötelezettség nem adminisztratív teher, hanem pedagógiai eszköz: rávezeti a hallgatót, hogy elgondolkodjon saját munkája határain, és segít az oktatónak elkülöníteni a hallgatói teljesítmény azon részeit, ahol az MI csak technikai támogatást jelentett, attól, amikor a tartalom generálása – tudományos szempontból – már kifogásolható szintet ért el.

A második pillér az etikai megfelelőség. A Kar világosan megfogalmazza: az MI használata kizárólag akkor megengedett, ha az nem helyettesíti a hallgató önálló gondolkodását, és nem sérti az akadémiai integritás elveit. Ez nem csupán azt jelenti, hogy a hallgató ne „íratja meg” teljes egészében a dolgozatát – hanem azt is, hogy ne használjon MI-t olyan célra, amely elrejti az idegen tartalom eredetét. Ide tartozik a gépi parafrazálás (amikor egy tankönyvi szöveget újrafogalmaztat), a gépi fordítás (például angol nyelvű tanulmányokból készíttet magyar szöveget), vagy épp a nem valós hivatkozásokkal való „díszítés”. Az ilyen eljárások nemcsak etikátlanok, hanem a tudományos tanulás folyamatát is ellehetetlenítik.

A harmadik alappillér a tanulást támogató MI-használat. A szabályozás nem tiltani akarja az új technológiát – épp ellenkezőleg. Egy előre tekintő, a hallgatói kompetenciák az MI használatra való kiterjesztését támogatni kívánó egyetemi szabályozásban az MI alkalmazása nemcsak megengedett, hanem bizonyos esetekben kifejezetten ajánlott is. Különösen akkor, ha az segíti a hallgatót a gondolatok világos megfogalmazásában, a struktúra átláthatóságában vagy a stilisztikai hibák kijavításában. Ebben a felfogásban az MI nem más, mint egy asszisztens: egy digitális segítő, amely a hallgató saját munkáját kiegészíti, de nem váltja ki. Ezért is fontos, hogy a hallgatók megtanulják, hogyan kérdezzenek jól, hogyan ellenőrizzék a generált szövegeket, és hogyan tudják elválasztani a valós hivatkozást a „hallucinált” forrástól.

Bár elvileg sokféle digitális tartalomdetektor áll - részben ingyenesen, rendszeres használat esetén azonban már inkább csak előfizetéses formában – az egyetemek és oktatók rendelkezésére, sőt, a közelmúltban a Magyarországon is széles körben alkalmazott Turnitin is bővült ilyen funkciókkal,  ezek általában annak megállapítására képesek, hogy a vizsgált szövegben milyen arányban, hány százalékban mutatható ki az MI használat jelenléte. Ezeket az elemzéseket sem lehet azonban „csak úgy”, konkrétumok, kimutatható szabálytalanságok nélkül elfogadni - az oktatók munkáját segítő szakmai iránymutatásoknak ezért részletesen ki kell térniük arra is, miként ismerhetők fel az MI használatának nyomai a beadott szövegekben. A stiláris homogenitás, a túlzott formális szerkezet, az érvelés logikai hibái, a hiányzó példák vagy a nem létező irodalmi hivatkozások mind-mind arra utalhatnak, hogy a szöveg egyes részei nem emberi kéz munkáját tükrözik. Az oktató feladata ilyenkor nem a büntetés, hanem a felismerés és a segítő visszajelzés. A cél az, hogy a hallgató tanuljon belőle, és legközelebb már önállóbban, tudatosabban dolgozzon.

A jó szabályozás tehát nem korlátoz, hanem irányt mutat. Nem tilt, hanem tanít. Olyan tanulási kultúra felé vezet, amelyben az MI nem veszélyforrás, hanem pedagógiai lehetőség – ha jól élünk vele. Ezért válik a szabályozás az oktatás új, digitálisan támogatott korszakának egyik legfontosabb biztosítékává.

Mit kell az oktatóknak megtanulniuk?

A generatív mesterséges intelligencia nemcsak a hallgatók számára kínál új lehetőségeket, hanem az oktatók szerepét is átalakítja. A beadandó dolgozatok előzetes véleményezése, a konzulensi visszajelzések megfogalmazása és a szakdolgozatok formai-tartalmi átnézése egyaránt új dimenziókat kap, ha a munkába bekapcsolódik egy intelligens nyelvi modell. Ahhoz azonban, hogy ez az együttműködés valóban értelmes és eredményes legyen, az oktatóknak is el kell sajátítaniuk bizonyos új készségeket. Ezek nem informatikai ismeretek – hanem kritikai gondolkodáson, pedagógiai tudatosságon és kommunikációs rutinokon alapuló, sajátos kompetenciák.

Az első – és talán legfontosabb – ilyen készség a célzott promptolás. A mesterséges intelligencia nem „mindent tud”, hanem azt tudja jól, amit jól kérdezünk tőle. Egy sablonos kérdésre sablonos válasz születik, míg egy jól célzott, a dolgozati kontextusra szabott kérés akár meglepően árnyalt visszajelzést is eredményezhet. Például az olyan kérdés, hogy „Vizsgáld meg a dolgozat szerkezeti arányait a Bevezetés–Módszertan–Eredmények–Következtetés tengelyén, és jelezd, ha valamelyik rész túl hosszú vagy hiányos” – jó eséllyel értékelhető adatokat ad vissza, amelyek alapján az oktató pontosabban fókuszálhat a saját szakértői olvasatára. Ennek elsajátítása nem technikai, hanem nyelvhasználati kompetencia: világosan, pontosan kell tudnunk, mit akarunk megtudni a szövegről.

A második kulcskompetencia az MI által generált szövegek értelmező olvasása. Az oktatóknak képesnek kell lenniük felismerni azokat a stilisztikai és szerkezeti mintázatokat, amelyek a gépi szövegalkotásra utalnak – anélkül, hogy elhamarkodott következtetésekre jutnának. A generatív MI modellek ugyanis nemcsak segíthetnek, hanem – ha kontrollálatlanul használják őket – megtéveszthetik az olvasót: egy túlságosan sima, homogén, „hibátlanul szabályos” szöveg első ránézésre korrektnek tűnhet, miközben semmilyen önálló gondolkodás nem húzódik meg mögötte. Ehhez a kritikai észleléshez nem pusztán tapasztalat, hanem tudatos pedagógiai érzékenység szükséges. A kérdés ugyanis nem az, hogy „mi generálta a szöveget”, hanem az, hogy van-e benne valódi gondolati jelenlét.

A harmadik fontos terület a forráskritikai éberség. A mesterséges intelligencia egyik leggyakoribb hibája az úgynevezett hallucináció: vagyis olyan forrásokat, adatokat, szerzőket említ, amelyek nem léteznek, vagy nem úgy, ahogyan azokat a modell előadja. Az oktatóknak ezért képesnek kell lenniük kiszűrni az ilyen „kamu hivatkozásokat”, és szükség esetén ellenőrizni, hogy az irodalomjegyzék valódi műveket tartalmaz-e. Ezt a készséget nemcsak a szöveg ellenőrzésekor, hanem már a konzultációk során is gyakorolni kell: például célzott kérdésekkel rávilágítani arra, hogy a hallgató valóban olvasta-e az idézett tanulmányokat, vagy csak „belekerültek” a szövegbe – ismeretlen eredettel.

Ehhez kapcsolódik a negyedik, egyre fontosabbá váló dimenzió: az anonimizálási és adatvédelmi tudatosság. Mivel az MI-rendszerek nem az egyetem belső platformjain futnak, hanem külső szolgáltatók alkalmazásai (például az OpenAI vagy az Anthropic rendszerei), az adatvédelmi szabályok szerint csak anonimizált szöveget lehet feltölteni az értékelési folyamat során. Ez azt jelenti, hogy a dolgozatokból minden személyes adatot, nevet, cégnevet, konkrétumot el kell távolítani, mielőtt az MI-nek megmutatnánk. Ez nem formai apróság, hanem jogi követelmény – amelyet minden oktatónak ismernie és alkalmaznia kell.

Végül, de nem utolsósorban, az oktatóknak meg kell tanulniuk, hogy miként adjanak visszajelzést MI által segített értékelés után. Az MI-től kapott javaslatokat nem szabad mechanikusan továbbítani a hallgatónak – az oktató dolga az, hogy a kapott információkat értelmezze, priorizálja, és a saját pedagógiai tapasztalatára építve integrálja a visszajelzésbe. Az MI lehet a második olvasó – de a felelős döntéshozó mindig az oktató marad.

A mesterséges intelligencia, mint partner az értékelés új kultúrájában

A dolgozatírás és -értékelés évtizedek óta a felsőoktatás egyik központi tanulási és pedagógiai terepe. A generatív mesterséges intelligencia megjelenése ebben a térben nem csupán technológiai, hanem mélyen emberi és szemléletbeli változást is hoz. A jövőben bevezetésre kerülő keretrendszereknek ezt a változást kell tudniuk majd irányítani, tanulási lehetőséggé alakítani. Az MI alkalmazása nem a tanári szerep gyengülését, hanem annak újrafogalmazását jelenti – olyan környezetben, ahol a technológia nem versenytárs, hanem partner.

Az értékelés hagyományos kultúrájában a dolgozat az önálló teljesítmény bizonyítéka volt, az értékelés pedig az ehhez kapcsolódó ítélet. A generatív MI belépésével azonban az értékelés fogalma is átalakul: az oktatónak nem csupán az a feladata, hogy mennyiségi és minőségi mutatók alapján pontozzon, hanem az is, hogy felismerje, mennyiben tükröz a dolgozat valódi tanulási folyamatot, személyes befektetést, gondolati munkát. A mesterséges intelligencia ebben a környezetben lehetőséget ad arra, hogy a tanulás és az értékelés közötti határvonalak elmosódjanak – és hogy a dolgozat ne csupán egy termék, hanem egy folyamat lenyomata legyen.

Ez a szemlélet azonban csak akkor működik, ha világos szabályozás és intézményi támogatás keretei között történik. A szabályozott MI-használat egyben pedagógiai eszköz is, mely nem írja meg a dolgozatot a hallgató helyett, de segít annak strukturálásában, mely nem dönthet az érdemjegyről az oktató helyett, de segíthet a döntés megalapozásában, nem vonja ki a hallgatót a tanulási folyamatból, hanem visszatükrözi, hol van még fejlődési lehetőség számára.

Az ezt szolgálni kívánó szabályozás átláthatóvá és reflexívvé teszi az MI jelenlétét a dolgozatírás során. A hallgató számára ez azt jelenti, hogy nem rejtőzködni kell, hanem tudatosan beépíteni a gépi támogatást – megjelölni, dokumentálni, értelmezni. Az oktató számára pedig azt, hogy nem kell a szöveg minden hibáját kézzel javítania, nem kell gyanakvásból kiindulnia, hanem célzottan, a saját szakértelmét megőrizve végezheti az értékelést.

Ezzel párhuzamosan egy újfajta felelősség is kialakul: az oktatónak már nemcsak értékelnie kell, hanem segítenie is abban, hogy a hallgató megtanulja, hogyan dolgozhat együtt a mesterséges intelligenciával. A jövő felsőoktatása nem gépi ellenőrzőpontokkal, hanem emberek és gépek együttműködésével működik majd. Ehhez azonban kultúrát kell építeni: a felelősség, az átláthatóság, a kritikai gondolkodás és a szakmai párbeszéd kultúráját.

Ez az írás az ELTE Gazdaságtudományi Karán folyó, a mesterséges intelligencia oktatási célú bevezetését célzó kutatás keretében,  emberi és mesterséges intelligencia együttműködésével jött létre. 

Az MI-generált tartalmak jelölésének új európai kerete – elkészült az átláthatósági gyakorlati kódex második tervezete

  Az Európai Bizottság 2026 márciusában közzétette az AI Act 50. cikkének végrehajtását támogató gyakorlati kódex második tervezetét , amel...