Az egyetemi oktatók
mindennapjaiban egyre hangsúlyosabb szerepet kap a beadandó dolgozatok,
projektfeladatok és szakdolgozatok értékelése. E feladatkör azonban messze nem
merül ki a pontszámok megállapításában. Az érdemi, visszajelzésen alapuló
értékelés időigényes, figyelmet követel, és a konzulensi-bírálói szerepkörön
túl gyakran adminisztratív teendőket is magában foglal: dokumentálás, formai
ellenőrzés, értékelőlapok kitöltése, a hallgatói munka pedagógiai és szakmai
kommentálása. Amikor egy oktató egyszerre több tucat munkát lát el, könnyen
kerülhet időzavarba, ami csökkentheti az értékelés mélységét és minőségét. Nem
véletlen tehát, hogy a dolgozatok „gépi, mesterséges intelligencia által
támogatott értékelésének” problémája mindenütt a világon az MI-t már alkalmazó,
vagy az alkalmazás bevezetésére készülő felsőoktatási intézmények
vizsgálódásainak egyik legfontosabb területévé vált, és sok helyen már
szabályozás is született ebben a kérdésben.
Az elektronikus vizsgarendszerek
elterjedésének erős lendületet biztosított a Covid világjárvány, amikor a
felsőoktatási intézmények rákényszerültek a távolléti számonkérések
bevezetésére, és azt a Covid utáni gyakorlatba is sikeresen beépítették. Vannak
írásbeli vizsgáztatási feladatok, melyek már „rutinszerűen” megoldhatók az
elektronikus vizsgarendszerek segítségével (Unipoll, Neptun, Moodle, vagy akár
a nem a felsőoktatásban alkalmazott Kréta), s ezek esetében az tesztek
ellenőrzését (javítását) a rendszer maga is biztosítani tudja. Más a helyzet a
kifejtendő kérdésekkel, esszékkel, melyek, számos szempont alapján, komplex,
tanári kiértékelést igényelnek – ahogy a nagy terjedelmű írásbeli dolgozatok, a
projektfeladatok és a szakdolgozatok is.
Ezek jövője ma a nemzetközi
felsőoktatás egyik központi problémáját jelenti, hiszen a fejlett generatív
mesterséges intelligencia rendszerek megjelenésével a szakdolgozat klasszikus
paradigmája – a hallgató a szakképzettségnek megfelelő, egyedi, egyéni
alkotó jellegű, tanulmányokat lezáró, írásbeli munka, amelyet meghatározott
formai és tartalmi követelményeknek megfelelően, egy általa választott témában,
a témavezető iránymutatásával készít el, s mely azt tanúsítja, hogy a hallgató kellő jártasságot
szerzett az elsajátított ismeretanyag gyakorlati alkalmazásában, képes a
szakirodalom tudományos szintű feldolgozására, az elvégzett munka és annak
eredménye szakszerű összefoglalására, új gondolatok és következtetések
megfogalmazására – fenntarthatatlanná vált: az egyéni alkotói/emberi és a gépi
teljesítmény többé egzakt módon már nem különíthető el. A hosszabb távú
megoldás csak új, differenciált értékelési rendszerek kialakítása lehet, ahol
nem csak a szövegkorpusz maga, hanem annak létrehozási folyamata, a kutatómunka
oktatói ellenőrzése, a megfelelő visszacsatolások biztosítása is a vizsgálat
tárgyát képezi. Ez az oktatókkal szemben többletfeladatokat és mindenképpen más
megközelítés igényét támasztja majd – miközben a jelenben olyan dolgozatokkal
kell tömegeseb foglalkozniuk, melyekben a hallgatói MI használat jelen van,
jegyei felismerhetők.
Itt válhat kulcsfontosságúvá a
transzformer mesterséges intelligencia alkalmazások „második olvasóként” – de
inkább: „előolvasóként” - való bevonásának kérdése, amely ebben segítséget tud
nyújtani, ám csak szakmailag átlátható, etikus és megfelelően szabályozott jogi
keretek között. A hazai vizsgálatok – mint Tolner,
Pogatsnik és Takács 2023-ban megjelent átfogó tanulmánya – is azt
igazolják, hogy az MI a hallgatói teljesítményértékelésbe való bevonása
ugyan segítséget nyújthat a megoldások
kijavítása és pontozása terén, az automatikus vizsgakiértékelő rendszereknek
lehetnek korlátaik, és hibák is előfordulhatnak, különösen akkor, ha
bonyolultabb válaszokat vagy összetettebb kérdéseket kell kiértékelniük.
Plágium-ellenőrzés, szöveges értékelés adása szintén megvalósítható
mesterségesintelligenciát használó rendszerekkel, és vannak olyan alkalmazások
is elérhetők, melyek a diákok hiányosságaira hívják fel a figyelmet. „Több
alkalmazás vizsgálata után kijelenthető, hogy szinte az összes tanulási
platform képes erre.” -írják a szerzők [Tolner, Nikoletta & Pogatsnik,
Monika & Takacs, Judit. (2023). A mesterséges intelligencia szerepe az
online vizsgáztatásban. Iskolakultúra. 33. 39-55., pp. 51-52.
10.14232/iskkult.2023.10.39.].
Bár az egyetemi szabályzatok az
elektronikus vizsgáztatásra nézve általában részletes szabályokat állapítanak
meg, de ezek inkább technikai jellegűek, alapvetően kérdőív/teszt jellegű
megoldásokat tesznek lehetővé, a kiértékelés esetében pedig nem
alkalmazhatósági kereteit, hanem beállításának módját határozzák elsősorban
meg. Ugyanakkor az MI vizsgaértékelési célú használatának erős, az Európai Unió
közvetlenül érvényesülő jogszabályan (GDPR és MI törvény) alapuló megkötései
vannak, melyek figyelembevétele az egyetemi gyakorlatban ma – 2025. május - már
nem mellőzhető. Az egyetemi dolgozatok értékelésében alkalmazott automatizált
vagy MI-alapú rendszereknek meg kell felelniük a GDPR 22. cikkében
foglaltaknak, amelyek megtiltják a kizárólag automatizált, joghatással bíró
döntéseket emberi felügyelet nélkül, kivéve, ha az érintett kifejezetten
hozzájárult. Emellett az EU Mesterséges Intelligencia törvénye szigorú
követelményeket támaszt a nagy kockázatú rendszerekre, amelyek közé az
oktatásban használt értékelő rendszerek is tartoznak.
Ezek a szabályok biztosítják,
hogy az értékelési folyamatok átláthatóak, tisztességesek és jogilag megalapozottak
legyenek, megvédve a hallgatók személyes adatait és alapvető jogait a digitális
korszakban. Így az egyetemeknek és fejlesztőknek egyaránt gondoskodniuk kell
arról, hogy az alkalmazott technológiák megfeleljenek ezeknek a
követelményeknek, és a hallgatók érdekei elsődlegesek legyenek az értékelési
folyamatok során.
A generatív mesterséges
intelligencia alkalmazási lehetőségei
De mit is jelent az, hogy az MI a
dolgozatok értékelésébe „második olvasóként” vonható bele? Semmiképp sem azt,
hogy gépre bízzuk a döntést. Az MI nem pontoz, nem minősít, nem ír véleményt –
hanem értelmez, kiemel, strukturál. Segít rámutatni azokra a szövegszerkezeti
problémákra, formai hibákra vagy stiláris egyenetlenségekre, amelyek egy első,
gyors olvasás során könnyen rejtve maradhatnak. Egy jól megfogalmazott MI-utasítás,
prompt révén az oktató célzott visszajelzést kaphat arról, hogy például a
dolgozat egyes fejezetei arányosak-e, a problémafelvetés világos-e, a bevezető
és a konklúzió koherensen kapcsolódik-e egymáshoz, vagy épp a hivatkozási
rendszer megfelel-e a formai elvárásoknak.
Egy korszerű egyetemi
szabályozási környezet ezt az értelmező szerepet nemcsak lehetővé teszi, hanem
szakmailag támogatja is. A cél, hogy a mesterséges intelligencia a tanulás és
tanítás egyenrangú részévé váljon – mégpedig úgy, hogy nem csorbítja a
hallgatói autonómiát, és nem helyettesíti az oktatói szakértelmet, hanem azokat
kiegészíti és erősíti. A hangsúly itt is a reflektív használaton van: az MI nem
ítéletet mond, hanem rávilágít bizonyos mintázatokra, amelyek az oktató számára
hasznos információval szolgálnak. Ez a működésmód különösen értékes akkor, ha a
dolgozat első ránézésre „túl sima” – stílusában túlságosan egységes,
tartalmában mégis sekélyes. Az ilyen anyagokról gyakran derül ki, hogy teljes
egészében gépi generálás útján jöttek létre, minden reflexió, egyéni
állásfoglalás vagy kutatási szándék nélkül.
A mesterséges intelligencia tehát
egyszerre diagnosztikai és didaktikai eszköz. Diagnosztikai, mert gyorsan képes
feltérképezni a szöveg formai és szerkezeti hibáit, stiláris torzulásait vagy
koherenciaproblémáit. És didaktikai, mert az oktató a kapott visszajelzések
alapján jobban rá tud világítani arra, hogy a hallgatónak hol kellene még
dolgoznia az anyagon. Így az értékelési folyamat nem csupán lezárás, hanem
egyfajta visszacsatolt tanulási alkalom is lesz.
Ez a szemlélet összhangban van a
felsőoktatás hosszú távú céljaival. Az egyetem nem a hibátlan szövegek
gyártására, hanem a gondolkodás, a kritikai érzék és a tudományos íráskultúra
kialakítására készít fel. A mesterséges intelligencia itt nem kiváltja az
oktatói munkát, hanem lehetőséget teremt arra, hogy a figyelem valóban azokra
az elemekre összpontosuljon, ahol az oktatói szakértelem pótolhatatlan: az
érvelés minőségére, a források értelmezésére, az egyéni látásmód kibontására.
Ehhez azonban az MI-t nem
„varázslatos dobozként” kell elképzelni, hanem úgy, mint egy nyelvi eszközt,
amely csak akkor működik jól, ha jól kérdezünk tőle. Ezért az oktatók számára
kulcskompetencia lett a promptolás, vagyis a világos, szakmailag megalapozott
utasítások megfogalmazása. Ez a készség tanulható, s egyre több egyetemen tanítják
is: a kari oktatói kézikönyvek és a hozzá kapcsolódó gyakorlati útmutatók már számos
példát és mintapromptot kínálnak arra, hogyan kérhető be az MI-től értelmező
visszajelzés.
Európai Uniós jogi keretek
Az Európai Unió adatvédelmi és
mesterséges intelligencia szabályozása egyre nagyobb hangsúlyt fektet arra,
hogy az egyetemi hallgatók dolgozatainak értékelése során alkalmazott
automatizált vagy MI-alapú rendszerek megfeleljenek a jogi és etikai követelményeknek,
különösen a GDPR 22. cikkében és az EU Mesterséges Intelligencia törvényében
foglaltaknak.
A GDPR 22. cikke alapvetően
tiltja, hogy kizárólag automatizált adatkezelés – ideértve a profilalkotást is
– alapján olyan döntés szülessen, amely joghatással bír vagy hasonlóan jelentős
mértékben érinti az érintettet. Ez a tiltás azt célozza, hogy a személyes
adatok feldolgozása során ne szülessenek olyan automatikus döntések, amelyek a
természetes személy jogait vagy helyzetét jelentősen befolyásolják emberi
beavatkozás nélkül. Az egyetemi dolgozatok, s különösen a tanulmányok
szempontjából jelentős kreditértékkel rendelkező szakdolgozat minősítése ilyen
döntés lehet, hiszen az eredmény befolyásolja a hallgató tanulmányi
előrehaladását, esetlegesen a további oktatási vagy szakmai lehetőségeit. Ezért
az értékelés nem alapulhat kizárólag gépi döntésen, hanem biztosítani kell az
emberi felülvizsgálatot, amely valódi mérlegelést jelent, nem csupán formai
ellenőrzést. Az emberi döntéshozónak képesnek kell lennie a gépi eredmény
módosítására vagy megkérdőjelezésére, így garantálva a döntés tisztességességét
és jogszerűségét.
A GDPR ugyanakkor engedélyezi az
automatizált döntéshozatalt, ha az érintett – jelen esetben a hallgató –
kifejezett, önkéntes és tájékozott hozzájárulását adja ehhez, vagy ha erre
jogszabály ad lehetőséget, de ilyenkor is szigorú garanciákat kell biztosítani.
Az explicit hozzájárulásnak egyértelműnek és dokumentáltnak kell lennie,
például egyértelmű nyilatkozat vagy beállítás formájában, amelyet a hallgató
önkéntesen tesz meg.
Az automatizált döntéshozatal és
profilalkotás gyakorlati alkalmazása során fontos megérteni, hogy az
automatizált döntés nem csak a döntés maga lehet, hanem az érintett személy
jellemzőinek, magatartásának vagy szokásainak elemzésén alapuló előrejelzés is,
amely befolyásolhatja a döntést. Az egyetemi dolgozatok esetében például egy
MI-alapú értékelő rendszer nemcsak az adott dolgozat pontszámát adhatja meg,
hanem akár a hallgató teljesítményének profilját is kialakíthatja, amely
további döntések alapja lehet. Ezért a GDPR 22. cikke különösen releváns az
ilyen rendszerek használatakor, mivel megköveteli az átláthatóságot, az emberi
kontrollt és az érintettek jogainak védelmét.
Az Európai Unió Mesterséges
Intelligencia törvénye (AI Act), amely 2024-ben lépett hatályba és fokozatosan
kerül bevezetésre 2025-2026 során, tovább szigorítja a szabályozást. A
jogszabály négy kockázati kategóriát határoz meg: elfogadhatatlan kockázatú,
magas kockázatú, korlátozott kockázatú és minimális kockázatú rendszereket. Az
oktatás területén használt rendszerek, különösen azok, amelyek a hallgatók
értékelését vagy oktatási hozzáférését befolyásolják, a magas kockázatú
kategóriába tartoznak. A törvény tételesen felsorolja azokat a területeket, ahol
a mesterséges intelligencia alkalmazása magas kockázattal járhat, és az
oktatás, valamint a szakképzés kiemelt helyen szerepel ezen a listán.
A nagy kockázatú MI rendszerekre
vonatkozóan az AI Act számos követelményt ír elő. Ezek közé tartozik a
kockázatkezelési rendszer kialakítása, amely biztosítja, hogy a rendszer
működése ne eredményezzen jogsértő vagy diszkriminatív döntéseket. Emellett
elengedhetetlen a magas szintű adatminőség és adatgazdálkodási gyakorlat, amely
minimalizálja a torzításokat és biztosítja az eredmények megbízhatóságát. A
rendszer működéséről részletes műszaki dokumentációt kell vezetni, amely
lehetővé teszi a hatósági ellenőrzést és az átláthatóságot.
Fontos követelmény az
átláthatóság és az érintettek tájékoztatása is: a hallgatókat egyértelműen és
érthetően kell informálni arról, hogy MI rendszert alkalmaznak az értékelés
során, milyen adatokat használnak fel, és milyen módon történik az értékelés.
Az oktatási MI-rendszerek esetében különösen fokozott
transzparencia-követelmények érvényesek, beleértve azt is, hogy a hallgatóknak
joguk van az MI-alapú értékelések megkérdőjelezésére és felülvizsgálatára. Ez a
tájékoztatás segíti a hallgatók jogainak érvényesítését és a bizalom
kialakítását.
Az AI Act kiemelten hangsúlyozza
az emberi felügyelet szükségességét: az MI által hozott döntéseket mindig
embernek kell felülvizsgálnia, aki képes a rendszer eredményeit értékelni,
módosítani vagy megkérdőjelezni. Ez a követelmény összhangban áll a GDPR 22.
cikkével, és együtt biztosítják, hogy a mesterséges intelligencia alkalmazása
ne vezessen kizárólag gépi, ellenőrizetlen döntésekhez.
Továbbá a nagy kockázatú
rendszerek esetében meg kell valósítani a pontosság, stabilitás és
kiberbiztonság magas szintjét, hogy a rendszer működése megbízható és biztonságos
legyen, elkerülve a hibás vagy manipulált eredményeket, amelyek hátrányosan
érinthetik a hallgatókat.
Az AI Act jelentős szankciókat
irányoz elő a szabályozás megsértése esetén. A legsúlyosabb esetekben a
bírságok mértéke az éves globális bevétel 7%-áig is terjedhet, ami komoly
ösztönzést jelent a jogszabályi megfelelés biztosítására az MI-rendszerek
fejlesztői és üzemeltetői számára.
A jogszabály ugyanakkor biztosít
bizonyos kivételeket a kutatási és innovációs célú felhasználásokra, amelyek
lehetővé teszik az oktatási környezetben történő kísérletezést és fejlesztést,
amennyiben megfelelő biztosítékok állnak rendelkezésre az érintettek jogainak
védelmére. Ezek a kivételek azonban nem csökkentik a hallgatókat közvetlenül
érintő értékelő rendszerekre vonatkozó szigorú követelményeket.
Az MI-használat három alappillére: átláthatóság, etika,
tanulástámogatás
Ahhoz, hogy a mesterséges
intelligencia valóban hasznos eszközzé válhasson az egyetemi oktatásban –
különösen a dolgozatok előzetes értékelése során –, elengedhetetlen egy
világos, következetes és etikus szabályozási környezet. Ennek célja nem csupán
a visszaélések megelőzése, hanem egy olyan normarend kialakítása, amely segíti
a hallgatókat az MI tudatos és reflektív alkalmazásában – és ezzel együtt az
oktatókat is az értékelés új pedagógiai szerepeinek betöltésében.
A szabályozás három pilléren
nyugszik: az átláthatóságon, az etikai megfelelőségen, és a
tanulás fókuszú technológiahasználaton.
Az első és legfontosabb alapelv
az átláthatóság. Az általánosnak mondható nemzetközi és hazai gyakorlat elvárja,
hogy minden olyan dolgozatban, amelyben a hallgató mesterséges intelligenciát
vett igénybe, ezt - külön nyilatkozatban vagy szövegközi hivatkozásban, esetleg
mindkettőben - tüntesse fel. Ezzel
nemcsak azt rögzíti, hogy a hallgató használt-e MI-t, hanem azt is, hogy mikor,
mire, és milyen mértékben. Ráadásul nem elegendő a dolgozat
elején formálisan „bevallani” a használatot: a hallgatónak táblázatos formában,
munkafázisonként kell jelölnie, hogy az MI milyen funkciót töltött be – például
segített a szerkezet tervezésében, javasolt bevezető szöveget, stilisztikailag
javított, vagy hivatkozásformátumokat ellenőrzött.
Ez a dokumentációs kötelezettség
nem adminisztratív teher, hanem pedagógiai eszköz: rávezeti a hallgatót, hogy
elgondolkodjon saját munkája határain, és segít az oktatónak elkülöníteni a
hallgatói teljesítmény azon részeit, ahol az MI csak technikai támogatást
jelentett, attól, amikor a tartalom generálása – tudományos szempontból – már
kifogásolható szintet ért el.
A második pillér az etikai
megfelelőség. A Kar világosan megfogalmazza: az MI használata kizárólag
akkor megengedett, ha az nem helyettesíti a hallgató önálló gondolkodását, és
nem sérti az akadémiai integritás elveit. Ez nem csupán azt jelenti, hogy a
hallgató ne „íratja meg” teljes egészében a dolgozatát – hanem azt is, hogy ne
használjon MI-t olyan célra, amely elrejti az idegen tartalom eredetét. Ide
tartozik a gépi parafrazálás (amikor egy tankönyvi szöveget újrafogalmaztat), a
gépi fordítás (például angol nyelvű tanulmányokból készíttet magyar szöveget),
vagy épp a nem valós hivatkozásokkal való „díszítés”. Az ilyen eljárások
nemcsak etikátlanok, hanem a tudományos tanulás folyamatát is ellehetetlenítik.
A harmadik alappillér a tanulást
támogató MI-használat. A szabályozás nem tiltani akarja az új technológiát –
épp ellenkezőleg. Egy előre tekintő, a hallgatói kompetenciák az MI használatra
való kiterjesztését támogatni kívánó egyetemi szabályozásban az MI alkalmazása nemcsak
megengedett, hanem bizonyos esetekben kifejezetten ajánlott is. Különösen
akkor, ha az segíti a hallgatót a gondolatok világos megfogalmazásában, a
struktúra átláthatóságában vagy a stilisztikai hibák kijavításában. Ebben a
felfogásban az MI nem más, mint egy asszisztens: egy digitális segítő, amely a
hallgató saját munkáját kiegészíti, de nem váltja ki. Ezért is fontos,
hogy a hallgatók megtanulják, hogyan kérdezzenek jól, hogyan ellenőrizzék a
generált szövegeket, és hogyan tudják elválasztani a valós hivatkozást a
„hallucinált” forrástól.
Bár elvileg sokféle digitális
tartalomdetektor áll - részben ingyenesen, rendszeres használat esetén azonban
már inkább csak előfizetéses formában – az egyetemek és oktatók rendelkezésére,
sőt, a közelmúltban a Magyarországon is széles körben alkalmazott Turnitin is bővült
ilyen funkciókkal, ezek általában
annak megállapítására képesek, hogy a vizsgált szövegben milyen arányban, hány
százalékban mutatható ki az MI használat jelenléte. Ezeket az elemzéseket sem
lehet azonban „csak úgy”, konkrétumok, kimutatható szabálytalanságok nélkül elfogadni
- az oktatók munkáját segítő szakmai iránymutatásoknak ezért részletesen ki
kell térniük arra is, miként ismerhetők fel az MI használatának nyomai a
beadott szövegekben. A stiláris homogenitás, a túlzott formális szerkezet, az
érvelés logikai hibái, a hiányzó példák vagy a nem létező irodalmi hivatkozások
mind-mind arra utalhatnak, hogy a szöveg egyes részei nem emberi kéz munkáját
tükrözik. Az oktató feladata ilyenkor nem a büntetés, hanem a felismerés és a
segítő visszajelzés. A cél az, hogy a hallgató tanuljon belőle, és legközelebb
már önállóbban, tudatosabban dolgozzon.
A jó szabályozás tehát nem
korlátoz, hanem irányt mutat. Nem tilt, hanem tanít. Olyan tanulási kultúra
felé vezet, amelyben az MI nem veszélyforrás, hanem pedagógiai lehetőség – ha
jól élünk vele. Ezért válik a szabályozás az oktatás új, digitálisan támogatott
korszakának egyik legfontosabb biztosítékává.
Mit kell az oktatóknak megtanulniuk?
A generatív mesterséges
intelligencia nemcsak a hallgatók számára kínál új lehetőségeket, hanem az
oktatók szerepét is átalakítja. A beadandó dolgozatok előzetes véleményezése, a
konzulensi visszajelzések megfogalmazása és a szakdolgozatok formai-tartalmi
átnézése egyaránt új dimenziókat kap, ha a munkába bekapcsolódik egy
intelligens nyelvi modell. Ahhoz azonban, hogy ez az együttműködés valóban
értelmes és eredményes legyen, az oktatóknak is el kell sajátítaniuk bizonyos
új készségeket. Ezek nem informatikai ismeretek – hanem kritikai gondolkodáson,
pedagógiai tudatosságon és kommunikációs rutinokon alapuló, sajátos
kompetenciák.
Az első – és talán legfontosabb –
ilyen készség a célzott promptolás. A mesterséges intelligencia nem
„mindent tud”, hanem azt tudja jól, amit jól kérdezünk tőle. Egy sablonos
kérdésre sablonos válasz születik, míg egy jól célzott, a dolgozati kontextusra
szabott kérés akár meglepően árnyalt visszajelzést is eredményezhet. Például az
olyan kérdés, hogy „Vizsgáld meg a dolgozat szerkezeti arányait a
Bevezetés–Módszertan–Eredmények–Következtetés tengelyén, és jelezd, ha
valamelyik rész túl hosszú vagy hiányos” – jó eséllyel értékelhető adatokat
ad vissza, amelyek alapján az oktató pontosabban fókuszálhat a saját szakértői
olvasatára. Ennek elsajátítása nem technikai, hanem nyelvhasználati
kompetencia: világosan, pontosan kell tudnunk, mit akarunk megtudni a
szövegről.
A második kulcskompetencia az MI
által generált szövegek értelmező olvasása. Az oktatóknak képesnek kell
lenniük felismerni azokat a stilisztikai és szerkezeti mintázatokat, amelyek a
gépi szövegalkotásra utalnak – anélkül, hogy elhamarkodott következtetésekre
jutnának. A generatív MI modellek ugyanis nemcsak segíthetnek, hanem – ha
kontrollálatlanul használják őket – megtéveszthetik az olvasót: egy túlságosan
sima, homogén, „hibátlanul szabályos” szöveg első ránézésre korrektnek tűnhet,
miközben semmilyen önálló gondolkodás nem húzódik meg mögötte. Ehhez a kritikai
észleléshez nem pusztán tapasztalat, hanem tudatos pedagógiai érzékenység
szükséges. A kérdés ugyanis nem az, hogy „mi generálta a szöveget”, hanem az,
hogy van-e benne valódi gondolati jelenlét.
A harmadik fontos terület a forráskritikai
éberség. A mesterséges intelligencia egyik leggyakoribb hibája az
úgynevezett hallucináció: vagyis olyan forrásokat, adatokat, szerzőket említ,
amelyek nem léteznek, vagy nem úgy, ahogyan azokat a modell előadja. Az
oktatóknak ezért képesnek kell lenniük kiszűrni az ilyen „kamu hivatkozásokat”,
és szükség esetén ellenőrizni, hogy az irodalomjegyzék valódi műveket
tartalmaz-e. Ezt a készséget nemcsak a szöveg ellenőrzésekor, hanem már a
konzultációk során is gyakorolni kell: például célzott kérdésekkel rávilágítani
arra, hogy a hallgató valóban olvasta-e az idézett tanulmányokat, vagy csak „belekerültek”
a szövegbe – ismeretlen eredettel.
Ehhez kapcsolódik a negyedik,
egyre fontosabbá váló dimenzió: az anonimizálási és adatvédelmi tudatosság.
Mivel az MI-rendszerek nem az egyetem belső platformjain futnak, hanem külső
szolgáltatók alkalmazásai (például az OpenAI vagy az Anthropic rendszerei), az
adatvédelmi szabályok szerint csak anonimizált szöveget lehet feltölteni
az értékelési folyamat során. Ez azt jelenti, hogy a dolgozatokból minden
személyes adatot, nevet, cégnevet, konkrétumot el kell távolítani, mielőtt az
MI-nek megmutatnánk. Ez nem formai apróság, hanem jogi követelmény – amelyet
minden oktatónak ismernie és alkalmaznia kell.
Végül, de nem utolsósorban, az
oktatóknak meg kell tanulniuk, hogy miként adjanak visszajelzést MI által segített
értékelés után. Az MI-től kapott javaslatokat nem szabad mechanikusan
továbbítani a hallgatónak – az oktató dolga az, hogy a kapott információkat értelmezze,
priorizálja, és a saját pedagógiai tapasztalatára építve integrálja a
visszajelzésbe. Az MI lehet a második olvasó – de a felelős döntéshozó mindig
az oktató marad.
A mesterséges intelligencia, mint partner az értékelés új
kultúrájában
A dolgozatírás és -értékelés
évtizedek óta a felsőoktatás egyik központi tanulási és pedagógiai terepe. A
generatív mesterséges intelligencia megjelenése ebben a térben nem csupán
technológiai, hanem mélyen emberi és szemléletbeli változást is hoz. A jövőben
bevezetésre kerülő keretrendszereknek ezt a változást kell tudniuk majd irányítani,
tanulási lehetőséggé alakítani. Az MI alkalmazása nem a tanári szerep
gyengülését, hanem annak újrafogalmazását jelenti – olyan környezetben, ahol a
technológia nem versenytárs, hanem partner.
Az értékelés hagyományos
kultúrájában a dolgozat az önálló teljesítmény bizonyítéka volt, az értékelés
pedig az ehhez kapcsolódó ítélet. A generatív MI belépésével azonban az
értékelés fogalma is átalakul: az oktatónak nem csupán az a feladata, hogy mennyiségi
és minőségi mutatók alapján pontozzon, hanem az is, hogy felismerje,
mennyiben tükröz a dolgozat valódi tanulási folyamatot, személyes befektetést,
gondolati munkát. A mesterséges intelligencia ebben a környezetben lehetőséget
ad arra, hogy a tanulás és az értékelés közötti határvonalak elmosódjanak – és
hogy a dolgozat ne csupán egy termék, hanem egy folyamat lenyomata legyen.
Ez a szemlélet azonban csak akkor
működik, ha világos szabályozás és intézményi támogatás keretei között
történik. A szabályozott MI-használat egyben pedagógiai eszköz is, mely nem
írja meg a dolgozatot a hallgató helyett, de segít annak strukturálásában,
mely nem dönthet az érdemjegyről az oktató helyett, de segíthet a döntés
megalapozásában, nem vonja ki a hallgatót a tanulási folyamatból, hanem
visszatükrözi, hol van még fejlődési lehetőség számára.
Az ezt szolgálni kívánó
szabályozás átláthatóvá és reflexívvé teszi az MI jelenlétét a dolgozatírás
során. A hallgató számára ez azt jelenti, hogy nem rejtőzködni kell, hanem
tudatosan beépíteni a gépi támogatást – megjelölni, dokumentálni, értelmezni.
Az oktató számára pedig azt, hogy nem kell a szöveg minden hibáját kézzel
javítania, nem kell gyanakvásból kiindulnia, hanem célzottan, a saját
szakértelmét megőrizve végezheti az értékelést.
Ezzel párhuzamosan egy újfajta
felelősség is kialakul: az oktatónak már nemcsak értékelnie kell, hanem
segítenie is abban, hogy a hallgató megtanulja, hogyan dolgozhat együtt a
mesterséges intelligenciával. A jövő felsőoktatása nem gépi ellenőrzőpontokkal,
hanem emberek és gépek együttműködésével működik majd. Ehhez azonban kultúrát
kell építeni: a felelősség, az átláthatóság, a kritikai gondolkodás és a
szakmai párbeszéd kultúráját.
Ez az írás az ELTE Gazdaságtudományi Karán folyó, a mesterséges intelligencia oktatási célú bevezetését célzó kutatás keretében, emberi és mesterséges intelligencia együttműködésével jött létre.
