A generatív mesterséges
intelligencia (GMI) megjelenése a jogtudományi kutatás, a jogi publikáció és a
jogi elemzés folyamatát is átalakította. A jónéhány éve már jelenlévő legaltech
megoldások – az automatizált szerződéskezeléstől az adatbázis-elemzésig –
mellett mára a generatív modellek, mint a ChatGPT, a Gemini vagy a Claude, a jogi
szakmai és kutatói gondolkodás szerves részévé váltak. Írásunk célja, hogy egy
most megtartott szakmai előadás és annak kutatásmódszertani
előzményei alapján áttekintő képet adjon a mesterséges intelligencia
jogtudományi felhasználásának lehetőségeiről, a kapcsolódó etikai,
adatvédelmi és felelősségi kérdésekről, a nemzetközi és hazai
gyakorlat alakulásáról.
A technológiai fejlődés hatásait
végső soron a tudományos integritás szemszögéből mutatjuk be, arra keresve a
választ, hogyan lehet a generatív MI-t úgy beépíteni a jogi kutatás és
publikálás folyamatába (is), hogy az a tudományos hitelességet ne gyengítse,
hanem erősítse.
Generatív mesterséges intelligencia és legaltech
A jogtudományi kutatás és
a jogi gyakorlat digitalizációja két, látszólag rokon, valójában eltérő
technológiai irány mentén halad: a legaltech és a generatív
mesterséges intelligencia között. A legaltech célja az automatizálás
– az ismétlődő feladatok kiváltása sablonokkal és adatvezérelt folyamatokkal.
Ilyenek például a szerződésgenerálók, a verzió- és ügykezelő
rendszerek, vagy a peres kimeneteket előrejelző algoritmusok,
amelyek strukturált jogi adatbázisokra építenek. A generatív MI ezzel szemben nyelvi
mintázatokból tanul, és új tartalmakat hoz létre – szöveget, képet, kódot,
akár teljes elemzéseket. Míg a legaltech a jogi logikát kódolja, a GMI az emberi
gondolkodás formáit imitálja.
A GPT-technológia alapja a
mélytanulás: a modell több milliárd szókapcsolatot elemzett tudományos,
szakmai és köznyelvi forrásokból, így képes a szövegben rejlő árnyalatokat és
szándékokat felismerni. A rendszer nem értelmez, hanem valószínűségi alapon
generál. Ebből adódik a kettős természet: a válaszok gyakran kreatívak
és koherensek, de nem mindig faktualizálhatók. A tudományos közegben
ez különösen érzékeny: a jogi vagy kutatási kontextusban a pontatlanság nemcsak
hibát, hanem jogi kockázatot is jelenthet.
A generatív modellek előnye mégis
vitathatatlan. A kutatói munka egyik legnagyobb kihívása az idő: a
forráskutatás, az adatrendezés és a nyelvi finomítás órákat, olykor napokat
vesz igénybe. A GMI ezeket percek alatt képes elvégezni, összegzéseket,
fordításokat, szerkezetjavaslatokat készítve. A többnyelvűség révén
megkönnyíti a nemzetközi publikációs térbe való belépést, ami különösen
fontos a kisebb tudományos közösségek számára.
Azonban az előnyökkel együtt nő a
felelősség is. A GMI-rendszerek hajlamosak a „hallucinációra”, vagyis
nem létező források, fiktív hivatkozások előállítására. Ez a tudományos
integritás egyik legnagyobb veszélye. A modell által generált információ azonban
nem tekinthető sem hitelesnek, sem a kutatás és információfeldolgozás
szakmai normái szerint megalapozottnak – minden adatot, hivatkozást vagy
idézetet a kutatónak kell ellenőriznie. A forráshitelesség, az adatvédelem
és a szerzői jog kérdése ezért az MI-használat szerves része. Az előadás
hangsúlyozza, hogy a ChatGPT vagy bármely más modell nem helyettesíti a jogi
szakértelmet és semmiképpen nem adhat(na) jogi tanácsot.
A legaltech és a GMI
különbségének megértése azért is fontos, mert a két irány eltérő felelősségi
és etikai keretrendszert kíván. A legaltech folyamatok (és a mögöttük álló,
a technikát használó cég, ügyvédi iroda vagy szervezethez kötött
célalkalmazások) eredménye ellenőrizhető: ismert adatalapokon, rögzített
szabályok szerint, magas szintű adatvédelmi és szakmai titoktartási
követelmények között működnek. A GMI viszont valószínűségi természetű külső
rendszer, amit a kutató nem tud ellenőrzése alatt tartani, a rendszer által
létrehozott eredményt pedig nem csak kritikusan kell vizsgálnia, de
minden esetben validálnia is kell. A jogi és tudományos közösség előtt
tehát nem az a kérdés, hogy használható-e a generatív MI, hanem hogy hogyan
és milyen feltételek mellett illeszthető be a felelősségteljes kutatási
gyakorlatba. A cél nem az automatizálás, hanem az emberi gondolkodás
támogatása – annak érdekében, hogy a technológia a tudományos tudás
kiterjesztésének, ne torzításának eszköze legyen.
A ChatGPT és a kutatói munka új dimenziói
A ChatGPT és más, hasonló
chatbot alapon működő nagy nyelvi modellek megjelenése a kutatói munka
történetének egyik leggyorsabban terjedő technológiai fordulópontja. Míg a
legaltech a háttérben dolgozó infrastruktúra maradt, a ChatGPT közvetlenül az alkotás
folyamatába lépett be: a gondolatok megszületésének, a szövegek
formálásának és a tudományos kommunikációnak az aktív részesévé vált. Az OpenAI
GPT-5 modellje – amely 2025 nyarától az alapértelmezett verzió – már nem
csupán szövegalkotó, hanem komplex kutatási platform, amely képes webes
keresésre, mélykutatásra, képgenerálásra, hangalapú interakcióra és saját
„projektek” létrehozására. Ezzel az MI valóban tudományos asszisztenssé
vált: segít rendszerezni a gondolatokat, összegyűjteni a releváns forrásokat és
megfogalmazni a tudományos érveket.
A ChatGPT működésének alapja a promptolás
– vagyis a felhasználói utasítás megfogalmazása. A modell nem értelmez, hanem valószínűségi
mintázatokból épít fel válaszokat, ezért az eredmény minőségét a kutató
instrukciójának pontossága határozza meg. A STAR- és CISCO-modelleket
emelhetők ki, mint olyan stratégiák, amelyek a tudományos felhasználás során
segítik az MI-t célzottan és átláthatóan működtetni. A jó prompt nemcsak az
MI-t irányítja, hanem a kutató gondolkodását is szervezi: világossá teszi a kutatási
célt, a kontextust és az elvárt eredményt. A generatív MI-vel
való munka így egyszerre technikai és intellektuális kompetencia, amely új
kutatói szerepet formál.
A ChatGPT mellett számos
alternatíva segíti az – elsősorban angol nyelven folyó - tudományos
tevékenységet. Az Anthropic Claude elsősorban strukturált jegyzetelésre
és dokumentumelemzésre alkalmas; a Google Gemini a csoportmunkát
támogatja, adatfeldolgozási és vizualizációs feladatokat lát el; a Perplexity.ai
a legmegbízhatóbb hivatkozás-alapú kereső, amely minden válaszhoz konkrét
forráslinket ad; a Consensus az adott kutatási témákban kialakult
tudományos egyetértéseket jeleníti meg, így segít elhelyezni az új kutatásokat
a nemzetközi szakirodalmi térben. Ezek az eszközök kiegészítik egymást: a
ChatGPT a kreatív szövegalkotásban, a Perplexity a forráshitelességben,
a Claude és a Gemini pedig az oktatási és elemzési folyamatokban erősek.
A ChatGPT tehát a jogtudományban
sem váltja fel a kutatót, hanem meghosszabbítja a gondolkodását. Az
MI-asszisztens nem helyette dolgozik, hanem mellette: gyorsítja az
adatfeldolgozást, javaslatokat ad, stilizál, de a döntés és az értékelés mindig
emberi kompetencia marad. A jogtudományi kutatásban ez különösen
lényeges, hiszen az MI által generált érvek vagy források nem tekinthetők
hivatkozási alapnak, csak kiindulópontnak. A ChatGPT így az akadémiai munka
új rétegét hozza létre – az ember és gép közötti dialógust, amelynek
minőségét a kritikus gondolkodás határozza meg.
A kutatási folyamat és az MI integrációja
A generatív mesterséges
intelligencia a kutatás minden szakaszában támogató szerepet játszhat –
a kezdeti ötletformálástól a publikációs előkészítésig. Az előadásban
bemutatott modell szerint a folyamat hat fő szakaszra bontható: téma- és
problémafelvetés, hipotézisalkotás, forráskutatás, vázlat- és szövegalkotás,
fordítás és stilizálás, valamint disszemináció. Mindegyik lépésben más-más
típusú MI-eszköz használható, és más kockázatokat rejt a beavatkozás mértéke.
A kiindulópont a téma
kiválasztása és problémafelvetés, ahol a ChatGPT és a Claude már
inspirációs eszközként működnek. A kutató röviden leírhatja érdeklődési körét
vagy diszciplínáját, a modell pedig trendeket, kulcsszavakat, kutatási
réseket azonosít. Ez különösen a fiatal kutatók számára hasznos, akik még
nem látják át a nemzetközi szakirodalom hálózatait. Az MI itt nem dönt, hanem ötletkatalizátorként
segít, de a választás mindig a kutatóé marad.
A második szakasz a hipotézisalkotás
és kutatási kérdés megfogalmazása, ahol a GMI képes nagymennyiségű szöveg –
tanulmányok, bírósági döntések, adatbázisok – gyors áttekintésére és összegzésére.
A kutató így rövid idő alatt láthatja, mely elméletek uralkodnak, hol vannak
ellentmondások. Ugyanakkor az MI nem értékeli a források megbízhatóságát, ezért
ez a lépés kizárólag emberi ellenőrzéssel tekinthető érvényesnek.
A harmadik fázis a forráskutatás
és irodalomfeltárás, ahol a ChatGPT mellett megjelennek a kifejezetten
tudományos keresőmotorok: a Perplexity.ai minden válaszhoz
hivatkozásokat rendel, a Consensus a kutatási eredmények közötti
konszenzust mutatja, míg az Elicit vagy a ResearchRabbit a
publikációk kapcsolati hálóit tárja fel. Ezek a rendszerek – elsősorban az
angol nyelvi keresések és kutatás kontextusában - megkönnyítik a komparatív
elemzéseket és a kulcsszavas kutatást, de csak nyilvánosan elérhető
tartalmakban tudnak keresni. A zárt adatbázisok (pl. MERSZ, az Orac Szakcikk
Adatbázis Plusz, a JSTOR, vagy a HeinOnline) tartalma nem férhető hozzá
az MI számára, ezért a kutatónak kettős keresési stratégiát kell
alkalmaznia: emberi adatbázis-használatot és MI-támogatott elemzést.
A negyedik szakasz a vázlat-
és szövegalkotás, amelyben a ChatGPT vagy a Writing GPT strukturálja a
gondolatmenetet, bevezető- és összefoglalóterveket készít, javaslatot tesz a
fejezetek logikájára. A Claude segítségével a kutató nyelvileg és
stilisztikailag finomíthatja a szöveget, vagy elkészítheti az első angol
nyelvű változatot. Ez a lépés akár 60–70%-kal rövidítheti a kézirat
előkészítésének idejét, de csak akkor, ha a szerző kritikusan szerkeszt
és nem mechanikusan veszi át az MI javaslatait.
Az ötödik fázis a fordítás és
nyelvi ellenőrzés, ahol a DeepL, az eTranslation és a ChatGPT többnyelvű
képességei használhatók. A magyar–angol és magyar-német fordítás tudományos
szövegek esetén is megfelelő minőségű lehet, de a terminológia és hivatkozási
rendszer ellenőrzése elengedhetetlen. A jogtudományban különösen fontos a
fogalmak konzisztenciája – az MI itt csak első vázlatot adhat, nem
végleges változatot.
A kutatási folyamat tehát nem
gépivé válik, hanem hibriddé: az ember és az MI közösen építi fel a
tudományos szöveget – utóbbi jól strukturált alapokat szolgáltathat hozzá, a
folyamat ellenőrzése és az eredmény validálása azonban minden esetben emberi
feladat marad. A kulcs a helyes arány: ahol az MI gyorsít, ott az embernek
értékelnie kell; ahol az MI összegzi, ott az embernek szelektálnia; ahol az MI
javasol, ott az embernek döntenie. Ez a felelősségi viszony az, ami a
tudományos autonómiát a digitális korszakban is fenntartja – és ezért nem
támogathatók azok a törekvések, amelyek az ún. ügynöki megoldásokat a
tudományos kutatásba is bevezetnék.
A mesterséges intelligencia
területén ezek – mint a ChatGPT esetében is - tipikusan olyan modellek, amelyek
autonóm módon kutatnak, írnak, elemeznek vagy kommunikálnak, például egy
több-lépéses kutatási folyamatot teljesítenek emberi beavatkozás nélkül –
kizárva ezzel a szövegfejlesztés folyamatában fontos emberi ellenőrzési és
iteratív visszajelzési lehetőséget.
Akadémiai és kiadói gyakorlatok a mesterséges intelligencia
használatáról
A jogtudományi, és tágabban vett
tudományos közegben a generatív mesterséges intelligencia használata
mára mindennapossá vált, ugyanakkor a gyors technológiai terjedéshez nem társul
egységes akadémiai szabályozás. Az elmúlt két évben ugyan megjelentek az
első intézményi irányelvek és kiadói útmutatók, de ezek nagyon eltérő
szintűek és részletességűek. Míg egyes szervezetek konkrétan rögzítik,
mikor és milyen feltételek mellett használható MI a kutatásban, mások csupán
általános elvi megállapításokat fogalmaznak meg.
A legnagyobb tudományos és a
jog területén is meghatározó kiadók – például a Springer Nature, az Oxford
University Press, az Elsevier, a Wiley és a Taylor & Francis – már
meghatározták a generatív MI-vel kapcsolatos alapelveiket: a modellek
használata nem tiltott, de csak akkor elfogadható, ha a szerzők
az alkalmazás tényét feltüntetik és indokolják, valamint garantálják,
hogy az emberi ellenőrzés a folyamat minden szakaszában megmarad. Az MI nem
lehet szerző, és nem ruházható rá tudományos felelősség.
A nemzetközi publikációs
gyakorlatban ezért egyre gyakoribb, hogy a kéziratok végén külön AI
Disclosure Statement vagy Author Contribution Form szerepel. Ezek
célja a transzparencia, vagyis annak rögzítése, hogy az MI-használat
mely szakaszokra terjedt ki – például nyelvi stilizálásra, fordításra,
adatfeldolgozásra vagy képgenerálásra. A legtöbb kiadó csak akkor fogad el MI
által előállított ábrákat vagy illusztrációkat (pl. DALL·E, Midjourney), ha
azok egyértelműen megjelölve vannak, és a szerző kijelenti, hogy a képek
nem sértik szerzői jogokat.
A hazai akadémiai gyakorlat ezzel
szemben még széttartó. Míg a nemzetközi kiadók a teljes tudományos
spektrumra egységes szabályokat érvényesítenek, a magyar folyóiratokban a
mesterséges intelligencia alkalmazásáról nem alakult ki közös álláspont.
Egyes kiadók és szaklapok – például a Wolter Kluwers MERSZ, a Magyar
Tudomány – már beépítették a tiltó vagy feltételes elfogadási klauzulát a
szerzői útmutatóikba: a ChatGPT és más generatív modellek használata csak akkor
megengedett, ha az egyértelműen feltüntetésre kerül a kéziratban, és az
MI által előállított tartalom nem torzítja a tudományos eredményt. Más
lapoknál az MI-használat kérdése egyelőre nincs szabályozva, ami
bizonytalanságot okoz a kutatók körében.
E szabályozási hiány végső soron
a tudományos közösségre is kockázatot jelent: ha nem világos, mikor és
milyen módon használtak MI-t, az a publikációk ellenőrizhetőségét és
hitelességét veszélyezteti. Ezért a legfontosabb lépés a transzparencia
intézményesítése, vagyis annak rögzítése, hogy az MI-használat nem
önmagában probléma, ha nem a titkolt, ellenőrizetlen alkalmazás az, ami az
akadémiai integritást gyengíti.
Mindez arra mutat rá, hogy a
generatív mesterséges intelligencia akkor válhat a tudomány hasznára, ha
a kutatók és kiadók közös elveket fogalmaznak meg az etikus, dokumentált és
ellenőrzött használatra. Ez a jövőben nemcsak a publikációs folyamat
biztonságát, hanem a kutatói bizalom megőrzését is szolgálja. A felelősség
mindig emberi marad – az MI csupán eszköz, amely a kutatást gyorsítja, de a
tudományos döntéseket nem helyettesítheti.
A felelős integráció iránya
A generatív mesterséges
intelligencia nem csupán új eszközt, hanem új kutatási szemléletet
jelent. A GMI a tudományos gondolkodás partnere, amely gyorsítja az
elemzést, segíti a rendszerezést, és lehetővé teszi a tudás szélesebb körű
megosztását – úgy, hogy a konkrét lehetőségek nagy mértékben függenek a
használt modelltől, a kutató az egyes alkalmazások kreatív összekapcsolására
való felkészültségétől. A legnagyobb kihívást azonban végső soron nem a
használat, hanem a használatért való felelősség és a transzparencia
kérdése jelenti.
Sok évtized oktatói és tudományos
munkáján alapuló meggyőződésem szerint a jogtudomány és a jogi tudományos
publikáció jövője (is) azon múlik, hogy az MI alkalmazása mennyire képes etikus
és átlátható keretek között maradni. A kutató feladata, hogy a mesterséges
intelligenciát tudatosan, dokumentáltan és ellenőrzötten építse be a
munkájába, megőrizve ezzel az emberi szakértelem elsődlegességét – de ez legnagyobb
felelőssége is. Magunkkal, és a tudományos közösség jövőjével szemben
egyaránt.

