A tudományos kutatás és
publikáció világában a generatív mesterséges intelligencia egyszerre jelent
áttörést és dilemmát. Az eszközök gyors szövegalkotási, fordítási és
adatfeldolgozási képességei támogatják a kutatókat, ugyanakkor felvetik az
akadémiai integritás, átláthatóság és felelősség kérdését. Bár
számos kiadó és kutatási intézmény próbál irányelveket alkotni, ezek gyakran
eltérőek, és nem képesek tartani a lépést a technológia gyors fejlődésével.
A kiadói szervezetek tapasztalatai és a legnagyobb kiadók szabályozásai azonban rávilágítanak arra, hogy az MI alkalmazása a publikációs folyamatban csak akkor
elfogadható, ha használata dokumentált, átlátható és emberi kontroll mellett
zajlik.
Írásunk – a szerző itt, Caimelot
blogon és másutt 2024-2025-ben közzé tett korábbi elemezéseihez kapcsolódva, s egy
még nem publikált, nagyobb munka legfontosabb megállapításait összegezve
- arra vállalkozik, hogy 2025 szeptemberében, az aktuális helyzet áttekintésével képet adjon a tudományos és
tudományos kiadói közegben zajló változásokról. Abban bízunk, hogy talán egy
olyan szabályozási keret kialakításához is hasznos adalékokkal tud majd szolgálni,
mely a globális változások folyamatában, a nemzetközi sztenderdekhez igazodva jobban
tudja majd biztosítani a tudományos közlés hitelességét és átláthatóságát – a magyar
tudományos kutatások és publikáció világban is.
Az MI eszköztára és
felhasználási lehetőségei
A generatív mesterséges
intelligencia mára rendkívül széles eszköztárral áll a kutatók
rendelkezésére. A legismertebb a ChatGPT,
amely az OpenAI fejlesztése, és a kutatói közösségben rövid idő alatt
meghatározó szereplővé vált. A modell képes gyors szövegalkotásra, fordításra,
összegzésre és stiláris javításra, így egyszerre segíti az ötletgenerálást, a
vázlatkészítést és a kéziratok finomítását. A 2025-ben
bevezetett GPT-5 új funkciókkal bővítette a lehetőségeket: a mélykutatás
és az ügynök mód révén a rendszer nemcsak egyszeri válaszokat ad, hanem
összetett feladatokat hajt végre több lépésben, például kereséseket végez
különböző adatbázisokban vagy számításokat futtat.
A ChatGPT mellett más modellek is
helyet kaptak a tudományos munkában. Az Anthropic Claude és a Google Gemini kiemelkednek
a szövegelemzésben és a nyelvi korrekcióban. A Perplexity.ai különösen értékes,
mert minden válaszát hivatkozásokkal látja el, így csökkenti a hallucináció
kockázatát. A Consensus pedig
kifejezetten tudományos kérdésekben nyújt támogatást, és képes a publikációk
közötti konszenzust feltárni.
A kutatók számára hasznos
specializált eszközök közé tartozik a Scite.ai,
amely megmutatja, hogy egy adott tanulmányt más források támogató, cáfoló vagy
semleges módon idéznek-e. A Scholarcy
hosszú tanulmányokat alakít át rövid összefoglalóvá, megkönnyítve az irodalom
áttekintését. Az Elicit.org és a ResearchRabbit a releváns
szakirodalom és kutatói hálózatok feltárására alkalmasak. A Semantic Scholar a
publikációk közötti mélyebb összefüggéseket tárja fel. Ezek a szolgáltatások
jellemzően az angol nyelvű szakirodalmat kezelik megbízhatóan, ami kihívást
jelent a magyar kutatók számára, ugyanakkor nemzetközi együttműködésekben
pótolhatatlanok.
A szövegalkotó modelleken túl az adatfeldolgozó
és vizualizációs eszközök is egyre inkább a tudományos munka részévé
válnak. Az Iris.ai nagymennyiségű
szakirodalmat képes tematikus hálózatba rendezni, így támogatva az
irodalomkutatást. Az AllenNLP
mély szövegelemzést kínál, az ImageJ
és a CellProfiler pedig a képi
és orvosi kutatásokban teszik lehetővé a nagyméretű adatkészletek automatikus
feldolgozását. A bibliográfia-kezelés terén a Zotero
és az EndNote MI-moduljai képesek
automatikusan rendezni a forráslistákat, sőt releváns irodalmat is javasolnak.
Fontos terület a fordítás.
A ChatGPT több mint ötven nyelvet kezel magas szinten, így a magyar-angol
nyelvpárban is képes használható tudományos fordításokat készíteni. A DeepL a legmagasabb minőséget nyújtja
a világnyelvek és a nagy európai nyelvek között, az eTranslation
az EU hivatalos nyelveire kínál biztonságos megoldást, míg a Google Translate gyors,
általános megértést nyújt. A fordítások minősége ugyanakkor minden modell
esetében ellenőrzést igényel, különösen a terminológia pontossága miatt.
Az eszköztár tehát rendkívül sokszínű, s beépül a tudományos kutatás teljes folyamatába - a szövegalkotás mellett segíti a forráskutatást, a nyelvi javítást, az adatfeldolgozást és a vizualizációt is. A kihívás abban rejlik, hogy a kutatók miként tudják a sokféle rendszert összehangoltan, a tudományos integritást szem előtt tartva alkalmazni. Az MI által kínált lehetőségek csak akkor válnak valódi előnnyé, ha a felhasználó tudatosan, kritikus szemlélettel és transzparensen építi be őket a munkájába.
Promptolás, kutatói
kompetenciák és alkalmazási példák
A generatív mesterséges
intelligencia használatának minősége nagymértékben azon múlik, hogy a kutató
hogyan tudja irányítani a modellt. Ezt nevezzük promptolásnak,
vagyis olyan utasítás megfogalmazásának, amely meghatározza a válasz tartalmát,
szerkezetét és stílusát. A túl általános kérdés felszínes, sokszor irreleváns
szöveget eredményez, míg a jól strukturált prompt pontos, releváns és
tudományosan használható kimenetet ad.
A hatékony használat érdekében
kialakult a prompt engineering gyakorlata, amely különféle módszereket
és struktúrákat dolgozott ki. A legismertebbek közé tartozik a STAR-modell (Situation,
Task, Appearance, Refine), amely a helyzet leírásától a feladat
pontosításán át a formai keretek kijelöléséig, majd a finomításig vezeti végig
a felhasználót. A CISCO-modell (Context, Intent, Style, Commands,
Outcome) szintén logikus rendszert kínál: először a kontextust kell
meghatározni, majd a szándékot, a kívánt stílust és az utasításokat, végül az
elvárt eredményt. Ezek a megközelítések segítik a kutatót abban, hogy a modell
valóban a saját igényeire szabott szöveget állítson elő.
A promptolás ugyanakkor nem pusztán technikai trükk,
hanem a kutatói kompetenciák átalakulásának része. A jövő kutatója
számára nem elég a hagyományos irodalomkutatás és szövegírás ismerete; elengedhetetlen
a digitális írástudás, vagyis annak képessége, hogy a mesterséges
intelligenciát világos, pontos és célszerű utasításokkal irányítsa. A jó prompt
megfogalmazása magában foglalja a téma körülhatárolását, a kulcsszavak tudatos
használatát, a megfelelő tudományos stílus kijelölését, valamint a terjedelem
és a szerkezet meghatározását.
A pontatlan vagy hiányos promptok
növelik a hallucináció veszélyét. Például, ha valaki csak annyit kér,
hogy „mutasd be az európai MI-szabályozást”, a rendszer könnyen összemossa az
EU AI Act rendelkezéseit a tagállami szabályozásokkal. Ha azonban az utasítás
így szól: „ismertesd az EU AI Act 2024-es végleges változatának 5–10. cikkét, a
hivatalos szöveg alapján, legfeljebb 800 szóban”, akkor a modell lényegesen
pontosabb, ellenőrizhetőbb választ ad. Ez mutatja, hogy a kutató felelőssége
nemcsak az ellenőrzésben, hanem már a kérdésfeltevésben is megjelenik.
A promptolás szorosan kapcsolódik
a kritikai ellenőrzéshez. Az MI által generált szöveg soha nem fogadható
el automatikusan. A kutatónak át kell vizsgálnia, össze kell vetnie a
szakirodalommal, és saját szakmai érvelésébe illesztenie. Az új technológia
tehát nem csökkenti, hanem éppen növeli az emberi ítélőképesség szerepét.
A gyakorlatban a generatív MI
számos kutatási lépést támogat. Már a témafelvetésnél segít kulcsszavak
és lehetséges kutatási kérdések azonosításában. A hipotézisalkotásban
gyors összefoglalókat készít a releváns elméletekről. A vázlatkészítésnél
logikus szerkezetet javasol, és rövid átvezető szövegeket alkot. Az irodalomkutatásban
olyan eszközökkel működik együtt, mint a Perplexity.ai vagy a Consensus,
amelyek hivatkozásokkal biztosítják a források ellenőrizhetőségét. A kéziratírásban
stiláris javításokat végez, és segíti a szöveg gördülékenyebb, tudományosabb
megfogalmazását.
Az utóbbi időben terjednek a multimodális
funkciók is: a ChatGPT-be integrált DALL·E, a Gemini Nano Banana vagy a MidJourney képes
konferenciaposzterek és tudományos illusztrációk elkészítésére, a hang- és
videóalapú rendszerek pedig feliratozást, fordítást és többnyelvű előadások
készítését teszik lehetővé. Bár ezek a lehetőségek gazdagítják a kutatói
eszköztárat, nem szabad elfelejteni, hogy az elemzés és a végső felelősség
továbbra is a kutatót terheli.
A promptolás így nem mellékes
részlet, hanem a tudományos munka jövőjének egyik kulcsa. Aki képes pontos,
tudatos és etikus módon utasítani a mesterséges intelligenciát, az jelentős
előnyhöz jut, miközben megőrzi a tudományos integritást. A rosszul
megfogalmazott vagy ellenőrizetlenül átvett tartalom azonban könnyen torzíthatja
a kutatás eredményeit.
Etikai és szabályozási keretek
A generatív mesterséges intelligencia tudományos alkalmazása nemcsak technológiai, hanem etikai és jogi kérdés is. Mivel az eszközök gyorsan és tömegesen terjednek, a nemzetközi és hazai szakmai közösség igyekezett olyan kereteket létrehozni, amelyek biztosítják az átláthatóságot és a tudományos integritást.
Nemzetközi szinten már 2019-ben megjelentek az első iránymutatások. Az OECD AI Principles az emberi jogok tiszteletére, az átláthatóságra és az emberi felügyelet fenntartására helyezte a hangsúlyt. Ugyanebben az évben az Európai Bizottság etikai iránymutatásai a megbízható MI-hez konkrét alapelveket rögzítettek, többek között a méltányosságot, az elszámoltathatóságot és a társadalmi hasznosságot. 2021-ben az UNESCO ajánlása globális szintű konszenzust teremtett: kimondta, hogy az MI csak akkor illeszthető a tudományba, ha tiszteletben tartja az emberi méltóságot, nem növeli az egyenlőtlenségeket, és biztosítja a tudás átlátható terjesztését. Az Európai Bizottság 2025 áprilisában frissített Élő iránymutatások a generatív mesterséges intelligencia felelős kutatási felhasználásáról című dokumentuma (Európai Bizottság 2025) az első olyan átfogó európai iránymutatás, amely kifejezetten a generatív mesterséges intelligencia felelős kutatási használatára ad keretet.
Az EU AI Act, amely
2024-ben nyerte el végleges formáját, szabályozási fordulópontot jelent. A
rendelet kockázatalapú megközelítést alkalmaz, és különbséget tesz a tiltott, a
nagy kockázatú, a korlátozott és a minimális kockázatú MI-rendszerek között. A
kutatásban használt generatív modellek jellemzően a korlátozott kockázati
kategóriába tartoznak, így nem tiltottak, de átláthatósági és jelölési
kötelezettségek vonatkoznak rájuk. A felhasználóknak világosan jelezniük kell,
ha MI segítségével készült tartalmat használnak, és biztosítaniuk kell az
emberi ellenőrzést.
A tudományos integritást őrző
szervezetek is kidolgozták saját állásfoglalásaikat. A COPE (Committee
on Publication Ethics) már 2023-ban leszögezte, hogy az MI nem
lehet szerző, és csak emberi kontroll mellett alkalmazható. Az STM
Association hasonló szellemben
hangsúlyozta a transzparenciát, a felelősséget és az emberi felügyeletet. Az ALLEA
(All European Academies) 2023-as Európai
Kutatási Integritási Kódexe előírja, hogy minden kutatónak
dokumentálnia kell az alkalmazott módszereket, köztük az MI-eszközöket is, hogy
biztosítható legyen a reprodukálhatóság.
A magyar szabályozási környezet az utóbbi években kezdett kialakulni. A Magyar Tudományos Akadémia 2024-ben elfogadott Tudományetikai Kódexe előírja, hogy az MI használatát minden esetben fel kell tüntetni, és eltitkolása etikai vétségnek számít. A dokumentum kiemeli, hogy a felelősség mindig a kutatót terheli, aki nem háríthatja át a döntéseket az algoritmusra. Az egyetemek szintjén kezdetben inkább tiltó szabályzatok születtek, ám 2024-től egyre inkább a szabályozott engedélyezés irányába mozdultak el. A felsőoktatási törvény 2024-es módosítása kötelezővé tette, hogy minden intézmény 2025 szeptemberéig alakítson ki átfogó MI-használati irányelveket a tanulmányi és vizsgaszabályzatokban. Ennek eredményei most kezdenek megmutatkozni.
A hazai jó gyakorlatok közé
tartozik például a Pécsi Tudományegyetem Gazdálkodástani Doktori Iskolája,
amely már 2024-ben
részletesen szabályozta az MI alkalmazását. A szabályzat nem tiltja a használatot,
de kötelezővé teszi a pontos jelölést, és az alkalmazás célját is dokumentálni
kell. Ez illeszkedik a nemzetközi trendhez, amely nem az eszközök elutasítását,
hanem a felelős és átlátható beépítését szorgalmazza.
Az etikai és szabályozási keretek
lényege, hogy a mesterséges intelligencia segédeszköz maradjon, ne pedig
szerző. A transzparens jelölés, az emberi ellenőrzés és a felelősségvállalás
olyan alapelvek, amelyek biztosítják, hogy a tudományos kommunikáció
hitelessége ne sérüljön, és az új technológiák valóban erősítsék a tudás
előállítását.
Kiadói gyakorlatok és a
tudományos közlés jövője
A generatív mesterséges
intelligencia használatának egyik legkritikusabb terepe a tudományos
publikáció. A folyóiratok, kiadók és szerkesztőségek világszerte keresik a
módját, hogyan illeszthetik be az új technológiát a közlési folyamatokba úgy,
hogy közben ne sérüljön a tudományos integritás.
A nagy nemzetközi kiadók – Elsevier,
Springer Nature, Wiley, Taylor & Francis – mind
saját útmutatókat adtak ki. Ezek közös pontja, hogy a mesterséges
intelligencia eszközként elfogadható, de sosem vehet át emberi felelősséget. A
szerzőknek kötelező jelezniük, ha MI-t használtak szövegírásra,
képszerkesztésre vagy fordításra, ugyanakkor a végső felelősség mindig az
emberi szerzőt terheli. Az Elsevier például bevezette, hogy a kézirat
beküldésekor külön nyilatkozni kell az MI használatáról. A Springer Nature
irányelveiben pedig szerepel, hogy az MI által generált ábrák és képek csak
akkor közölhetők, ha ezt a szerzők egyértelműen feltüntették.
Ezzel párhuzamosan a detektáló
rendszerek fejlesztése is felgyorsult. Számos kiadó kísérletezik
MI-detektorokkal, amelyek képesek megállapítani, hogy egy szöveg mesterségesen
generált-e. Ezek megbízhatósága azonban korlátozott, gyakoriak a téves pozitív
és negatív eredmények. Emiatt a szerkesztőségek egyre inkább arra az álláspontra
jutnak, hogy nem az automatizált felismerés, hanem az etikai transzparencia
a megoldás: vagyis a szerzők kötelessége jelezni a felhasználást.
A hazai tudományos közegben a kiadói gyakorlat lassabban formálódott. Sok folyóirat szabályzata 2023–2024-ig egyáltalán nem említette az MI-t, ami bizonytalanságot keltett a szerzőkben és a szerkesztőkben egyaránt. Az utóbbi időben azonban megjelentek az első kezdeményezések: egyes szakkiadók, mint a Wolter Kluwers Hungary, valamint néhány akadémiai és egyetemi folyóirat kiegészítette publikációs szabályzatát, előírva, hogy az MI használatát jelölni kell, és a felelősség teljes egészében a szerzőknél marad.
A nemzetközi és hazai kiadói
gyakorlatokból egyértelműen kirajzolódik egy közös irány: az MI nem tiltott,
de csak szigorú átláthatósági és felelősségi keretek között használható.
A szerzők nem háríthatják át a felelősséget a gépre, és nem takarhatják el az
MI hozzájárulását. A szerkesztőségek pedig nem építhetik kizárólag automatizált
eszközökre a hitelesség védelmét, hanem emberi döntésekre és etikai normákra
kell támaszkodniuk.
A jövő kérdése az, hogy a tudományos közlés milyen mértékben képes integrálni a mesterséges intelligenciát úgy, hogy közben megőrzi a tudomány alapvető értékeit: a hitelességet, az átláthatóságot és az emberi felelősséget. Bár a szabályozás és a gyakorlat folyamatosan változik, egy dolog már most biztos: a generatív MI tartósan a tudományos publikáció részévé vált, és a kutatói közösségnek együtt kell kialakítania a használat etikus kereteit.
A cikk emberi és mesterséges intelligencia együttműködésével jött létre.
A szövegben szereplő illusztrációk a szerző egytemi oktatók, kutatók, könyvtárosok, kiadói szakemberek számára már számos alkalommal megtartott kutatás- és publikációsmódszertani előadásának prezentációjából kerültek átvételre. A bevezetőben említett nagyobb tanulmány ennek az előadásnak háttéranyagát (is) képezi.
Nincsenek megjegyzések:
Megjegyzés küldése