2025. szeptember 18., csütörtök

Hitelesség és átláthatóság a mesterséges intelligencia korában: a tudományos kutatás és közlés új kihívásai és szabályozási összefüggései

 


A tudományos kutatás és publikáció világában a generatív mesterséges intelligencia egyszerre jelent áttörést és dilemmát. Az eszközök gyors szövegalkotási, fordítási és adatfeldolgozási képességei támogatják a kutatókat, ugyanakkor felvetik az akadémiai integritás, átláthatóság és felelősség kérdését. Bár számos kiadó és kutatási intézmény próbál irányelveket alkotni, ezek gyakran eltérőek, és nem képesek tartani a lépést a technológia gyors fejlődésével. A kiadói szervezetek tapasztalatai és a legnagyobb kiadók szabályozásai azonban rávilágítanak arra, hogy az MI alkalmazása a publikációs folyamatban csak akkor elfogadható, ha használata dokumentált, átlátható és emberi kontroll mellett zajlik.

Írásunk – a szerző itt, Caimelot blogon és másutt 2024-2025-ben közzé tett korábbi elemezéseihez kapcsolódva, s egy még nem publikált, nagyobb munka legfontosabb megállapításait összegezve - arra vállalkozik, hogy 2025 szeptemberében, az aktuális helyzet áttekintésével képet adjon a tudományos és tudományos kiadói közegben zajló változásokról. Abban bízunk, hogy talán egy olyan szabályozási keret kialakításához is hasznos adalékokkal tud majd szolgálni, mely a globális változások folyamatában, a nemzetközi sztenderdekhez igazodva jobban tudja majd biztosítani a tudományos közlés hitelességét és átláthatóságát – a magyar tudományos kutatások és publikáció világban is.

Az MI eszköztára és felhasználási lehetőségei

A generatív mesterséges intelligencia mára rendkívül széles eszköztárral áll a kutatók rendelkezésére. A legismertebb a ChatGPT, amely az OpenAI fejlesztése, és a kutatói közösségben rövid idő alatt meghatározó szereplővé vált. A modell képes gyors szövegalkotásra, fordításra, összegzésre és stiláris javításra, így egyszerre segíti az ötletgenerálást, a vázlatkészítést és a kéziratok finomítását. A 2025-ben bevezetett GPT-5 új funkciókkal bővítette a lehetőségeket: a mélykutatás és az ügynök mód révén a rendszer nemcsak egyszeri válaszokat ad, hanem összetett feladatokat hajt végre több lépésben, például kereséseket végez különböző adatbázisokban vagy számításokat futtat.

A ChatGPT mellett más modellek is helyet kaptak a tudományos munkában. Az Anthropic Claude és a Google Gemini kiemelkednek a szövegelemzésben és a nyelvi korrekcióban. A Perplexity.ai különösen értékes, mert minden válaszát hivatkozásokkal látja el, így csökkenti a hallucináció kockázatát. A Consensus pedig kifejezetten tudományos kérdésekben nyújt támogatást, és képes a publikációk közötti konszenzust feltárni.

A kutatók számára hasznos specializált eszközök közé tartozik a Scite.ai, amely megmutatja, hogy egy adott tanulmányt más források támogató, cáfoló vagy semleges módon idéznek-e. A Scholarcy hosszú tanulmányokat alakít át rövid összefoglalóvá, megkönnyítve az irodalom áttekintését. Az Elicit.org és a ResearchRabbit a releváns szakirodalom és kutatói hálózatok feltárására alkalmasak. A Semantic Scholar a publikációk közötti mélyebb összefüggéseket tárja fel. Ezek a szolgáltatások jellemzően az angol nyelvű szakirodalmat kezelik megbízhatóan, ami kihívást jelent a magyar kutatók számára, ugyanakkor nemzetközi együttműködésekben pótolhatatlanok.

A szövegalkotó modelleken túl az adatfeldolgozó és vizualizációs eszközök is egyre inkább a tudományos munka részévé válnak. Az Iris.ai nagymennyiségű szakirodalmat képes tematikus hálózatba rendezni, így támogatva az irodalomkutatást. Az AllenNLP mély szövegelemzést kínál, az ImageJ és a CellProfiler pedig a képi és orvosi kutatásokban teszik lehetővé a nagyméretű adatkészletek automatikus feldolgozását. A bibliográfia-kezelés terén a Zotero és az EndNote MI-moduljai képesek automatikusan rendezni a forráslistákat, sőt releváns irodalmat is javasolnak.

Fontos terület a fordítás. A ChatGPT több mint ötven nyelvet kezel magas szinten, így a magyar-angol nyelvpárban is képes használható tudományos fordításokat készíteni. A DeepL a legmagasabb minőséget nyújtja a világnyelvek és a nagy európai nyelvek között, az eTranslation az EU hivatalos nyelveire kínál biztonságos megoldást, míg a Google Translate gyors, általános megértést nyújt. A fordítások minősége ugyanakkor minden modell esetében ellenőrzést igényel, különösen a terminológia pontossága miatt.

Az eszköztár tehát rendkívül sokszínű, s beépül a tudományos kutatás teljes folyamatába - a szövegalkotás mellett segíti a forráskutatást, a nyelvi javítást, az adatfeldolgozást és a vizualizációt is. A kihívás abban rejlik, hogy a kutatók miként tudják a sokféle rendszert összehangoltan, a tudományos integritást szem előtt tartva alkalmazni. Az MI által kínált lehetőségek csak akkor válnak valódi előnnyé, ha a felhasználó tudatosan, kritikus szemlélettel és transzparensen építi be őket a munkájába.

Promptolás, kutatói kompetenciák és alkalmazási példák

A generatív mesterséges intelligencia használatának minősége nagymértékben azon múlik, hogy a kutató hogyan tudja irányítani a modellt. Ezt nevezzük promptolásnak, vagyis olyan utasítás megfogalmazásának, amely meghatározza a válasz tartalmát, szerkezetét és stílusát. A túl általános kérdés felszínes, sokszor irreleváns szöveget eredményez, míg a jól strukturált prompt pontos, releváns és tudományosan használható kimenetet ad.

A hatékony használat érdekében kialakult a prompt engineering gyakorlata, amely különféle módszereket és struktúrákat dolgozott ki. A legismertebbek közé tartozik a STAR-modell (Situation, Task, Appearance, Refine), amely a helyzet leírásától a feladat pontosításán át a formai keretek kijelöléséig, majd a finomításig vezeti végig a felhasználót. A CISCO-modell (Context, Intent, Style, Commands, Outcome) szintén logikus rendszert kínál: először a kontextust kell meghatározni, majd a szándékot, a kívánt stílust és az utasításokat, végül az elvárt eredményt. Ezek a megközelítések segítik a kutatót abban, hogy a modell valóban a saját igényeire szabott szöveget állítson elő.

A promptolás ugyanakkor nem pusztán technikai trükk, hanem a kutatói kompetenciák átalakulásának része. A jövő kutatója számára nem elég a hagyományos irodalomkutatás és szövegírás ismerete; elengedhetetlen a digitális írástudás, vagyis annak képessége, hogy a mesterséges intelligenciát világos, pontos és célszerű utasításokkal irányítsa. A jó prompt megfogalmazása magában foglalja a téma körülhatárolását, a kulcsszavak tudatos használatát, a megfelelő tudományos stílus kijelölését, valamint a terjedelem és a szerkezet meghatározását.

A pontatlan vagy hiányos promptok növelik a hallucináció veszélyét. Például, ha valaki csak annyit kér, hogy „mutasd be az európai MI-szabályozást”, a rendszer könnyen összemossa az EU AI Act rendelkezéseit a tagállami szabályozásokkal. Ha azonban az utasítás így szól: „ismertesd az EU AI Act 2024-es végleges változatának 5–10. cikkét, a hivatalos szöveg alapján, legfeljebb 800 szóban”, akkor a modell lényegesen pontosabb, ellenőrizhetőbb választ ad. Ez mutatja, hogy a kutató felelőssége nemcsak az ellenőrzésben, hanem már a kérdésfeltevésben is megjelenik.

A promptolás szorosan kapcsolódik a kritikai ellenőrzéshez. Az MI által generált szöveg soha nem fogadható el automatikusan. A kutatónak át kell vizsgálnia, össze kell vetnie a szakirodalommal, és saját szakmai érvelésébe illesztenie. Az új technológia tehát nem csökkenti, hanem éppen növeli az emberi ítélőképesség szerepét.

A gyakorlatban a generatív MI számos kutatási lépést támogat. Már a témafelvetésnél segít kulcsszavak és lehetséges kutatási kérdések azonosításában. A hipotézisalkotásban gyors összefoglalókat készít a releváns elméletekről. A vázlatkészítésnél logikus szerkezetet javasol, és rövid átvezető szövegeket alkot. Az irodalomkutatásban olyan eszközökkel működik együtt, mint a Perplexity.ai vagy a Consensus, amelyek hivatkozásokkal biztosítják a források ellenőrizhetőségét. A kéziratírásban stiláris javításokat végez, és segíti a szöveg gördülékenyebb, tudományosabb megfogalmazását.

Az utóbbi időben terjednek a multimodális funkciók is: a ChatGPT-be integrált DALL·E, a Gemini Nano Banana vagy a MidJourney képes konferenciaposzterek és tudományos illusztrációk elkészítésére, a hang- és videóalapú rendszerek pedig feliratozást, fordítást és többnyelvű előadások készítését teszik lehetővé. Bár ezek a lehetőségek gazdagítják a kutatói eszköztárat, nem szabad elfelejteni, hogy az elemzés és a végső felelősség továbbra is a kutatót terheli.

A promptolás így nem mellékes részlet, hanem a tudományos munka jövőjének egyik kulcsa. Aki képes pontos, tudatos és etikus módon utasítani a mesterséges intelligenciát, az jelentős előnyhöz jut, miközben megőrzi a tudományos integritást. A rosszul megfogalmazott vagy ellenőrizetlenül átvett tartalom azonban könnyen torzíthatja a kutatás eredményeit.

Etikai és szabályozási keretek

A generatív mesterséges intelligencia tudományos alkalmazása nemcsak technológiai, hanem etikai és jogi kérdés is. Mivel az eszközök gyorsan és tömegesen terjednek, a nemzetközi és hazai szakmai közösség igyekezett olyan kereteket létrehozni, amelyek biztosítják az átláthatóságot és a tudományos integritást.

Nemzetközi szinten már 2019-ben megjelentek az első iránymutatások. Az OECD AI Principles az emberi jogok tiszteletére, az átláthatóságra és az emberi felügyelet fenntartására helyezte a hangsúlyt. Ugyanebben az évben az Európai Bizottság etikai iránymutatásai a megbízható MI-hez konkrét alapelveket rögzítettek, többek között a méltányosságot, az elszámoltathatóságot és a társadalmi hasznosságot. 2021-ben az UNESCO ajánlása globális szintű konszenzust teremtett: kimondta, hogy az MI csak akkor illeszthető a tudományba, ha tiszteletben tartja az emberi méltóságot, nem növeli az egyenlőtlenségeket, és biztosítja a tudás átlátható terjesztését. Az Európai Bizottság 2025 áprilisában frissített Élő iránymutatások a generatív mesterséges intelligencia felelős kutatási felhasználásáról című dokumentuma (Európai Bizottság 2025) az első olyan átfogó európai iránymutatás, amely kifejezetten a generatív mesterséges intelligencia felelős kutatási használatára ad keretet.

Az EU AI Act, amely 2024-ben nyerte el végleges formáját, szabályozási fordulópontot jelent. A rendelet kockázatalapú megközelítést alkalmaz, és különbséget tesz a tiltott, a nagy kockázatú, a korlátozott és a minimális kockázatú MI-rendszerek között. A kutatásban használt generatív modellek jellemzően a korlátozott kockázati kategóriába tartoznak, így nem tiltottak, de átláthatósági és jelölési kötelezettségek vonatkoznak rájuk. A felhasználóknak világosan jelezniük kell, ha MI segítségével készült tartalmat használnak, és biztosítaniuk kell az emberi ellenőrzést.

A tudományos integritást őrző szervezetek is kidolgozták saját állásfoglalásaikat. A COPE (Committee on Publication Ethics) már 2023-ban leszögezte, hogy az MI nem lehet szerző, és csak emberi kontroll mellett alkalmazható. Az STM Association hasonló szellemben hangsúlyozta a transzparenciát, a felelősséget és az emberi felügyeletet. Az ALLEA (All European Academies) 2023-as Európai Kutatási Integritási Kódexe előírja, hogy minden kutatónak dokumentálnia kell az alkalmazott módszereket, köztük az MI-eszközöket is, hogy biztosítható legyen a reprodukálhatóság.

A magyar szabályozási környezet az utóbbi években kezdett kialakulni. A Magyar Tudományos Akadémia 2024-ben elfogadott Tudományetikai Kódexe előírja, hogy az MI használatát minden esetben fel kell tüntetni, és eltitkolása etikai vétségnek számít. A dokumentum kiemeli, hogy a felelősség mindig a kutatót terheli, aki nem háríthatja át a döntéseket az algoritmusra. Az egyetemek szintjén kezdetben inkább tiltó szabályzatok születtek, ám 2024-től egyre inkább a szabályozott engedélyezés irányába mozdultak el. A felsőoktatási törvény 2024-es módosítása kötelezővé tette, hogy minden intézmény 2025 szeptemberéig alakítson ki átfogó MI-használati irányelveket a tanulmányi és vizsgaszabályzatokban. Ennek eredményei most kezdenek megmutatkozni.

A hazai jó gyakorlatok közé tartozik például a Pécsi Tudományegyetem Gazdálkodástani Doktori Iskolája, amely már 2024-ben részletesen szabályozta az MI alkalmazását. A szabályzat nem tiltja a használatot, de kötelezővé teszi a pontos jelölést, és az alkalmazás célját is dokumentálni kell. Ez illeszkedik a nemzetközi trendhez, amely nem az eszközök elutasítását, hanem a felelős és átlátható beépítését szorgalmazza.

Az etikai és szabályozási keretek lényege, hogy a mesterséges intelligencia segédeszköz maradjon, ne pedig szerző. A transzparens jelölés, az emberi ellenőrzés és a felelősségvállalás olyan alapelvek, amelyek biztosítják, hogy a tudományos kommunikáció hitelessége ne sérüljön, és az új technológiák valóban erősítsék a tudás előállítását.

Kiadói gyakorlatok és a tudományos közlés jövője

A generatív mesterséges intelligencia használatának egyik legkritikusabb terepe a tudományos publikáció. A folyóiratok, kiadók és szerkesztőségek világszerte keresik a módját, hogyan illeszthetik be az új technológiát a közlési folyamatokba úgy, hogy közben ne sérüljön a tudományos integritás.

A nagy nemzetközi kiadók – Elsevier, Springer Nature, Wiley, Taylor & Francismind saját útmutatókat adtak ki. Ezek közös pontja, hogy a mesterséges intelligencia eszközként elfogadható, de sosem vehet át emberi felelősséget. A szerzőknek kötelező jelezniük, ha MI-t használtak szövegírásra, képszerkesztésre vagy fordításra, ugyanakkor a végső felelősség mindig az emberi szerzőt terheli. Az Elsevier például bevezette, hogy a kézirat beküldésekor külön nyilatkozni kell az MI használatáról. A Springer Nature irányelveiben pedig szerepel, hogy az MI által generált ábrák és képek csak akkor közölhetők, ha ezt a szerzők egyértelműen feltüntették.

Ezzel párhuzamosan a detektáló rendszerek fejlesztése is felgyorsult. Számos kiadó kísérletezik MI-detektorokkal, amelyek képesek megállapítani, hogy egy szöveg mesterségesen generált-e. Ezek megbízhatósága azonban korlátozott, gyakoriak a téves pozitív és negatív eredmények. Emiatt a szerkesztőségek egyre inkább arra az álláspontra jutnak, hogy nem az automatizált felismerés, hanem az etikai transzparencia a megoldás: vagyis a szerzők kötelessége jelezni a felhasználást.

A hazai tudományos közegben a kiadói gyakorlat lassabban formálódott. Sok folyóirat szabályzata 2023–2024-ig egyáltalán nem említette az MI-t, ami bizonytalanságot keltett a szerzőkben és a szerkesztőkben egyaránt. Az utóbbi időben azonban megjelentek az első kezdeményezések: egyes szakkiadók, mint a Wolter Kluwers Hungary, valamint néhány akadémiai és egyetemi folyóirat kiegészítette publikációs szabályzatát, előírva, hogy az MI használatát jelölni kell, és a felelősség teljes egészében a szerzőknél marad.

A nemzetközi és hazai kiadói gyakorlatokból egyértelműen kirajzolódik egy közös irány: az MI nem tiltott, de csak szigorú átláthatósági és felelősségi keretek között használható. A szerzők nem háríthatják át a felelősséget a gépre, és nem takarhatják el az MI hozzájárulását. A szerkesztőségek pedig nem építhetik kizárólag automatizált eszközökre a hitelesség védelmét, hanem emberi döntésekre és etikai normákra kell támaszkodniuk.

A jövő kérdése az, hogy a tudományos közlés milyen mértékben képes integrálni a mesterséges intelligenciát úgy, hogy közben megőrzi a tudomány alapvető értékeit: a hitelességet, az átláthatóságot és az emberi felelősséget. Bár a szabályozás és a gyakorlat folyamatosan változik, egy dolog már most biztos: a generatív MI tartósan a tudományos publikáció részévé vált, és a kutatói közösségnek együtt kell kialakítania a használat etikus kereteit.

A cikk emberi és mesterséges intelligencia együttműködésével jött létre.

A szövegben szereplő illusztrációk a szerző egytemi oktatók, kutatók, könyvtárosok, kiadói szakemberek számára már számos alkalommal megtartott kutatás- és publikációsmódszertani előadásának prezentációjából kerültek átvételre. A bevezetőben említett nagyobb tanulmány ennek az előadásnak háttéranyagát (is) képezi.

Nincsenek megjegyzések:

Megjegyzés küldése

Az MI-generált tartalmak jelölésének új európai kerete – elkészült az átláthatósági gyakorlati kódex második tervezete

  Az Európai Bizottság 2026 márciusában közzétette az AI Act 50. cikkének végrehajtását támogató gyakorlati kódex második tervezetét , amel...