2025. január 31., péntek

A DeepSeek oktatási és tudományos célú felhasználása – lehetőségek és kockázatok

 

A mesterséges intelligencia rohamos fejlődése alapjaiban alakítja át mindennapi életünket. Az MI rendszerek ma már képesek összetett problémák megoldására, nyelvek közötti fordításra és hatalmas adathalmazok elemzésére, így számos iparágban növelik a hatékonyságot és új lehetőségeket teremtenek. Ebben a dinamikusan fejlődő környezetben tűnt fel a kínai DeepSeek, amely nyílt forráskódú MI-megoldásával komoly kihívásként jelent meg az iparági óriások számára. A vállalat 2025. január 20-án bemutatott R1 modellje több szempontból a versenytársakhoz hasonló teljesítményt nyújt, de lényegesen alacsonyabb fejlesztési költséggel és erőforrás-igénnyel. Ez a hatékonyság megrázta a technológiai piacot, különösen az olyan amerikai cégeket, mint az NVIDIA, amelyek részvényei jelentős értékvesztést szenvedtek el a bejelentést követően.  A modell teljesítménye sok szempontból csakugyan lenyűgöző, használatának lehetőségeit és korlátait azonban még csak tanuljuk – az oktatásban is.

A DeepSeek sikere nemcsak a technológiai fejlesztések terén jelent áttörést, hanem gazdasági és geopolitikai szempontból is jelentős hatással bír. Az amerikai MI-ipar dominanciája megkérdőjeleződött, és a piacok reagálása is ezt tükrözi. Az NVIDIA részvényeinek 18%-os zuhanása és más techóriások, mint a Microsoft és az Alphabet részvényeinek csökkenése is jelzi a befektetők aggodalmát az új versenytárs megjelenése miatt.

Ez a helyzet felveti a kérdést: hogyan képes egy nyílt forráskódú MI-megoldás versenyre kelni a milliárdos technológiai vállalatokkal? A válasz részben a DeepSeek innovatív megközelítésében rejlik, amely a mixture of experts technikát alkalmazza, lehetővé téve, hogy csak a szükséges számítási erőforrásokat használja fel egy adott feladathoz, így növelve a hatékonyságot és csökkentve a költségeket.

Az nehezen vitatható, hogy a DeepSeek megjelenése új korszakot nyitott a mesterséges intelligencia világában, ahol a nyílt forráskódú innovációk és a költséghatékonyság újradefiniálhatják az iparági normákat. Az európai vállalkozások esetében sokan látnak benne esélyt arra, hogy betörjenek a generatív MI eddig az amerikai tech óriások uralta, hatalmas fejlesztési költségekkel dolgozó piacára.

Ugyanakkor a modell működési korlátai (mint a 2021 októberében lezárt adatállomány, a böngészési képesség és a multimodalitás hiánya, a hiányzó dokumentumfeltöltési funkció) és zavarai (pl. a hallucinációra való erőteljesebb hajlam) riasztóak tudnak lenni a más alkalmazásoknál a magasabb minőségi teljesítményhez szokott, s azt elváró felhasználók számára. A kezdeti eufória után megjelenő biztonsági-és kockázatelemzések is óvatosságra intenek, elsősorban az adatvédelem és adatbiztonság hiányára hívják fel a figyelmet, mely nem csak a szigorú Európai Uniós követelményeknek nem felel meg, de a sok szempontból megengedőbb amerikainak sem.

Az elmúlt napokban megszámlálhatatlan újságcikk, igen sok szakmai igényű tanulmány és – január 31.-ig – százötvennél több könyv (!) jelent meg a DeepSeekről. Napi szinten százezrek igyekeznek a gyakorlatban is kipróbálni, tapasztalatokat szerezni a működéséről. Az érdeklődés hatalmas, és érthető is, hiszen az elérés ingyenes, a modell bevezetése pedig óriási nemzetközi publicitást kapott. Az elérhető források és a néhány napos gyakorlati használat alapján - gyorsmérleget vonva - elsősorban arra kerestük a választ, hogy a DeepSeek mennyire lehet hasznos segítőtárs az egyetemi hallgatók és oktatók, a tudományos kutatók számára – valós alternatívát jelent-e a létező megoldásokhoz képest.

A valóság: adatbázisa nem frissül folyamatosan, információi nem naprakészek

A DeepSeek története és filozófiája

A DeepSeek nem egyszokványos mesterséges intelligencia startupként jelent meg a piacon, hanem egy átgondolt stratégiával és pénzügyi háttérrel rendelkező, célzott innovációként. 2023 májusában alapította Liang Wenfeng, egy MI-ra szakosodott kvantitatív kereskedési szakember, akinek célja egy radikálisan eltérő megközelítés volt az MI-fejlesztés terén. Ahelyett, hogy a nagy technológiai óriások által alkalmazott zárt és tőkeigényes modellben gondolkodott volna, egy nyílt, elérhető és költséghatékony MI-rendszert kívánt létrehozni​.

A DeepSeek finanszírozását teljes egészében a High-Flyer hedge fund biztosította, amely korábban Liang pénzügyi és MI-alapú befektetési tevékenységeihez is forrásokat nyújtott. Ez a pénzügyi háttér lehetővé tette a vállalat számára, hogy rögtön nagy volumenű infrastruktúrával és kutatás-fejlesztéssel induljon anélkül, hogy a kezdeti időszakban rövid távú nyereségességre kellett volna törekednie. A vállalat központja Csengtuban, Kína egyik feltörekvő technológiai városában található – ez a döntés eltért az iparági trendektől, hiszen a legtöbb kínai MI-vállalat Peking vagy Sanghaj központjában működik​.

A DeepSeek alapításának célja az volt, hogy megtörje a hagyományos MI-modell monopolhelyzetét. A nyugati technológiai óriások, mint az OpenAI és a Google, hatalmas erőforrásokat fordítottak MI-rendszereik fejlesztésére, és ezeket prémium szolgáltatásként kínálták, ami a kisebb cégek és független fejlesztők számára nehezen elérhetővé tette a technológiát.

Liang Wenfeng és csapata ezt a helyzetet kívánta átalakítani. A DeepSeek víziója három fő pilléren alapult. Az első a költséghatékonyság volt: olyan MI-rendszerek fejlesztése, amelyek olcsóbban működnek, kevesebb erőforrást igényelnek, de versenyképes teljesítményt nyújtanak. A második a nyílt hozzáférhetőség: a DeepSeek modelljeit nem rejtették el egy zárt rendszer mögé, hanem nyílt forráskódúként tették elérhetővé, hogy bárki hozzáférhessen és fejleszthesse azokat. A harmadik a demokratizálás: az MI lehetőségeit nem csupán a nagyvállalatoknak akarták biztosítani, hanem kutatóknak, startupoknak és egyéni fejlesztőknek is​.

A DeepSeek első komoly piaci hatása 2025 januárjában következett be, amikor hivatalosan bemutatták az R1 modellt. Ez az MI nem csupán egy újabb generatív nyelvi modell volt, hanem egy forradalmian új architektúrát alkalmazott, amely lehetővé tette az alacsonyabb működési költségeket, miközben versenyképes teljesítményt nyújtott. A DeepSeek-R1 elsőként bizonyította, hogy egy nyílt forráskódú MI is képes felvenni a versenyt a legnagyobb zárt rendszerekkel, ráadásul úgy, hogy jóval kevesebb számítási kapacitást igényel.

A DeepSeek egyik legfontosabb döntése az volt, hogy a modellt teljes mértékben nyílt forráskódúként bocsátotta közre. Ez a lépés teljesen eltért az iparági trendektől, ahol az MI modellek általában szigorúan ellenőrzött, zárt környezetben működnek. A nyílt forráskód előnyei nyilvánvalóak voltak. A fejlesztői közösség közvetlenül hozzájárulhatott a rendszer fejlődéséhez, ami gyorsabb innovációt tett lehetővé. A startupok és kisebb vállalkozások könnyebben integrálhatták saját rendszereikbe a DeepSeek modelljeit anélkül, hogy drága licencdíjakat kellett volna fizetniük. Az átláthatóság növelte a bizalmat, hiszen a DeepSeek algoritmusai nem rejtőztek egy zárt rendszer mögött, bárki megvizsgálhatta azok működését​.

A DeepSeek sikere bebizonyította, hogy a mesterséges intelligencia területén nem csupán a tőke és az infrastruktúra dönti el a versenyt, hanem az innováció és az elérhetőség is kulcsfontosságú tényező lehet. Ahogy az MI-ipar tovább fejlődik, egyre világosabbá válik, hogy a nyílt forráskódú modellek nemcsak életképes alternatívát jelentenek, hanem akár meg is változtathatják az MI-fejlesztés egész iparági struktúráját​.

Vannak azonban más, mérlegelendő szempontok is. Mivel a DeepSeek egy kínai vállalat, jelentős politikai és gazdasági kockázatoknak van kitéve, különösen az Egyesült Államok és Kína közötti technológiai verseny és szankciók miatt. Az amerikai exportkorlátozások megnehezíthetik a fejlett GPU-k, például az NVIDIA H100 beszerzését, ami csökkentheti a modell teljesítményét és fejlesztési lehetőségeit. Emellett az európai és amerikai szabályozások egyre szigorúbbak a kínai technológiai vállalatokkal szemben, ami akadályozhatja a DeepSeek elterjedését.  

Komoly kihívást jelenthet a modell számára az Európai Unió mesterséges intelligencia törvényének és GDPR rendeletének való megfelelőség is: bár a kínai cég kijelentette, hogy „nem tartozik az európai adatvédelmi szabályok hatálya alá” ezt sok Uniós adatvédelmi hatóság másként látja: Olaszországban a Garante – addig is leállítva a DeepSeek működését az országban – máris hivatalos vizsgálatot indított a Hangzhou DeepSeek Artificial Intelligence és a Beijing DeepSeek Artificial Intelligence vállalatok ellen. A hatóság 20 napot adott a cégeknek, hogy részletes információt szolgáltassanak arról, hogy az MI chatbot hogyan felel meg az EU általános adatvédelmi rendeletének (GDPR). Hasonló vizsgálatok indítását tervezi a belga, ír, spanyol és portugál adatvédelmi hatóság is.

DeepSeek technológiai előnyei és architektúrája

A DeepSeek nem csupán üzleti modelljével és nyílt forráskódú stratégiájával hívta fel magára a figyelmet, hanem technológiai fejlesztései révén is jelentős előrelépést tett az MI-iparban. Az innováció nem csupán a költséghatékonyságban rejlik, hanem abban is, hogy a DeepSeek új architektúrájával és algoritmusai révén képes nagy teljesítményű MI-modelleket kisebb erőforrás-igénnyel működtetni.

A DeepSeek egy transformer alapú mesterséges intelligencia modell, amely a legfejlettebb neurális hálózati struktúrákat alkalmazza. Az olyan MI-modellek, mint a GPT-4 vagy a Google Gemini, szintén ezt az architektúrát használják, azonban a DeepSeek azzal tűnik ki, hogy optimalizált önfigyelési (self-attention) mechanizmusokat alkalmaz.

A modell egyik kulcseleme az intelligens adatfeldolgozás, amely nemcsak az emberi nyelv természetes megértését segíti elő, hanem a komplex összefüggések feltárását is. Ennek köszönhetően a DeepSeek képes nagy mennyiségű strukturált és strukturálatlan adatból is hatékonyan tanulni, ami különösen fontos olyan területeken, mint a tudományos kutatás, pénzügyi elemzés vagy automatizált ügyfélszolgálati rendszerek.

A mesterséges intelligencia egyik legnagyobb kihívása a rendkívüli számítási kapacitás-igény, amely drága infrastruktúrát igényel. Az OpenAI és más nagy MI-fejlesztők óriási adatközpontokat működtetnek, amelyek energiaigénye és fenntartási költsége hatalmas.

A DeepSeek ezzel szemben olyan architektúrát fejlesztett ki, amely csökkenti a hardveres erőforrások túlzott igénybevételét. Ennek kulcsa a hatékony GPU-kihasználás: a modell képes a NVIDIA A100 és H100 típusú grafikus processzorokat optimalizáltan használni, így alacsonyabb energiafelhasználás mellett is magas teljesítményt nyújt.

A DeepSeek ezen kívül disztribuált tanulási technikákat alkalmaz, amelyek lehetővé teszik, hogy a modellek több kisebb számítási egységre legyenek osztva. Ez nemcsak az erőforrások optimalizálását segíti elő, hanem azt is, hogy a kisebb cégek és egyéni fejlesztők számára is elérhető legyen a modell futtatása, anélkül, hogy saját MI-szervereket kellene fenntartaniuk.

A DeepSeek egyik legjelentősebb újítása az adaptív dekódoló algoritmus, amely gyorsabb és hatékonyabb válaszgenerálást tesz lehetővé. Míg a hagyományos nyelvi modellek minden egyes beviteli szóra új számításokat végeznek, addig a DeepSeek előre kiszámítja és előrejelzi a legvalószínűbb válaszokat, így csökkentve a várakozási időt és a felesleges számítási kapacitást.

Ez a technológia különösen nagy előnyt jelent olyan alkalmazásoknál, ahol valós idejű interakciókra van szükség, például chatbotok, ügyfélszolgálati rendszerek vagy akár orvosi tanácsadó MI-megoldások esetében.

A gyorsabb dekódolás és prediktív válaszok révén a DeepSeek akár 20-30%-kal gyorsabb válaszidőt produkálhat, mint az OpenAI GPT-alapú modelljei, miközben kevesebb számítási erőforrást használ.

A DeepSeek nemcsak arra képes, hogy egy adott kérdésre választ adjon, hanem arra is, hogy saját válaszait önellenőrizze és módosítsa, ha hibás eredményt produkál. Ez a fajta lánc-alapú gondolkodás (chain-of-thought reasoning) rendkívül fontos fejlesztés, amely lehetővé teszi, hogy a modell komplex problémákat is lépésről lépésre oldjon meg.

Ahogy maga a cég is ezt folyamatosan hangsúlyozza, ez a technológia elsősorban a matematika, tudományos kutatás és programozás területén hozhat jelentős előrelépést. Például egy bonyolult matematikai egyenlet megoldásakor a DeepSeek nem csupán egy végső eredményt ad ki, hanem képes a saját számítási lépéseit is értékelni, és ha szükséges, korrigálni. Ez a fajta önreflexió a DeepSeek egyik legfontosabb versenyelőnye más MI-modellekkel szemben, hiszen nem csupán információt generál, hanem a gondolkodási folyamat során tanul és javítja saját válaszait.

Míg a hagyományos MI-modellek rendkívüli infrastruktúrát igényelnek, a DeepSeek egy új paradigmát teremtett, ahol az intelligens adathasználat és az optimalizált algoritmusok révén egy bárki által használható és testreszabható MI-platform született meg. Ez nemcsak technológiai, hanem üzleti és társadalmi szempontból is új korszakot nyit az MI fejlesztésben. A DeepSeek feltörekvő kihívóként jelent meg a mesterséges intelligencia piacán, ahol az OpenAI ChatGPT és a Google Gemini uralkodó szereplőknek számítanak. Bár ezek a modellek rendkívüli teljesítményt nyújtanak a nyelvi feldolgozás és multimodalitás terén, a DeepSeek azzal tűnik ki, hogy olcsóbban, gyorsabban és testreszabhatóbb formában kínál alternatívát. Ugyanakkor bizonyos területeken, például a nyelvi sokoldalúságban és a multimodális képességekben még nem érte el a piacvezető modellek szintjét.

A DeepSeek egyik legnagyobb vonzereje az, hogy olcsóbban üzemeltethető, mint a versenytársak. Míg az OpenAI és a Google modelljei komoly számítási kapacitást igényelnek, a DeepSeek olyan GPU-optimalizációs stratégiákat alkalmaz, amelyek csökkentik az üzemeltetési költségeket. Ennek eredményeként akár 30%-kal olcsóbban kínál MI-szolgáltatásokat, ami különösen vonzó a startupok és kisvállalkozások számára. Ez az üzleti modell a nyílt forráskóddal kombinálva lehetőséget ad arra, hogy az MI-hozzáférés demokratizálódjon, vagyis ne csak a nagyvállalatok kiváltsága legyen.

Ez lehetőséget ad a fejlesztőknek arra, hogy testreszabják és továbbfejlesszék a modellt, míg az OpenAI és a Google rendszerei teljesen zártak, azaz azokat csak előfizetés vagy licenc alapján lehet használni. A nyílt forráskód különösen azok számára előnyös, akik saját céljaikra kívánják optimalizálni az MI-t, például kutatók, független fejlesztők vagy olyan vállalatok, amelyek egyedi alkalmazásokat akarnak építeni az MI köré. Ugyanakkor a nyílt rendszer biztonsági és üzleti kockázatokkal is jár: a versenytársak könnyedén átvehetik és saját modelljeikbe integrálhatják a DeepSeek újításait, miközben az OpenAI és a Google zárt rendszereinek fejlesztéseit nem lehet ilyen egyszerűen replikálni. Ez hosszú távon gyengítheti a DeepSeek versenyelőnyét, különösen, ha nem tud egy fenntartható üzleti modellt kialakítani, amely bevételt generál a nyílt forráskód ellenére.

A valóság: nem érhető el keresési funkció (bár ikon van), mert ilyen nincs

DeepSeek korlátai és veszélyei

Miközben a DeepSeek egy innovatív és rendkívül ígéretes mesterséges intelligencia modell, nem mentes a korlátoktól és kihívásoktól. Bár gyorsabb válaszadási időt, alacsonyabb működési költségeket és nyílt forráskódú rugalmasságot kínál, még mindig vannak olyan technológiai és üzleti területek, ahol a versenytársak, például az OpenAI ChatGPT és a Google Gemini, előrébb járnak. Ahhoz, hogy hosszú távon is meghatározó szereplő maradjon, ezeket a kihívásokat kezelnie kell.

A valóság: nem tud feltöltött csatolmányokat fogadni, csak a munkaablakba lehet bemásolni kisebb terjedelmű szövegeket

A jelenlegi MI-fejlesztések egyértelműen a multimodalitás irányába haladnak. A Google Gemini és az OpenAI legújabb modelljei már képesek képeket, videókat és hangokat értelmezni, míg a DeepSeek egyelőre kizárólag szövegfeldolgozásra épít. Ez komoly korlátokat jelent olyan területeken, ahol a vizuális adatok értelmezése elengedhetetlen, például az orvosi képalkotásban, a biztonsági rendszerekben vagy az automatizált tartalomfeldolgozásban. Mivel az MI fejlesztés egyik legfontosabb trendje a multimodális adatfeldolgozás integrálása, a DeepSeek számára létfontosságú lesz, hogy ebbe az irányba bővítse képességeit, különben könnyen lemaradhat a piacvezető modellek mögött. Efelé a Janus-Pro modellje révén tett is már jelentős lépéseket, az alapváltozatba azonban a lehetőség még nem épült be.

A DeepSeek a vélemények szerint az angol és a kínai nyelv terén kiemelkedően jól teljesít, de más nyelveken egyértelműen hátrányban van a nagy nemzetközi modellekhez képest. Míg az OpenAI és a Google rendszerei több mint száz nyelvet támogatnak, a DeepSeek esetében ez harminc körül van, és a nem angol és kínai nyelveken adott válaszok sokkal pontatlanabbak, kevésbé gördülékenyek és gyakran értelmezési hibákat tartalmaznak. Ez különösen problémás lehet olyan globális vállalkozások számára, amelyek többnyelvű ügyfélszolgálatot vagy tartalomgenerálást szeretnének kiépíteni. A modell erőssége tehát elsősorban az angol és kínai nyelvű piacokra koncentrálódik, míg a szélesebb körű nemzetközi használat továbbra is akadályokba ütközik. Nagyobb terjedelmű, a munkaablakba bemásolt anyagokat nem fordít le szó szerint, hanem összegzést készít róluk a választott idegen nyelven.  

Saját bevallása szerint adatbázisa 2021 szeptembere után nem frissült

A DeepSeek egyik jelentős technológiai hátránya, hogy nem rendelkezik valós idejű böngészési funkcióval, ami azt jelenti, hogy kizárólag az előre betanított adatokra támaszkodik. Ugyan a munkaablakban van webes keresési funkció, hibaüzenet jelzi, hogy a keresés „technikai okoknál fogva” és „átmenetileg” nem működik, a keresési utasításokra pedig egyértelmű elutasító választ ad. Az adatbázisa saját bevallása szerint a 2021 szeptemberéig terjedő tudásanyagot tartalmazza.  Ez korlátozza az MI pontosságát és természetesen ellehetleníti naprakészségét olyan témákban, amelyek folyamatosan változnak, például a pénzügyi piacok, a tudományos kutatások vagy a politikai események területén. A felhasználók gyakran olyan kérdéseket tesznek fel, amelyek aktuális információkat igényelnek, és egy olyan rendszer, amely nem tud közvetlenül friss adatokat lekérni az internetről, elavult vagy pontatlan válaszokat adhat. Ad is...

Azon az oldalon van a munkaablak, ahova át akar irányítani

Az OpenAI és a Google modelljei már integrálták a böngészési funkciókat, ami lehetővé teszi számukra, hogy valós időben frissítsék a válaszaikat, így a DeepSeek számára ez egy komoly versenyhátrány, ahogy az is, hogy hajlamos az általánosító, ködösítő, tények közlését lehetőség szerint kerülő szöveggenerálásra, konkrétumokra vonatkozó kérdések esetében pedig az egészen durva, „valószínűség alapú” hallucinációra. A hiányzó tényeket az adott kérdés kontextusa szerint legvalószínűbb információval pótolja, s mindezt nagy-nagy magabiztossággal teszi – ez lényegében minden a modell által generált szöveg esetében komoly bizonytalansági tényezőt jelent.

A DeepSeek jelenleg nem rendelkezik kifejezetten dokumentumkezelési funkciókkal, így a felhasználók nem tudnak közvetlenül fájlokat, például PDF-eket vagy Excel-dokumentumokat feltölteni az elemzéshez. A rendszer elsősorban szöveges interakciókra van optimalizálva, ahol a felhasználók közvetlenül írják be kérdéseiket vagy utasításaikat. Azonban a DeepSeek API használatával fejlesztők integrálhatják a modellt saját alkalmazásaikba, lehetővé téve a dokumentumok szöveges tartalmának feldolgozását és elemzését. Ez azt jelenti, hogy bár közvetlen fájlfeltöltés nem lehetséges, a szöveges adatok elemzése és feldolgozása támogatott a megfelelő integrációk révén.

A mesterséges intelligencia gyors fejlődésével párhuzamosan egyre nagyobb figyelmet kapnak az etikai kérdések és az MI társadalmi hatásai. A DeepSeek nyílt forráskódú jellege miatt különösen sebezhető az olyan visszaélésekkel szemben, mint a hamis információk és propaganda terjedése, mivel bárki szabadon módosíthatja és újrahasznosíthatja a modellt. Az OpenAI és a Google zárt rendszerei több ellenőrzési mechanizmussal rendelkeznek a félrevezető vagy veszélyes tartalmak szűrésére, míg a DeepSeek esetében ez kevésbé szabályozható.

A DeepSeek az egyetemek világában: lehetőségek helyett korlátok?

A DeepSeek ingyenes elérhetősége miatt első pillantásra vonzónak tűnhet egyetemi hallgatók, oktatók és tudományos kutatók számára, azonban a gyakorlatban komoly akadályokba ütközik az akadémiai felhasználás során. Bár a modell gyors válaszadási idővel és nyílt forráskódú rugalmassággal rendelkezik, számos olyan alapvető funkció hiányzik belőle, amelyek elengedhetetlenek lennének egy hatékony tudományos munkához.

A legnagyobb problémát az jelenti, hogy a DeepSeek adatállománya 2021 októberében lezárult, és azóta nem frissül. Mivel a rendszer nem rendelkezik böngészési funkcióval, nem képes hozzáférni semmilyen új tudományos publikációhoz, adatbázishoz vagy aktuális kutatási eredményhez. Egy tudományos munkát végző kutató számára ez komoly korlátot jelent, hiszen az MI csak a már beépített adatokból dolgozik, így a tudományos világ legfrissebb fejleményei számára egyszerűen láthatatlanok maradnak.

Ismét csak: nincs feltöltési lehetőség, pdf-et nem tud kezelni

További komoly hiányosság, hogy a DeepSeek nem képes feltöltött szövegekkel dolgozni, ami azt jelenti, hogy a felhasználók nem tudnak hosszabb tanulmányokat, kutatási anyagokat vagy akár saját adatbázisokat elemeztetni vele. Az OpenAI és más fejlett MI-megoldások már rendelkeznek fájlfeldolgozási lehetőségekkel, lehetővé téve, hogy a kutatók meglévő tanulmányokat vagy nagyobb szövegkorpuszokat vizsgáltassanak meg az MI-val. A DeepSeek esetében azonban minden szöveget manuálisan kell bevinni, ami jelentősen csökkenti a hatékonyságot, különösen, ha hosszabb tudományos dokumentumokkal dolgozna a felhasználó.

A nyelvi teljesítmény is problémás. Bár a DeepSeek angol és kínai nyelven kifejezetten erős, más nyelveken jelentős pontatlanságok és félreértések fordulhatnak elő. A kutatók számára ez kifejezetten hátrányos lehet, hiszen a tudományos világban az angolon kívül sok más nyelv is használatban van, és az olyan rendszerek, mint a Google Gemini vagy az OpenAI ChatGPT, már fejlettebb többnyelvű támogatást kínálnak. Mindazonáltal a magyar nyelvű kommunikációban jó nyelviséggel, változatosan fogalmaz, durva hibákkal nem találkoztam.

Mindezeken túl az is fontos szempont, hogy az egyetemek és kutatóintézetek számára a biztonság és adatvédelem kulcsfontosságú tényező. Az európai adatvédelmi szabályozások egyre szigorúbbak a kínai MI-rendszerekkel szemben, és a DeepSeek már várhatóan az EU egyre több tagállamaiban kerül majd vizsgálat alá, és - ha adatvédelmi politikáján nem változtat - jó eséllyel tiltásokkal kell majd szembenéznie. Ez megnehezítheti a hivatalos egyetemi vagy kutatási projektekben való alkalmazását, különösen olyan intézmények esetében, amelyeknek szigorúan kell kezelniük a személyes adatokat és kutatási eredményeket.

Összességében a DeepSeek – mai állapotában - nem jelent valódi alternatívát sem a tanulás, sem az oktatás, sem a tudományos kutatás számára, mivel hiányoznak belőle az alapvető akadémiai funkciók. Bár bizonyos feladatokra, például esszéírásra vagy rövidebb szöveges elemzésekre használható, komoly kutatási munkákhoz nem alkalmas, és a tudományos közösség számára jelenlegi formájában nem jelent áttörést. Kipróbálása kellő óvatossággal igen, szakmai célú használata azonban egyelőre csak nagy-nagy óvatossággal, a fenti korlátokra figyelemmel ajánlható.

A cikk emberi és mesterséges intelligencia együttműködésével jött létre. 

2025. január 13., hétfő

Mesterséges intelligencia a tudományos publikációkban: a szabályozás kérdései a nagy nemzetközi kiadók gyakorlatában

Az MI használatának szabályozása a tudományos publikációkban kulcsfontosságú a hitelesség, átláthatóság és etikai normák fenntartása érdekében. Az MI eszközök, például a generatív modellek és nyelvi támogatók, lehetőséget kínálnak a szövegek szerkesztésének, ötletgenerálásának és fordításának megkönnyítésére. Ugyanakkor az eszközök használata jelentős etikai, adatvédelmi és tudományos kihívásokat is felvet, amelyek megfelelő szabályozás nélkül veszélyeztethetik a tudományos közlések hitelességét és integritását. Összefoglalónk három vezető kiadó – az Elsevier, a Sage és a Taylor & Francis – gyakorlatát elemzi, összehasonlítva azok megközelítését hét fő területen (általános irányelvek, szerzőknek szóló szabályozások, szerkesztők és bírálók szerepe, titoktartás és adatvédelem, képalkotás és grafikai anyagok, etikai és kutatásmódszertani követelmények, az MI szabálytalan használatából eredő szankciók). A Sage szabályozása több dokumentumból áll össze: a szerzői útmutatóból, a szerzők asszisztiv és generatív MI használati útmutatójából és az MI a bírálathoz történő felhasználásra vonatkozó útmutatójából.  A Taylor & Francis használati szabályzata egységes, Elsevier egy általános tájékoztatót adott ki az MI által támogatott írás általános kérdései és a folyóiratokban való megjelenések esetére. A külföldi publikálás során ezek az előírások a magyar tudományos kutatók számára már most követelményként jelennek meg, de a hazai szabályozás kialakításához is jelentős segítséget nyújthatnak, ezzel is támogatva a magyar kutatók sikerét a globális tudományos közösségben. 


1. Általános irányelvek: Az MI szerepe a tudományos publikációkban

A mesterséges intelligencia használata az elmúlt évek egyik legfontosabb technológiai újítása, különösen a tudományos kutatás és publikáció területén. Az MI-eszközök, mint például a ChatGPT, a DALL-E, vagy más generatív modellek, jelentős lehetőségeket kínálnak a kutatók számára. Segíthetik a szövegek szerkesztését, támogatják az ötletgenerálást, és nyelvi akadályok leküzdését is lehetővé teszik, különösen nem anyanyelvi kutatók számára. Azonban ezek az eszközök nemcsak előnyöket, hanem számos kockázatot is hordoznak. A generatív MI által készített tartalmak sokszor tartalmazhatnak hibákat, torzításokat, vagy akár kitalált információkat, amelyeket az etikai szabályok alapján kezelni kell.

Az Elsevier, a Sage és a Taylor & Francis szabályozási rendszere az MI-eszközök lehetőségeit és kockázatait figyelembe véve alakult ki. Mindhárom kiadó elismeri, hogy az MI jelentős mértékben megkönnyítheti a tudományos közlemények előállítását, ugyanakkor szigorúan meghatározott irányelveket vezetett be az MI-eszközök használatának módjára és mértékére.

Az Elsevier irányelveinek középpontjában a transzparencia és a humán ellenőrzés áll. A kiadó szerint az MI-eszközök használatát csak olyan módon szabad végezni, amely biztosítja a kutatási folyamat átláthatóságát és a tudományos közösségbe vetett bizalom megőrzését. Az Elsevier megköveteli, hogy minden szerző nyilvánosságra hozza, ha az MI bármilyen szerepet játszott a kézirat elkészítésében, függetlenül attól, hogy annak hatása mennyire volt jelentős.

Az Elsevier szabályozása szerint az MI-eszközök alkalmazása kizárólag nyelvi és stilisztikai javításra korlátozódhat. Ez magában foglalja a helyesírási hibák javítását, a mondatszerkezet egyszerűsítését és a szöveg olvashatóságának növelését. A szerzők azonban kötelesek gondoskodni arról, hogy az MI által generált tartalmak pontosak, torzításmentesek és tudományos szempontból helytállóak legyenek. Ez a humán ellenőrzés nélkülözhetetlen feltétele.

Egy másik lényeges elem az MI szerzőként való feltüntetésének tilalma. Az Elsevier egyértelműen kimondja, hogy az MI-eszközök nem tüntethetők fel szerzőként, mivel nem felelhetnek meg az emberi szerzőkkel szemben támasztott etikai és jogi követelményeknek. A szerzői felelősség, például a kutatási eredmények hitelességének és integritásának biztosítása, kizárólag emberi kutatókra hárulhat.

Az Elsevier előírja továbbá, hogy minden MI-eszköz használatát dokumentálni kell a kéziratokban. A dokumentáció magában foglalja az alkalmazott eszköz nevét, típusát, és azt, hogy az milyen szerepet játszott a szöveg elkészítésében. A bejelentés helye a kézirat módszertani szakasza vagy az elismerések része. Ez a követelmény nemcsak az átláthatóságot, hanem az etikai normák betartását is biztosítja.

A Sage szabályozása rugalmasabb, mint az Elsevier megközelítése, mivel lehetőséget ad az MI-eszközök szélesebb körű alkalmazására, miközben egyértelmű különbséget tesz az asszisztív és generatív MI között. Az asszisztív eszközök, mint például a helyesírás-ellenőrzők és a stilisztikai javítók, nem igényelnek külön bejelentést. Ezek az eszközök a szerzők által már megírt szövegek javítására és finomítására szolgálnak, és nem érintik a kutatási eredmények alapvető integritását.

A generatív MI-eszközök, mint például a ChatGPT vagy a DALL-E, már szigorúbb szabályozás alá esnek. A Sage megköveteli, hogy a szerzők egyértelműen dokumentálják ezen eszközök használatát, beleértve az alkalmazott eszköz nevét és azt, hogy az milyen szerepet játszott a tartalom előállításában. A kiadó szerint a generatív MI-eszközök használata potenciális torzításokat és hibákat eredményezhet, ezért a szerzőknek gondoskodniuk kell a generált tartalmak helyességéről és etikai megfelelőségéről.

Egy másik lényeges szempont a Sage szabályozásában az, hogy a generatív MI által készített tartalmak esetében különös figyelmet kell fordítani a hivatkozások hitelességére. Az ilyen eszközök gyakran hoznak létre kitalált vagy pontatlan hivatkozásokat, amelyek alááshatják a kutatás hitelességét. A Sage előírja, hogy a szerzők kötelesek alaposan ellenőrizni minden generált hivatkozást, és szükség esetén korrigálni azokat.

A Taylor & Francis politikája az MI-eszközök alkalmazásának etikus és biztonságos kereteire összpontosít. A kiadó elismeri az MI-eszközök előnyeit, különösen az ötletgenerálás és a nyelvi fejlesztés területén, ugyanakkor szigorúan szabályozza azokat a területeket, ahol az MI használata veszélyeztetheti a tudományos publikációk hitelességét vagy integritását.

A Taylor & Francis szerint az MI nem helyettesítheti a kutatók által végzett alapvető munkát, például az eredmények ellenőrzését, a kutatási adatok elemzését és a publikáció etikai normáinak betartását. Az MI használatát kizárólag nyelvi és stilisztikai javításokra korlátozzák, és megkövetelik, hogy minden alkalmazást nyilvánosságra hozzanak a kéziratban. Ez a dokumentáció magában foglalja az eszköz típusát, nevét és célját.

A kiadó külön hangsúlyozza, hogy az MI-eszközöket nem szabad olyan tartalmak generálására használni, amelyek a kutatási eredmények alapvető részét képezik. Ez magában foglalja az absztraktok, a kutatási adatok vagy az ábrák előállítását, mivel ezek torzíthatják a tudományos közlemények hitelességét.

A Taylor & Francis politikája tehát szigorúan keretek közé szorítja az MI-eszközök alkalmazását, ugyanakkor biztosítja, hogy azok használata megfeleljen az etikai és tudományos normáknak. A kiadó szabályozása elősegíti a technológia biztonságos és felelősségteljes használatát a tudományos publikációkban.

2. Szerzőknek szóló szabályozások: Az MI szerepe a kutatási tartalmak előállításában

Mindhárom kiadó hangsúlyozza, hogy az MI-eszközök használata csak akkor elfogadható, ha azt átláthatóan és humán ellenőrzéssel végzik. Az Elsevier és a Taylor & Francis konzervatívabb megközelítése szigorúan korlátozza az MI alkalmazását, különösen a kutatási tartalmak generálásának területén. Ezzel szemben a Sage rugalmasabb szabályozást kínál, amely lehetővé teszi az MI szélesebb körű alkalmazását, feltéve, hogy a szerzők biztosítják a tartalmak hitelességét és megfelelőségét.

Az Elsevier szabályozása szerint a szerzők az MI-eszközöket kizárólag a szöveg nyelvi és stilisztikai javítására használhatják. Az MI alkalmazása nem terjedhet ki olyan tartalmak előállítására, amelyek a kutatási eredmények alapvető részét képezik, például a kutatási adatok elemzésére vagy szintetikus adatok generálására, kivéve, ha ezt a kutatás módszertanának részeként egyértelműen dokumentálják. Az Elsevier szerint a szerzők kötelesek biztosítani, hogy az MI által létrehozott tartalmak megfeleljenek a tudományos közösség etikai és minőségi normáinak.

A kiadó szigorúan tiltja, hogy az MI-eszközöket szerzőként tüntessék fel. Az Elsevier szerint a szerzői jogok és etikai normák olyan felelősségeket foglalnak magukban – például a kutatási eredmények pontosságának biztosítása és az esetleges hibák kijavítása –, amelyeket csak emberek vállalhatnak. Az MI nem képes eleget tenni ezeknek az elvárásoknak, ezért nem lehet része a szerzői csoportnak.

Az MI-eszközök használatát minden esetben nyilvánosságra kell hozni. A szerzőknek egyértelműen dokumentálniuk kell, hogy mely eszközt használták, milyen célból, és az eszköz használata hogyan befolyásolta a kézirat elkészítését. Ez a dokumentáció általában a kézirat módszertani részében vagy az elismerések szakaszában jelenik meg. Az Elsevier megköveteli, hogy a szerzők teljes felelősséget vállaljanak a generált tartalmak helyességéért és pontosságáért, beleértve az MI által készített hivatkozások és adatpontok ellenőrzését is.

A Sage szabályozása jelentős rugalmasságot biztosít a szerzők számára, miközben egyértelmű különbséget tesz az asszisztív és generatív MI-eszközök között. Az asszisztív eszközök, például a nyelvi helyesírás-ellenőrzők és stilisztikai javítók, külön bejelentés nélkül használhatók. Ezek az eszközök a szerzők által létrehozott tartalom finomhangolására szolgálnak, és nem érintik a kutatási eredmények alapvető természetét.

A generatív MI-eszközök – például a ChatGPT, amelyek új szövegeket vagy hivatkozásokat hoznak létre – szigorúbb szabályozás alá esnek. A Sage előírja, hogy a szerzők egyértelműen dokumentálják az ilyen eszközök használatát, beleértve az eszköz nevét és azt, hogy milyen szerepet játszott a kézirat elkészítésében. Az MI-eszközök alkalmazása során a szerzőknek különös figyelmet kell fordítaniuk a generált tartalmak hitelességére és pontosságára. Ez magában foglalja a hivatkozások ellenőrzését, mivel a generatív MI gyakran hoz létre kitalált vagy pontatlan hivatkozásokat.

A Sage szabályozása hangsúlyozza, hogy az MI használata nem jelenthet mentséget az etikai normák be nem tartására. A szerzők kötelesek biztosítani, hogy minden generált tartalom megfeleljen a tudományos közösség által támasztott minőségi és etikai követelményeknek. Az MI által generált tartalmakért való felelősség kizárólag a szerzőket terheli, akiknek biztosítaniuk kell az eredetiséget, az etikusságot és a kutatási eredmények transzparenciáját.

A Taylor & Francis szabályozása szigorúan meghatározza az MI-eszközök alkalmazásának kereteit. A kiadó szerint az MI kizárólag nyelvi és stilisztikai javításokra használható, és tilos olyan tartalmak generálására alkalmazni, amelyek a kutatási eredmények alapvető részét képezik. Ez magában foglalja a kutatási adatok, absztraktok és szintetikus adatok létrehozását, mivel ezek az MI által generált tartalmak torzíthatják a tudományos közlések hitelességét.

A Taylor & Francis szerint a szerzőknek minden esetben dokumentálniuk kell az MI-eszközök használatát, beleértve az alkalmazott eszköz típusát és azt, hogy az milyen szerepet játszott a kézirat elkészítésében. A kiadó hangsúlyozza, hogy az MI nem helyettesítheti az emberi kutatók alapvető felelősségét, például a kutatási eredmények ellenőrzését, a hivatkozások hitelességének biztosítását és a publikáció etikai normáinak betartását.

A Taylor & Francis kifejezetten tiltja az MI-eszközök szerzőként való feltüntetését. A kiadó szerint a szerzői felelősség – amely magában foglalja az eredetiség és az etikai megfelelőség biztosítását – kizárólag emberekre hárulhat. Az MI nem képes megfelelni ezeknek az elvárásoknak, és így nem lehet része a szerzői csoportnak.

3. Szerkesztők és bírálók szerepe: Az MI hatása a bírálati és szerkesztési folyamatokra

A szerkesztők és bírálók kulcsszerepet játszanak a tudományos publikációk minőségének biztosításában. Az MI-eszközök megjelenése új lehetőségeket teremtett a bírálati és szerkesztési folyamat gyorsítására és egyszerűsítésére, ugyanakkor jelentős etikai és adatvédelmi kihívásokat is felvet. Az Elsevier, a Sage és a Taylor & Francis szabályozásai különösen szigorúak ezen a területen, mivel a bírálati folyamat titkossága és az objektív értékelés alapvető feltétele a tudományos közlés hitelességének.

Az Elsevier szabályozása szerint a bírálók és szerkesztők kötelesek biztosítani a bírálati folyamat teljes titkosságát. Ez azt jelenti, hogy a kéziratok vagy azok bármely része nem tölthető fel generatív MI-eszközökbe, mivel ez veszélyeztetheti a szerzői jogokat, az adatvédelmet, és sértheti a kéziratban szereplő információk bizalmasságát. Az Elsevier szerint az MI használata a bírálati folyamat során adatbiztonsági kockázatokat hordoz, különösen akkor, ha a bírálók MI-eszközökbe táplálják a kézirat szövegét, amelyeket a rendszer később tanulási célokra használhat.

A bírálók nemcsak a kéziratok bizalmasságának megőrzéséért felelnek, hanem azért is, hogy az általuk készített bírálati jelentés tartalma pontos, kiegyensúlyozott és objektív legyen. Az Elsevier kifejezetten tiltja, hogy a bírálók generatív MI-eszközöket használjanak bírálati jelentések előállítására, mivel ezek az eszközök nem képesek a kritikai gondolkodásra és az eredmények értelmezésére, amely a bírálati folyamat lényeges eleme. A bírálók felelőssége, hogy a jelentésük az emberi ítélőképesség alapján készüljön, és ne támaszkodjon olyan technológiákra, amelyek gyakran pontatlan vagy elfogult következtetéseket vonhatnak le.

Az Elsevier szabályozása hasonlóképpen korlátozza a szerkesztők MI-használatát. A szerkesztők nem használhatnak generatív MI-eszközöket a kéziratok értékelésére vagy a bírálati döntések meghozatalára. Az Elsevier szerint a szerkesztők felelőssége, hogy a bírálati folyamatot humán alapú értékeléssel irányítsák, amely figyelembe veszi a kutatás kontextusát és komplexitását.

A Sage szabályozása bizonyos mértékű rugalmasságot biztosít a szerkesztők és bírálók számára az MI-eszközök használatában. A bírálók például alkalmazhatják az MI-t bírálati jelentéseik nyelvi és stilisztikai javítására, amennyiben a technológia használata nem sérti a bírálati folyamat titkosságát. A Sage hangsúlyozza, hogy a bírálók felelőssége továbbra is a jelentések tartalmának pontossága és objektivitása. Az MI használata nem mentesíti a bírálókat a tudományos közlés etikai normáinak betartása alól.

A Sage szabályozása szerint a bírálóknak és szerkesztőknek tartózkodniuk kell attól, hogy kéziratokat töltsenek fel generatív MI-eszközökbe, mivel ez adatvédelmi és szerzői jogi problémákat vethet fel. A Sage szerint a szerkesztők nem használhatják az MI-t bírálati döntések előkészítésére vagy kéziratok értékelésére. Az MI alkalmazása csak akkor megengedett, ha az a nyelvi javításra korlátozódik, és nem érinti a kézirat tartalmának értelmezését vagy kritikai értékelését.

A Sage egyedi megközelítése abban rejlik, hogy a szerkesztők és bírálók számára lehetővé teszi az MI használatát a nyelvi fejlesztések céljából, de szigorúan korlátozza a technológia alkalmazását a tartalom alapvető értékelésére. Ez a megközelítés biztosítja, hogy az MI nem helyettesíti az emberi ítélőképességet és felelősséget.

A Taylor & Francis irányelvei szigorúan szabályozzák a szerkesztők és bírálók MI-használatát, különös tekintettel a kéziratok és bírálati anyagok bizalmas kezelésére. A kiadó szerint a kéziratok semmilyen körülmények között nem tölthetők fel generatív MI-eszközökbe, mivel ez veszélyeztetheti a szerzői jogokat és az adatbiztonságot. A Taylor & Francis külön hangsúlyozza, hogy a kéziratok titkosságának megsértése jelentős etikai problémát jelenthet, amely alááshatja a tudományos közlés hitelességét.

A Taylor & Francis szerint a bírálók és szerkesztők nem használhatják az MI-t a bírálati jelentések vagy döntéshozatali dokumentumok elkészítésére. Az MI által generált tartalmak gyakran pontatlanok, elfogultak, vagy nem felelnek meg a tudományos közlés szigorú követelményeinek. A kiadó szerint a bírálók és szerkesztők alapvető felelőssége, hogy minden értékelést emberi ítélőképességgel készítsenek el, amely figyelembe veszi a kutatás kontextusát és a bírálati folyamat etikai követelményeit.

A Taylor & Francis szabályozása a bírálók és szerkesztők emberi felelősségére helyezi a hangsúlyt, miközben kizárja az MI használatát minden olyan területen, amely a kutatási eredmények értelmezéséhez és kritikai értékeléséhez kapcsolódik. Ez biztosítja, hogy a bírálati folyamat hiteles és objektív maradjon.

4. Titoktartás és adatvédelem: Az MI szerepe a bizalmas információk védelmében

Az MI-eszközök használata során az egyik legkritikusabb kérdés a titoktartás és az adatvédelem biztosítása. A generatív MI-technológiák, például a ChatGPT, képesek tanulni a felhasználók által bevitt adatokból, ami különösen problémás lehet a tudományos publikációk esetében, ahol a kéziratok gyakran tartalmaznak bizalmas vagy érzékeny információkat. Az Elsevier, a Sage és a Taylor & Francis szabályozásai különböző módokon közelítik meg ezt a problémát, de mindhárom kiadó kiemelten kezeli az adatvédelem és a titoktartás kérdését.

Az Elsevier az adatvédelem biztosítása érdekében szigorúan tiltja, hogy a kéziratok vagy azok bármely része generatív MI-eszközökbe kerüljön. Ez a tiltás nemcsak a kézirat tartalmára vonatkozik, hanem a bírálati jelentésekre és más bizalmas dokumentumokra is. Az Elsevier szabályozása szerint a generatív MI-eszközök használata a bírálati vagy szerkesztési folyamat során súlyos adatvédelmi kockázatokat hordoz, mivel ezek az eszközök tárolhatják és újra felhasználhatják a bevitt információkat, amelyek később más felhasználók számára is elérhetők lehetnek.

A kiadó saját, házon belüli MI-rendszereket alkalmaz, amelyek megfelelnek a RELX Responsible MI Principles elveinek. Ezek az eszközök szigorú adatbiztonsági és etikai ellenőrzéseken esnek át, hogy biztosítsák a szerzői jogok és a titoktartási kötelezettségek betartását. Az Elsevier belső rendszerei például plágiumellenőrzésre, tartalomellenőrzésre és a megfelelő bírálók kiválasztására szolgálnak. Ezek az eszközök nem tárolnak olyan adatokat, amelyek sérthetik a szerzői jogokat vagy a kutatók bizalmát.

Az Elsevier külön hangsúlyozza, hogy a szerkesztők és bírálók minden, az MI-eszközökkel végzett tevékenységet kötelesek etikusan és adatvédelmi szempontból felelősségteljesen végezni. A kiadó szerint az MI-eszközök nem használhatók olyan módon, amely veszélyeztetheti a kéziratokban szereplő adatok titkosságát.

A Sage szabályozása rugalmasabb az MI-eszközök használatával kapcsolatban, de a titoktartás és adatvédelem terén továbbra is szigorú követelményeket támaszt. A Sage elismeri, hogy az MI-eszközök jelentős előnyöket nyújthatnak, különösen a nyelvi javítások és a bírálati folyamat egyszerűsítése terén, de megtiltja, hogy a kéziratok vagy a bírálati jelentések bármilyen része nyilvános generatív MI-rendszerekbe kerüljön.

A Sage szabályozása szerint a szerzők, szerkesztők és bírálók kötelesek gondoskodni arról, hogy az MI-eszközök használata ne sértse a kéziratok bizalmasságát. Az MI által végzett nyelvi javítások például megengedettek, feltéve, hogy a javítás nem jár együtt az eredeti szöveg bármely részének nyilvános platformokra történő feltöltésével. Ez különösen fontos az olyan generatív MI-eszközök esetében, amelyek adatokat tárolhatnak és tanulási célokra újrahasznosíthatnak.

A Sage szerint a szerkesztők és bírálók kötelesek adattudatos megközelítést alkalmazni, amely biztosítja, hogy minden generatív MI-eszköz használata megfeleljen az adatvédelmi és titoktartási előírásoknak. Ha bármilyen kétség merül fel az MI-eszközök adatbiztonságával kapcsolatban, a Sage előírja, hogy a szerkesztők forduljanak közvetlenül a kiadóhoz további iránymutatásért.

A Taylor & Francis szabályozása az egyik legszigorúbb a titoktartás és adatvédelem terén. A kiadó kifejezetten tiltja, hogy a kéziratok, bírálati jelentések vagy más bizalmas dokumentumok generatív MI-eszközökbe kerüljenek. A Taylor & Francis szerint ez nemcsak az adatbiztonságot veszélyezteti, hanem sértheti a szerzői jogokat és a szerzők bizalmát is.

A kiadó hangsúlyozza, hogy az MI-eszközök használata nem mentesítheti a szerkesztőket és bírálókat az etikai normák betartása alól. Az MI által végzett bármilyen tevékenység, amely a kéziratok tartalmát érinti, jelentős kockázatot hordozhat, különösen akkor, ha a rendszer tárolja vagy megosztja a bevitt információkat. A Taylor & Francis szerint a szerkesztők és bírálók kötelesek az adatvédelem és a titoktartás érdekében kizárólag belső, ellenőrzött rendszereket használni.

A Taylor & Francis szabályozása hangsúlyozza, hogy az emberi felelősség elengedhetetlen a bírálati és szerkesztési folyamat során. Az MI nem helyettesítheti a bírálók és szerkesztők kritikai gondolkodását, és nem alkalmazható olyan módon, amely veszélyeztetheti a kutatási eredmények hitelességét vagy a tudományos közlés integritását.

5. Képalkotás és grafikai anyagok: Az MI szerepe a vizuális tartalom létrehozásában

A tudományos publikációkban a képi tartalmak – például ábrák, grafikus absztraktok és borítók – létrehozása és felhasználása kiemelten fontos szerepet játszik az eredmények bemutatásában és a tudományos közlemények hatékonyságának növelésében. Az MI-eszközök, mint például a DALL-E, képesek vizuális tartalmak generálására, ami gyorsabbá és egyszerűbbé teheti a képi anyagok előállítását. Ugyanakkor ezek az eszközök jelentős kockázatokat is magukban hordoznak, például a képek hitelességének, pontosságának és tudományos megbízhatóságának megőrzése terén.

Az Elsevier politikája szerint az MI-eszközök által generált képi tartalmak használata alapvetően nem megengedett, kivéve, ha ez a kutatási módszertan része. A kiadó szigorúan tiltja az MI által előállított vagy manipulált képek, ábrák és grafikus absztraktok használatát a kéziratokban. Ez a szabályozás kiterjed az olyan tevékenységekre is, mint az ábrák egyes elemeinek eltávolítása, hozzáadása vagy áthelyezése, mivel ezek torzíthatják a kutatási eredmények hitelességét.

Amennyiben az MI-t a kutatás módszertani részeként használják, az Elsevier megköveteli, hogy a szerzők részletes dokumentációval támasszák alá az eszköz alkalmazását. Ez magában foglalja az alkalmazott eszköz nevét, verzióját, a generált képek létrehozásának folyamatát és a módszertani részletek leírását. Az ilyen tartalmakat a kézirat módszertani szakaszában kell megemlíteni, és a szerzőknek biztosítaniuk kell, hogy az MI használata nem sérti a kutatási eredmények integritását.

Az Elsevier külön követelményként előírja, hogy a szerzők biztosítsák az eredeti képi adatok elérhetőségét a szerkesztők számára. Ez magában foglalhatja a nyers képeket, valamint a képfeldolgozás előtti állapotot, hogy a szerkesztőség ellenőrizhesse, hogy a végleges ábrák megfelelnek a tudományos közlés követelményeinek. Az MI által létrehozott borítók vagy grafikus absztraktok használata szintén tiltott, kivéve, ha a szerzők előzetes engedélyt kérnek a kiadótól.

A Sage szabályozása lehetőséget biztosít az MI-eszközök alkalmazására a képi tartalmak létrehozásában, de hangsúlyozza a hitelesség és a transzparencia fontosságát. A Sage nem fogalmaz meg általános tiltást az MI által generált képi tartalmakra, azonban megköveteli, hogy az ilyen tartalmakat nyilvánosan dokumentálják, és a szerzők biztosítsák a generált képek tudományos megbízhatóságát.

A kiadó szerint az MI-eszközök által létrehozott képek vagy ábrák használata elfogadható, feltéve, hogy azok pontosan tükrözik a kutatási eredményeket, és nem torzítják az adatokat. A Sage külön hangsúlyozza, hogy az MI által generált tartalmakat a kutatók kötelesek alaposan ellenőrizni, és biztosítaniuk kell, hogy azok megfeleljenek a tudományos publikációk szigorú követelményeinek. Ez magában foglalja az MI által generált tartalmak eredetiségének biztosítását és a plagizálás elkerülését.

A Sage szerint a szerzőknek minden MI-eszköz használatát részletesen dokumentálniuk kell a kéziratban. Ez magában foglalja az eszköz nevét, a verziószámot, valamint a tartalom előállításának módját és célját. A kiadó megköveteli továbbá, hogy a szerzők egyértelműen megjelöljék, hol alkalmaztak MI-eszközöket a kutatási folyamat során.

A Taylor & Francis irányelvei a képi tartalmak létrehozásával és manipulálásával kapcsolatban az egyik legszigorúbbak. A kiadó egyértelműen kimondja, hogy az MI-eszközök nem használhatók képi tartalmak előállítására vagy módosítására. Ez a szabály minden olyan tevékenységre kiterjed, amely a képek, ábrák, grafikus absztraktok vagy borítók manipulálását célozza, beleértve az elemek eltávolítását, hozzáadását vagy áthelyezését.

A Taylor & Francis szerint az MI által generált képi tartalmak használata veszélyeztetheti a tudományos publikációk hitelességét és integritását. A kiadó szerint a vizuális tartalmak létrehozásának és feldolgozásának teljes mértékben humán ellenőrzés alatt kell állnia, hogy biztosítható legyen azok tudományos megbízhatósága. Az MI-eszközök alkalmazása nem helyettesítheti az emberi kutatók kritikai gondolkodását és a tudományos módszerek szigorú betartását.

A Taylor & Francis szabályozása szerint a képi tartalmakban végzett bármilyen manipuláció, amely MI segítségével történik, a kézirat elutasításához vezethet. A kiadó hangsúlyozza, hogy a képi tartalmak eredetiségének megőrzése alapvető követelmény, amelyet semmilyen technológiai megoldás nem veszélyeztethet.

6. Etikai és kutatásmódszertani követelmények: Az MI szerepe a tudományos integritás fenntartásában

A mesterséges intelligencia technológiák térnyerése a tudományos publikációs folyamatokban nemcsak technikai, hanem jelentős etikai és kutatásmódszertani kérdéseket is felvet. Az MI-eszközök használata során különösen fontos biztosítani, hogy a generált tartalmak megfeleljenek a tudományos közösség által elfogadott normáknak, és ne veszélyeztessék a kutatási eredmények hitelességét vagy a publikációk integritását.

Az Elsevier szerint az MI-eszközök használata csak akkor elfogadható, ha azt átlátható módon végzik, és minden generált tartalmat alapos humán ellenőrzésnek vetnek alá. Az Elsevier szabályozása megköveteli, hogy a szerzők minden MI-használatot részletesen dokumentáljanak a kéziratukban. Ez magában foglalja az eszköz nevét, verzióját, és azt, hogy az MI-t milyen célból és milyen mértékben alkalmazták. Az Elsevier szerint ez az átláthatóság nemcsak az etikai normák betartását segíti elő, hanem a tudományos közösségben a bizalom fenntartását is.

Az Elsevier hangsúlyozza, hogy az MI-eszközök nem helyettesíthetik a szerzők által végzett alapvető kutatómunkát. Az MI által generált tartalmak – legyen szó szövegről, képekről vagy hivatkozásokról – gyakran tartalmazhatnak hibákat, pontatlanságokat vagy torzításokat, amelyek veszélyeztethetik a kutatási eredmények hitelességét. A kiadó szerint az emberi szerzők felelőssége, hogy az MI által létrehozott tartalmak megfeleljenek a tudományos közlés szigorú követelményeinek.

Ezen túlmenően az Elsevier tiltja, hogy az MI-t a kutatási eredmények helyettesítésére vagy alapvető adatok előállítására használják, kivéve, ha ez a kutatás módszertanának része. Az ilyen esetekben a szerzők kötelesek részletesen leírni, hogy az MI-t hogyan használták, és biztosítaniuk kell, hogy az eredmények reprodukálhatók és tudományos szempontból hitelesek legyenek.

A Sage szabályozása rugalmasabb megközelítést alkalmaz az MI-eszközök etikai és módszertani használatával kapcsolatban. A kiadó elismeri, hogy az MI-eszközök alkalmazása szélesebb körű lehetőségeket nyújthat a kutatók számára, különösen az ötletgenerálás, az adatok feldolgozása és a szövegszerkesztés terén. Ugyanakkor a Sage hangsúlyozza, hogy az MI-használat csak akkor elfogadható, ha azt humán felügyelettel végzik, és a szerzők teljes felelősséget vállalnak a generált tartalmakért.

A Sage külön figyelmet fordít az MI-eszközök korlátaira, például a generált tartalmakban előforduló pontatlanságokra, torzításokra és kitalált hivatkozásokra. A kiadó megköveteli, hogy a szerzők gondosan ellenőrizzék az MI által előállított adatokat és információkat, és biztosítsák azok tudományos megbízhatóságát. A Sage szerint az MI-eszközök használata nem mentesíti a szerzőket a kutatási eredmények eredetiségének és hitelességének biztosítására vonatkozó felelősség alól.

A Sage szabályozása hangsúlyozza az MI-eszközök transzparens használatát. A szerzőknek kötelességük részletesen dokumentálni az MI alkalmazását, beleértve az eszköz nevét, célját és azt, hogy hogyan befolyásolta a kutatási folyamatot. A kiadó szerint ez a transzparencia elengedhetetlen a tudományos közösségben való bizalom fenntartásához, és segíti a kutatási eredmények független értékelését.

A Taylor & Francis politikája szigorúan szabályozza az MI-eszközök etikai és módszertani alkalmazását. A kiadó hangsúlyozza, hogy az MI nem használható a kutatási eredmények helyettesítésére vagy a tudományos adatok manipulálására. A Taylor & Francis szerint az MI által generált tartalmak gyakran nem felelnek meg a tudományos közlés szigorú normáinak, és ezért minden ilyen tartalmat alapos emberi ellenőrzésnek kell alávetni.

A Taylor & Francis szabályozása különösen a kutatási eredmények hitelességére és integritására helyezi a hangsúlyt. A kiadó megköveteli, hogy a szerzők minden MI-használatot dokumentáljanak, és biztosítsák, hogy az MI által előállított tartalmak megfeleljenek a tudományos módszertan követelményeinek. Az AI-eszközök nem használhatók olyan célokra, amelyek veszélyeztetik a kutatási eredmények objektivitását vagy torzítják a publikációkat.

A Taylor & Francis szerint az emberi felelősség elengedhetetlen a tudományos közlés folyamatában. A kiadó hangsúlyozza, hogy az AI-eszközök nem helyettesíthetik az emberi szerzők és bírálók kritikai gondolkodását, és nem mentesíthetik őket az etikai normák betartásának felelőssége alól. Az AI csak akkor használható, ha az teljes mértékben megfelel a kutatási folyamat szigorú követelményeinek, és azt átláthatóan dokumentálják.

7. Az MI szabálytalan használatából eredő szankciók

A mesterséges intelligencia szabálytalan használatából eredő szankciók az akadémiai kiadóknál különösen szigorúak, és céljuk a tudományos integritás fenntartása. Az eltérések azonnali és hosszú távú következményeket vonhatnak maguk után, amelyek mind az érintett szerzőkre, mind a publikációs folyamatra hatással vannak.

Az egyik leggyakoribb szankció a kézirat visszautasítása, amely az MI eszközök nem megfelelő vagy nem dokumentált használatából eredhet. Az olyan esetekben, amikor a generatív MI hibás, pontatlan vagy elfogult tartalmat állít elő, és ezeket a szerzők nem korrigálják megfelelően, a kézirat publikációra alkalmatlannak minősülhet. A Taylor & Francis hangsúlyozza, hogy az MI helytelen alkalmazása – például hamis adatok vagy pontatlan hivatkozások generálása – szerkesztői vizsgálatot von maga után, amely a kézirat elutasításával végződhet. Elsevier és SAGE szintén kiemeli, hogy az MI eszközök használatának elmulasztott bejelentése etikailag elfogadhatatlan, és a publikációs folyamat bármely szakaszában a kézirat visszautasításához vezethet.

Ha a szabálytalanságot egy már megjelent publikáció esetében fedezik fel, a szankciók súlyosbodnak. Az ilyen esetekben a kiadók visszavonhatják a publikációt, amely nemcsak az érintett tanulmány tudományos érvényességét semmisíti meg, hanem súlyos reputációs károkat is okoz a szerzőnek. A SAGE irányelvei szerint, ha bebizonyosodik, hogy a generatív MI használata hamisított adatokat vagy más etikátlan gyakorlatot eredményezett, a cikket visszavonják, és a szerzők további munkáit a kiadó nem fogadja el. Ha a kiadó vagy a szerkesztői csapat megállapítja, hogy az MI-t etikátlan módon alkalmazták – például hamisított adatok előállítására vagy nem létező hivatkozások generálására –, akkor közös vizsgálatot indítanak, amely az érintett publikáció visszavonásával végződhet. Ezt a vizsgálatot a COPE (Committee on Publication Ethics) útmutatói és a SAGE belső politikái alapján végzik el​. Az Elsevier és a Taylor & Francis nem említik kifejezetten a visszavonás lehetőségét, azonban mindkét kiadó fenntartja a jogot, hogy a szabályszegő kéziratot bármelyik szakaszban elutasítsa, beleértve azt is, ha már elfogadásra került, de még nem jelent meg nyomtatásban​​. Ez implicit módon szintén tartalmazhatja a visszavonás lehetőségét, de ezt nem emelik ki külön az irányelveikben.

A szerzők számára az MI helytelen használata hosszú távú szakmai következményekkel is járhat. A nem megfelelően dokumentált vagy etikátlan MI használat jelentősen károsíthatja a szerzők szakmai hitelességét a tudományos közösségen belül. Ez különösen akkor igaz, ha a generált tartalmak – például pontatlan hivatkozások vagy elfogult elemzések – széles körben ismertté válnak. A Taylor & Francis, az Elsevier és a SAGE egyaránt hangsúlyozza, hogy az ilyen esetekben a szerzők további publikációit nagyobb szigorral vizsgálják, vagy teljesen elutasíthatják.

A lektorok és szerkesztők számára a szabálytalan MI-használat külön szankciókat von maga után. Taylor & Francis szerint, ha lektorok vagy szerkesztők bizalmas kéziratokat töltenek fel generatív MI eszközökbe, az etikai szabálysértésnek minősül. Ez a szankciók széles skáláját eredményezheti, beleértve a kiadóval való együttműködés azonnali megszüntetését. A SAGE irányelvei kimondják, hogy ha lektorok generatív MI eszközökkel készített recenziókat nyújtanak be, azok nem kerülnek figyelembevételre, és az érintett lektorokat a továbbiakban nem kérik fel bírálatra.

A jogi következmények is jelentősek lehetnek, ha az MI eszközök használata megsérti a szerzői jogi vagy adatvédelmi szabályokat. Az MI eszközök általában harmadik fél platformján működnek, amelyek nem mindig garantálják az adatok megfelelő védelmét. Az olyan gyakorlatok, mint bizalmas adatok vagy kéziratok feltöltése ezekre az eszközökre, súlyos adatvédelmi jogsértésekhez vezethetnek. A Taylor & Francis és a SAGE egyaránt hangsúlyozza, hogy az ilyen esetek jogi lépésekhez vezethetnek, amelyek kártérítési igényeket vagy egyéb jogi szankciókat vonhatnak maguk után.

A cikk emberi és mesterséges intelligencia együttműködésével jött létre. 


Az MI-generált tartalmak jelölésének új európai kerete – elkészült az átláthatósági gyakorlati kódex második tervezete

  Az Európai Bizottság 2026 márciusában közzétette az AI Act 50. cikkének végrehajtását támogató gyakorlati kódex második tervezetét , amel...