Az Európai Bizottság 2026
márciusában közzétette az AI Act 50. cikkének végrehajtását támogató
gyakorlati
kódex második tervezetét, amely az MI által generált és manipulált
tartalmak jelölésére és nyilvános megjelenítésére vonatkozó szabályokat
tartalmazza. A dokumentum egy 2025 novemberében indult, széles körű szakmai
egyeztetési folyamat eredménye: az első tervezetet követően beérkezett
visszajelzések, a tagállamok észrevételei és az Európai Parlament képviselőinek
véleménye alapján dolgozták át. A kódex véglegesítésére várhatóan ez év
júniusának elején kerül sor, a mesterséges intelligencia által létrehozott
tartalmak átláthatóságára vonatkozó szabályok 2026. augusztus 2-án válnak
alkalmazandóvá.
A kódex két szereplői kör
kötelezettségeire összpontosít. A generatív AI-rendszerek szolgáltatóinak
géppel olvasható és detektálható módon kell jelölniük rendszereik kimeneteit,
egy felülvizsgált, kétrétegű megközelítés – biztonságos metaadat-beágyazás és
vízjelezés – alkalmazásával. Az alkalmazók feladata, hogy a deepfake
tartalmakat, illetve a közérdekű tájékoztatás céljával közzétett AI-generált
szövegeket egyértelműen, a felhasználó számára jól érzékelhető módon jelöljék
meg. A második tervezet egyszerűsítette a korábbi kötelezettségeket, nagyobb
rugalmasságot biztosít az aláíróknak, és utat nyit egy egységes európai AI-ikon
bevezetése felé. Elemzésünk a kódexnek ezt a tervezetét veszi alapul, és annak
főbb rendelkezéseit mutatja be.
Kontextus, célrendszer és szabályozási keret
Az Európai
Unió a mesterséges intelligenciára vonatkozó harmonizált szabályok
megállapításáról szóló (EU) 2024/1689 rendeletének (AI Act) elfogadásával
az EU olyan átfogó jogi keretet hozott létre, amely a mesterséges intelligencia
fejlesztésének és alkalmazásának feltételeit egy átfogó, a rendelet
alkalmazását segítő operatív útmutatókkal támogatni kívánt keretrendszerben
határozza meg. Bár a pontosan tervezett hatályba lépési menetrend tarthatósága a
tavaly
novemberben előterjeszetett digitális omnibusz csomagnak köszönhetően
kérdésessé vált, s erre
reagálva március végén az Európai
Parlament a Rendelet egyes részei hatályba léptetésének elhalasztására is javaslatot
is tett, ezek a munkálatoki azonban az AI által generált és manipulált
tartalmak átláthatóságára vonatkozó,
különösen a rendelet 50. cikkében
megfogalmazott követelményeket érintően is folytatódtak. Ezek a rendelkezések
meghatározzák a szabályozási irányt, ugyanakkor a gyakorlati végrehajtás
szempontjából további konkretizálást igényelnek. Ezt a célt szolgálja a Code
of Practice on Transparency of AI-generated Content, amelynek végső,
elfogadott változata az AI Act végrehajtását támogató iránymutatásként jelenik majd
meg.
A dokumentum egy 2025 novemberében elindított, széles körű szakmai egyeztetési folyamat eredménye lesz majd – erről, illetőleg a szabályozási folyamat szeptemberi kezdeteiről korábban már két alkalommal is beszámoltam. A kidolgozásban számos iparági, akadémiai és civil szereplő vett részt, akik írásos hozzájárulásokkal és workshopokon keresztül formálták a tartalmat. A munka két munkacsoport köré szerveződött. Az 1. munkacsoport (WG1) a generatív AI-rendszerek kimenetei jelölésének és detektálásának technikai kérdéseivel foglalkozott [AI Act 50. cikk (2) és (5) bekezdés], a 2. munkacsoport (WG2) pedig a deepfake-ek és az AI-generált szövegek nyilvános közzétételének kötelezettségeivel [50. cikk (4) és (5) bekezdés].
A kódex szerepe az, hogy az AI
Act előírásait működési szintre fordítsa le. Nem jogszabályként határozza meg a
kötelezettségeket, hanem megfelelést támogató keretrendszerként, amely
iránymutatást ad a piaci szereplők számára. A dokumentum hangsúlyozza, hogy a
benne foglalt megoldások alkalmazása nem jelent automatikus megfelelést,
ugyanakkor alkalmas arra, hogy a szereplők igazolják az AI Act elvárásainak
teljesítését.
A kiindulópont az a helyzet,
amelyben a generatív AI rendszerek egyre nagyobb mennyiségben és egyre magasabb
minőségben állítanak elő tartalmakat. Ennek következtében a felhasználók
számára sok esetben nem egyértelmű, hogy egy adott tartalom milyen eredetű. A
dokumentum ezt az állapotot az információs ökoszisztéma működését érintő
kihívásként írja le, amely a tájékozódás, a közbizalom és a nyilvános
diskurzus minőségére is hatással van. Az AI Act-hez kapcsolódó kódex ennek
kezelésére kínál strukturált megközelítést.
A szabályozási logika két szereplői körre épül. A szolgáltatók (providers) feladata az, hogy az általuk fejlesztett AI-rendszerek kimenetei technikai értelemben azonosíthatók és detektálhatók legyenek – ezt az 50. cikk (2) bekezdése írja elő. Az alkalmazók (deployers) a tartalmak nyilvános megjelenítéséért felelnek: biztosítaniuk kell, hogy a felhasználók számára egyértelmű legyen a tartalom mesterséges eredete vagy módosítottsága, összhangban az 50. cikk (4) bekezdésével. A két szint egymásra épül, és együtt biztosítja a transzparencia érvényesülését.
A Kódex szabályozástechnikai módszere három egymásra épülő szinten fejti ki az elvárásokat. Az első szint az elkötelezettség (commitment): az AI Act egy-egy konkrét rendelkezéséhez rendelt, átfogó jogi kötelezettség, amely meghatározza, mit kell összességében elérni – például azt, hogy a generatív AI-rendszerek kimenetei géppel olvashatóan jelöltek legyenek. A második szint az intézkedés (measure): az a konkrét eszköz vagy eljárás, amellyel az elkötelezettség teljesíthető; a Kódex az egyes intézkedések között különbséget tesz kötelező és opcionális elemek között, ez utóbbiakat ajánlott, de nem megkövetelt kiegészítő lépésként jelöli meg. A harmadik szint az alintézkedés (sub-measure): egy-egy intézkedés technikai részletezése, amely a megvalósítás pontos feltételeit és módját írja le. E háromszintű tagolás révén a Kódex egyszerre képes általános jogi kötelezettséget és konkrét technikai útmutatást megfogalmazni – anélkül, hogy a kettőt összemosná –, és lehetővé teszi, hogy az aláírók méretükhöz, kapacitásukhoz igazodva teljesítsék elvárásaikat.
A dokumentum hangsúlyozza, hogy a transzparencia megvalósítása nem egyetlen technikai megoldáson múlik, hanem egy olyan rendszer kialakítását igényli, amely a teljes AI-értékláncot lefedi. A cél annak biztosítása, hogy a tartalmak eredete követhető legyen, és a felhasználók megfelelő információk birtokában értelmezhessék azokat. Ez a megközelítés illeszkedik az AI Act alapvető célkitűzéséhez, amely az átlátható és megbízható mesterséges intelligencia alkalmazását kívánja elősegíteni.
Az AI által generált tartalmak jelölése –
technikai és működési megközelítés
Az AI Act 50. cikkéhez kapcsolódó
Kódex egyik legkidolgozottabb része a generatív rendszerek kimeneteinek
jelölésére vonatkozó követelményrendszer. A kiindulást az 50. cikk (2)
bekezdése jelenti, amely előírja, hogy minden szintetikus audio-, kép-, videó-
vagy szövegtartalom esetén biztosítani kell a géppel olvasható jelölést, és a
tartalom mesterségesen generáltként vagy manipuláltként való felismerhetőségét.
A dokumentum ezt a követelményt nem egyetlen technikai megoldással, hanem
egymásra épülő, úgynevezett többrétegű
jelölési rendszerrel (multi-layered
marking) értelmezi.
A többrétegű megközelítés abból indul ki, hogy a különböző tartalomtípusok – szöveg, kép, videó, hang vagy ezek kombinációi – eltérő technikai sajátosságokkal rendelkeznek, ezért eltérő jelölési megoldásokat igényelnek. A Kódex ennek megfelelően legalább két jelölési réteg együttes alkalmazását írja elő, amelyek egymást erősítve biztosítják a tartalom eredetének visszakövethetőségét.
Az egyik alapvető megoldás a digitálisan aláírt metaadat-alapú jelölés (Sub-measure 1.1.1). Ez a tartalomhoz kapcsolódó strukturált információkat digitális aláírással és időbélyegzővel rögzíti: tartalmazza azt az információt, hogy a tartalom AI által generált vagy manipulált-e, egy interoperábilis azonosítót – amelyre a többi jelölési réteg, például a vízjel kereszthivatkozással hivatkozhat –, valamint a detekciós eszközre mutató adatot. A digitális aláírás biztosítja az információk hitelességét és integritását.
A másik alapvető technika a vízjelezés (watermarking) (Sub-measure 1.1.2). A vízjel a tartalom belső
szerkezetébe épül be: a felhasználó számára nem érzékelhető, ugyanakkor
technikai eszközökkel kimutatható, és ellenáll a tipikus módosításoknak –
például tömörítésnek, átméretezésnek vagy formátumváltásnak. A Kódex előírja,
hogy a vízjel eltávolítása a tartalom minőségét jelentősen rontsa. Emellett
audio-, kép- és videótartalmak esetén egy második,
nyilvánosan olvasható vízjel alkalmazását is megköveteli: ez a kiegészítő
jelölés a detekciós eszközhöz való hozzáférést és a metaadat-azonosítót jelzi,
és megkönnyíti az ellenőrzést abban az esetben is, ha a metaadatokat időközben
eltávolították a tartalomból. A Kódex kitér a multimodális tartalmak jelölésére
is: a különböző médiatípusokhoz tartozó jelöléseknek összehangoltan kell
működniük, a jelölések közötti szinkronizáció
kötelezettségként jelenik meg. A cél az, hogy a tartalom egyes elemeinek
módosítása – például egy képkocka kicserélése multimodális anyagban – ne bontsa
meg a jelölési rendszer integritását.
A Kódex opcionális kiegészítő
intézkedésként – de nem kötelező elemként – lehetővé teszi a fingerprinting és logging megoldások alkalmazását
is (Sub-measure 1.1.3). Ezek a módszerek lehetővé teszik, hogy a rendszer
azonosítsa: egy adott tartalom korábban előállításra került-e egy adott
AI-modell által. A fingerprinting perceptuális azonosítókat, például képi
hash-értékeket alkalmaz, a logging konkrét tartalomrészletek rögzítésére épül.
Az ilyen adatnaplózás kizárólag a kimeneti adatokra terjedhet ki, meg kell
felelnie az EU adatvédelmi jogának, és a bejegyzéseket csak meghatározott
célból és meghatározott ideig lehet megőrizni.
A jelölési rendszer egyik
meghatározó eleme a provenance-információk
kezelése (Measure 1.3), vagyis annak rögzítése, hogy egy tartalom milyen
lépések során jött létre. A Kódex ösztönzi / ajánlja a provenance-információk
bővebb rögzítését (Measure 1.3), de ez nem kötelező elem. Ez különösen fontos a
többlépcsős tartalomelőállításban, ahol a módosítások egymásra épülnek. Emberi
beavatkozás esetén elegendő rögzíteni, hogy közreműködés történt – például
szerkesztés formájában –, egyéb adatok, mint a szervezet neve vagy a szerzői jogi
tájékoztatás, önkéntesen vehetők fel.
A jelölések megőrzése szintén
kiemelt követelmény (Measure 1.2). A Kódex előírja, hogy a meglévő jelöléseket
nem szabad eltávolítani vagy módosítani, kivéve, ha a tartalomtranszformáció a
provenance-lánc frissítését igényli a pontosság megőrzése érdekében, vagy ha az
eltávolítás benchmarking céljából, illetve rögzített szerkesztői ellenőrzés
részeként történik. Az upstream AI-modellek szintjén megvalósított jelölési
mechanizmusok – akár a modellszolgáltató, akár harmadik fél biztosítja őket –
elősegítik a downstream rendszerek megfelelőségét.
A technikai megoldásokkal szemben a dokumentum négy minőségi követelményt támaszt: a jelölési rendszereknek hatékonynak, megbízhatónak, robusztusnak és interoperábilisnak kell lenniük, figyelembe véve a különböző tartalomtípusok sajátosságait, a megvalósítás költségeit és a mindenkori technológiai állást. Ez a négyes követelmény biztosítja, hogy a jelölési megoldások hosszú távon is alkalmazhatók maradjanak, és illeszkedjenek a különböző platformok és rendszerek működéséhez.
Detektálás, megfelelési követelmények és
rendszerbiztonság
A jelölési kötelezettségek mellett a Kódex hangsúlyosan foglalkozik a detektálhatóság kérdésével, vagyis azzal, hogy az AI által generált vagy manipulált tartalmak a gyakorlatban is felismerhetők legyenek. A szabályozási logika szerint a jelölés önmagában nem elegendő: szükséges olyan technikai és szervezeti eszközrendszer kialakítása is, amely lehetővé teszi a jelölések ellenőrzését és értelmezését
A dokumentum előírja, hogy a
szolgáltatóknak ingyenesen hozzáférhető
detekciós megoldásokat kell biztosítaniuk a felhasználók és harmadik felek
számára – API-n vagy nyilvánosan elérhető felületen keresztül. Az eszközöknek
az Európai Unió területén kell üzemelniük, vagy helyben futtathatóknak kell
lenniük, és meg kell felelniük az EU adatvédelmi jogának (Measure 2.1). A
detekciós eredményeknek technikai megvalósíthatóság esetén megbízhatósági
jelzést is célszerű/kell tartalmazniuk. (Measure 2.3).
A Kódex különbséget tesz a
jelölésen alapuló és az attól független, úgynevezett forenzikus detektálás között. Az előbbi a beépített jelölések –
vízjelek vagy metaadatok – felismerésére épül, míg az utóbbi a tartalom
sajátosságainak elemzésével azonosítja az AI-eredetet, és különösen fontos
akkor, ha a jelölések sérültek vagy hiányoznak. A forenzikus detektálás a
Kódexben opcionális kiegészítő intézkedésként jelenik meg, nem kötelező
elemként (Measure 2.2).
A detekciós rendszerekkel szemben
a dokumentum négy minőségi követelményt fogalmaz meg (Commitment 3, Measures
3.1–3.4). A hatékonyság azt jelenti,
hogy a megoldásoknak valóban képesnek kell lenniük jelezni a tartalom
mesterséges eredetét, a felhasználók számára érthető, informált döntéshozatalt
elősegítő módon. A megbízhatóság
mérhető mutatókhoz kötött: alacsony hamis pozitív és hamis negatív arányokat,
valamint a tartalom hosszától és szemantikájától független, következetes
teljesítményt kíván meg. A robusztusság
értelmében a jelölési és detekciós megoldásoknak el kell tudniuk viselni mind a
mindennapi feldolgozási műveleteket – tömörítést, vágást, tükrözést,
képernyőrögzítést, hangmagasság-módosítást, zajeltávolítást –, mind a szándékos,
úgynevezett adversariális beavatkozásokat, például vízjel-eltávolítási
kísérleteket vagy amortizációs támadásokat. Az interoperabilitás követelménye értelmében a különböző szolgáltatók
megoldásainak együtt kell működniük különböző platformokon és disztribúciós
csatornákon keresztül; a Kódex egy közös, szolgáltatófüggetlen detektáló
interfész kialakítását is előirányozza, amelynek megvalósíthatóságát az AI
Board konzultációja alapján a Bizottság értékeli (Measure 3.4).
A megfelelés biztosítása
érdekében a Kódex compliance-keretrendszer
kialakítását is előírja, amelyben a szolgáltatók rögzítik az alkalmazott
megoldásokat, az ellenőrzési folyamatokat és a fejlesztési irányokat (Measure
4.1). A piaci felügyeleti hatóságokkal való együttműködés szintén
kötelezettség: ennek részeként a hatóságoknak hozzáférést kell biztosítani a
jogi szintű detektorokhoz és a hitelesített provenance-adatokhoz (Measure 4.4).
A Kódex az adaptív biztonsági megközelítés alkalmazását is elvárja: a
szolgáltatóknak folyamatosan monitorozniuk és frissíteniük kell a fenyegetési
modelljeiket, nyomon kell követniük a valós körülmények között bekövetkező
minőségromlásokat, és rendszeresen újra kell kalibrálniuk a detekciós küszöbértékeket.
A szolgáltatók felelőssége a felhasználói és alkalmazói támogatásra is
kiterjed: laikusok számára is érthető dokumentációkat, képzési anyagokat és
útmutatókat kell biztosítaniuk. A Kódex külön figyelmet fordít az alacsonyabb
digitális írástudással rendelkező vagy sérülékenyebb csoportokra, például az
oktatási kontextusban tanuló fiatalokra vagy az idősebb felhasználókra (Measure
2.4).
Deepfake-ek és AI-generált tartalmak címkézése
– nyilvános megjelenítés és értelmezés
A Kódex második nagy egysége az alkalmazók (deployers) kötelezettségeit rendezi az AI Act 50. cikk (4)
bekezdése alapján, és azt határozza meg, hogy az AI által generált vagy
manipulált tartalmak miként jelenjenek meg a nyilvánosság előtt. Az AI Act ezen
a ponton kommunikációs és felhasználói szintű elvárásokat fogalmaz meg: a
tartalom mesterséges eredetét egyértelműen, jól érzékelhető módon kell közölni
a felhasználóval.
A szabályozás középpontjában a deepfake tartalmak állnak – azaz olyan audio-vizuális anyagok, amelyek valós személyekhez, eseményekhez, helyekhez, entitásokhoz vagy helyzetekhez hasonló megjelenést keltenek, miközben mesterségesen előállítottak vagy módosítottak [AI Act 3. cikk (60) bekezdés]. Ezek az anyagok alkalmasak a valóságérzékelés torzítására, és jelentős hatással lehetnek a közvéleményre, ezért esetükben kötelező a világos és megkülönböztethető jelölés. A Kódex emellett az alkalmazói körrel szemben az AI-generált, szerkesztői ellenőrzés nélkül közzétett, közérdekű szövegek feltüntetését is előírja.
A nyilvános jelölés egyik
központi eszköze az egységes EU-ikon,
amelynek fő vizuális eleme a nagybetűs „AI” betűpár angol nyelven. A Kódex az
egységes EU-ikont preferált közös megoldásként vezeti be, de alternatív ikon
vagy címkézési megoldás is választható. (Measure 1.1). Az ikon kiegészíthető
egy rövid szöveges magyarázattal (pl. „Generated with AI”, „Made by
AI” vagy „Manipulated with AI”). A Kódex Appendixe két, az Európai
Bizottság által kifejlesztett mintaikont is tartalmaz. A tervezési előírások
rögzítik a minimális kontrasztarányt (4,5:1 a háttérhez viszonyítva), az
olvashatósági és felismerhetőségi követelményeket, valamint az akadálymentes
megjelenítés módját. A második tervezet egy task force keretében vizsgálja egy
interaktív második réteg lehetőségét.
Az ikon elhelyezésére vonatkozó követelmények médiatípusonként differenciáltak (Measure 1.2). Élő, valós idejű videó esetén az ikont folyamatosan vagy legalább bevezető jelzéssel és rendszeres időközönként kell megjeleníteni; rögzített videóknál a feltüntetés módját a tartalom hossza határozza meg, rövid anyagoknál végig, hosszabb videóknál a legelején és rendszeres időközönként. Hanganyagoknál hallható felhívás szükséges a tartalom elején, hosszabb műsoroknál ismételten is. Képek esetén az ikont jól látható helyen, az első megjelenítéstől kezdve, minden egyes alkalommal kötelező feltüntetni. Szöveges tartalmak esetén az ikont az anyag tetején, a cím közelében vagy a kolofónban kell elhelyezni; ha csak a szöveg egy része AI-generált, elegendő azt a részt jelölni.
A Kódex külön rendelkezik azokról
az esetekről, amikor a tartalom nyilvánvalóan művészeti, kreatív, szatirikus, fiktív vagy ahhoz hasonló kontextusban
jelenik meg (Commitment 3). Ilyenkor a jelölési kötelezettség a mű bemutatását
vagy élvezetét nem akadályozó, arányos módon érvényesítendő. A Kódex részletes
szabályokat tartalmaz az ilyen tartalmak közzétételének módjára: a jelölés
elhelyezhető a nyitó jóváírásoknál, a záró stáblistában vagy kontextuális
megjegyzésként; digitálisan elérhető anyagoknál a kép- vagy videókereten kívül,
de ahhoz közvetlenül illeszkedve; fizikai hordozón terjesztett tartalmak esetén
a belépési pontnál, jegyvásárláskor vagy bevezető tájékoztatóban.
A szöveges tartalmak esetében fontos kivétel érvényesül: ha az AI által generált szöveg emberi felülvizsgálaton esett át, és egy azonosítható természetes vagy jogi személy szerkesztői felelősséget vállal érte, a jelölési kötelezettség nem áll fenn. A Kódex (Commitment 4) részletes dokumentációs és eljárásrendi követelményeket tartalmaz ennek igazolásához, összhangban a sajtószabadság és a szerkesztői függetlenség elvével.
Fontos elem a hozzáférhetőség (accessibility) biztosítása: az EU Akadálymentességi Aktusának és a webes akadálymentességi irányelvnek megfelelően az ikonoknak, feliratoknak és nyilatkozatoknak fogyatékossággal élő személyek számára is érzékelhetőknek kell lenniük. Ez magában foglalhat alternatív szöveget képernyőolvasókhoz, auditív jelzéseket látássérülteknek, jelnyelvi vagy feliratos megoldásokat hallássérülteknek, valamint megfelelő kontrasztarányt és olvashatóságot. A Kódex hivatkozik az ETSI EN 301 549 és a WCAG 2.1 Level AA szabványokra.
A szervezeti megfelelés
tekintetében az alkalmazóknak belső folyamatokat kell kialakítaniuk a tartalmak
azonosítására és a megfelelő jelölések alkalmazására (Measure 2.1),
gondoskodniuk kell az érintett munkatársak képzéséről és tudatosságának
fejlesztéséről (Measure 2.2), és olyan visszajelzési mechanizmusokat kell
működtetniük, amelyeken keresztül a felhasználók, a megbízható jelzők (trusted
flaggers) vagy tényellenőrző szervezetek bejelenthessék a hiányos vagy
helytelen jelölést (Measure 2.3).
Végül a Kódex az AI-írástudás (AI literacy) fejlesztésének szempontját is hangsúlyozza. A
technikai és jogi megoldások mellett lényeges, hogy a társadalom tagjai képesek
legyenek értelmezni az AI által generált tartalmakat, felismerni azok eredetét,
és tájékozott döntéseket hozni. Ez a megközelítés a transzparenciát a
felhasználói élmény természetes részévé teszi, és hozzájárul ahhoz, hogy az
AI-generált tartalmak kezelése a mindennapi kommunikáció megszokott elemévé
váljon.
Ki kell emelni, hogy a Kódex formailag önkéntesen választható eszköz: az AI Act 50. cikke az érintetti kör számára nem teszi kötelezővé elfogadását, és a mögöttes jogi kötelezettségek – a jelölés, a detektálhatóság, a deepfake-ek feltüntetése – magából a rendeletből következnek, nem a Kódexből. A Kódex elfogadása segítheti a megfelelés bizonyítását, de önmagában nem teremt automatikus megfelelési vélelmet: az AI Office ugyanis csak ösztönzi a codes of practice kidolgozását a kötelezettségek hatékony végrehajtásának megkönnyítésére [AI Act 50. cikk (7) bek.]. Részletességénél, a felelősségek egyértelmű elosztásánál és az AI Act szabályozási ütemtervéhez való szoros illeszkedésénél fogva a Kódex máris a piac egyik legfontosabb megfelelési referenciapontjává vált. Figyelmen kívül hagyása növelheti a megfelelési bizonytalanságot, de nem egy expressis verbis megadott jogi vélelem elvesztését jelenti.
A Code of Practice nem jogszabály, így nem rendelkezik önálló hatálybalépési dátummal. A Kódex célja, hogy az AI Act 50. cikkében meghatározott kötelezettségek gyakorlati végrehajtását segítse. E kötelezettségek – különösen a jelölésre, detektálhatóságra és a deepfake-ek nyilvános feltüntetésére vonatkozó szabályok – 2026. augusztus 2-től válnak alkalmazandóvá. Az AI Act határidőinek esetleges módosítása ugyan jelenleg a Digital Omnibus tárgyalásainak része, és a magas kockázatú rendszerek megfelelési határidejének 2027–2028-ra történő kitolása reális lehetőség, azonban ez mindaddig nem bír joghatással, amíg a jogalkotók a módosítást véglegesen el nem fogadják és ki nem hirdetik. Az 50. cikk esetében a 2026. augusztus 2-i határidő tehát továbbra is irányadó.

















