Megrendelés

Hohmann Balázs[1]: Átláthatóságot biztosító szabályok és intézkedések az MI tartalommoderálási tevékenysége során - kiemelt figyelemmel a DSA követelményrendszerére* (IAS, 2025/3., 79-96. o.)

https://doi.org/10.69695/ias.2025.3.06

Absztrakt

Az "Átláthatóságot biztosító szabályok és intézkedések az mi tartalommoderálási tevékenysége során - kiemelt figyelemmel a DSA követelményrendszerére" című tanulmány a mesterséges intelligencia (MI) által támogatott tartalommoderációs tevékenység átláthatósági kérdéseit vizsgálja a digitális szolgáltatásokról szóló rendelet (DSA) követelményrendszerének tükrében. Az MI-technológiák egyre szélesebb körű alkalmazása napjainkra kikerülhetetlen része az online platformok moderációs gyakorlatának, amely biztosítja a gyorsabb és hatékonyabb tartalomszűrést, ugyanakkor új jogi és etikai kihívásokat teremt. A DSA megalkotása során a jogalkotó célja a platformok működésének átláthatóbbá tétele, a felhasználói jogok védelme, valamint a moderációs folyamatok indokolhatóságának biztosítása volt, éppen ezért fontos kérdésnek tekinthető, hogy ez miként valósítható meg olyan környezetben, ahol a moderációs folyamatok jelentős részét mesterséges intelligenciával támogatják. A tanulmány rávilágít arra, hogy a jogszabály által előírt kötelezettségek és az algoritmusok működésének átláthatósága különös nehézségeket jelenthetnek az MI-alapú moderáció számára. A tanulmány értékeli a DSA releváns előírásait, a platformok megfelelési stratégiáit, valamint az Európai Bizottság által, a DSA 66. cikke alapján megindított felügyeleti eljárások tapasztalatait, különös tekintettel az MI-technológiák alkalmazására. Az eredmények alapján, bár a DSA előrelépést jelent az átláthatóság terén, az MI-alapú moderáció teljes átláthatóságának biztosítása továbbra is jelentős kihívás marad, amely az ilyen rendszerek alkalmazásának újragondolásához is vezethet.

Kulcsszavak: átláthatóság, tartalommoderáció, mesterséges intelligencia, platformjog, digitális szolgáltatás

Abstract

The study, titled "Transparency Challenges of AI-Assisted Content Moderation Under the Digital Services Act," critically examines the transparency challenges inherent in AI-assisted content moderation within the regulatory framework of the Digital Services Act (DSA). As AI technologies have become integral to content moderation, enhancing efficiency and scalability, they simultaneously introduce complex legal and ethical dilemmas. The DSA aims to strengthen platform transparency, safeguard fundamental rights, and ensure the accountability of moderation processes. A pivotal question thus emerges: how can these regulatory objectives be effectively realized in an ecosystem where AI-driven moderation mechanisms predominate?

This study underscores that the transparency obligations imposed by the DSA, particularly in relation to algorithmic decision-making, present unique compliance challenges for AI-based moderation systems. It conducts a comprehensive analysis of the relevant DSA provisions, the compliance strategies adopted by online platforms, and the enforcement proceedings initiated by the European Commission under Article 66, with a particular emphasis on AI governance.

The findings indicate that while the DSA constitutes a significant advancement in regulatory transparency, ensuring full transparency in AI-assisted moderation remains a formidable challenge. Addressing these persistent gaps may necessitate a critical reassessment of the regulatory and operational frameworks governing AI-driven content moderation.

1. Bevezetés, problémameghatározás

A mesterséges intelligenciára épülő (MI) technológia megoldások meghatározó részeivé váltak a mindennapjainknak, s így alapvető hatást fejtenek ki a közösségi platformok, online terek tartalommoderálási tevékenységére is.[1] A nagy mennyiségű adat feldolgozásán, valós időben történő döntéselőkészítésen és döntéshozatalon alapuló rendszerek, melyek az emberi beavatkozás minimalizálására is szolgálnak, alapvető mozgatórugói lettek minden, a platformjog által szabályozott szolgáltatásnak.[2] A változás hatással van a közösségi érintkezés és kommunikáció módszerére is,[3] olyannyira, hogy a társadalmi interakció átalakulásával az ezen a téren mutatkozó technológiai fejlődés és az abból eredő hatások már egyértelműen nemcsak eszközként jelennek meg, hanem a felhasználói döntéseket, a platform jogi megfelelőségét alapvetően befolyásoló tényezővé váltak, a társadalom szinte minden folyamatát tekintve.[4]

- 79/80 -

A tanulmány ezzel kapcsolatban egy összetett alapvetésből indul ki: a tartalommoderálási tevékenység napjainkra nem megvalósítható automatizált megoldások bevonása nélkül. Egyrészről a vezető közösségi média platformokon keresztül olyan mennyiségű moderálandó tartalom halad át,[5] amelyet emberi erővel, teljes terjedelmében gazdaságtalan lenne megvizsgálni. Másrészről a közösségi média platformok és egyéb kapcsolódó platformszolgáltatások mára olyan jelentős szerepet töltenek be a társadalmi közvélemény formálásában,[6] amely alapján megengedhetetlen az is, hogy platform részéről ne történjen semmilyen érdemi moderációs tevékenység, valamint az sem, hogy ennek során, a gépesítés hiányában, időbeli késedelem, vagy egyedi emberi döntésekből kialakuló eltérő következmények alakuljak ki azonos tartalmakat feltételezve, mert az korlátozza a véleménypluralizmust a demokratikus közvélemény-formálódás folyamatában.[7] Azt is figyelembe kell venni, hogy a platformok üzleti modelljeinek középpontjában az algoritmusokkal támogatott tartalomajánlás- és moderálás áll.[8] Az elmúlt években éppen ezért a platformok működésének egyik legfontosabb vizsgált területe a tartalommoderációs gyakorlatok átláthatósága és jogi megfelelőségének biztosítása lett.[9] A kiskorúak védelme érdekében, a jogsértő deepfake-tartalmak, a gyűlöletbeszéd vagy a terrorizmus elleni fellépés vagy egyéb jogsértő tartalmak tekintetében alkalmazott moderációs megoldások azonban folyamatosan a "határon" táncolnak. Ha nem megfelelő szűrést biztosítanak, jogellenes tartalmak kerülnek nagy tömegek elé, míg a túl szigorú szabályok szerint haladó moderálás könnyen korlátozhatja a véleménynyilvánítás szabadságát, más alapvető jogosultságok mellett.[10] A "túlszűrés" jelensége is megjelenhet, amely a jogszerű, de érzékeny vagy vitatott témákat is kiszűri, korlátozva a vélemények szabad megjelenítését.

- 80/81 -

Az algoritmusok működésével kapcsolatos átláthatóság hiánya kockázatokat jelent, amelyet sokáig nem is sikerült a felszínre hozni szabályozás segítéségével. Az algoritmusok ugyanis sokáig az üzemeltető vállalkozások védett ismereteként, üzleti titkaként kerültek kezelésre,[11] ami megnehezítette a szolgáltatók ellenőrzését és felelősségre vonását. Az algoritmusok működésével kapcsolatos torzítások, például a politikai nézetek, társadalmi csoportok mentén vagy bizonyos felhasználók hátrányos megkülönböztetésével súlyosan sérthetik az emberi jogok érvényesülését.[12]

A jelen tanulmányban közelebbről megvizsgált digitális szolgáltatásokról szóló rendelet (továbbiakban: DSA),[13] különös jelentőséggel bír az MI által támogatott tartalommoderálási rendszerek szempontjából is, mivel explicit előírásokat fogalmaz meg a platformszolgáltatások és ezek körében az algoritmus-vezérelt folyamatok átláthatóságára, az érintettek tájékoztatására és az alapjogok védelmére vonatkozóan. A szabályozás célja a már említett kockázatok minimalizálása, miközben biztosítja a digitális piac zavartalan működését. A rendelet rétegzett, kockázatalapú szabályozási megközelítést alkalmaz, amelynek célja, hogy a kockázattal kapcsolatos átláthatósági kötelezettségek terheljék a szolgáltatókat a szolgáltatáshoz kapcsolódó kockázatkezelési intézkedések mellett. A DSA keretrendszere számos olyan előremutató, kulcsfontosságú elemet tartalmaz, amelyek az átláthatóságot erősítik az MI-tartalommoderálási tevékenységek során, reflektálva a korábbi kritikákra és jogalkalmazási problémákra. Ezek közé tartoznak az átfogó tájékoztatási kötelezettségek, az alkalmazott MI rendszerek és a platform működésére vonatkozó jelentések, az emberi felülvizsgálat lehetősége, a kockázatelemzések és az átláthatósági jelentések közzététele.

Az átláthatósági követelmények vonatkozásában a DSA az online óriásplatformok és a nagyon népszerű keresőprogramokra állapít meg fokozott kötelezettségeket, az átláthatósági szabályoknak való megfelelés kérdése azonban kisebb platformszolgáltatók esetében is felmerül. E szolgáltatók gyakran nem rendelkeznek azokkal az erőforrásokkal, amelyek szükségesek az előírások maradéktalan teljesítéséhez, ami gátolhatja az innovációt és versenyhátrányt okozhat számunkra a nagyobb platformokhoz képest.[14]

- 81/82 -

Azt is célszerű jelen tanulmány szempontjából azonosítani, hogy az átláthatóság nem csupán jogi, hanem társadalmi elvárás is a platformszolgáltatókkal szemben.[15] Az MI rendszerek döntéseinek és működési mechanizmusainak megértése alapvető fontosságú a felhasználók bizalmának elnyerése, valamint az alapjogok érvényesülésének biztosítása érdekében. E keretben a DSA olyan alapelveket és mechanizmusokat fogalmaz meg, amelyek segítik a platformszolgáltatókat abban, hogy működésük a társadalom széles köre számára is átlátható legyen.

A tanulmány célja, hogy átfogó képet nyújtson a DSA átláthatósági követelményeiről, különös tekintettel az MI-alapú tartalommoderálás sajátosságaira. A tanulmány arra a kérdésre keresi a választ, hogy milyen előrelépést jelent a DSA követelményrendszere az MI alapú tartalommoderálás átláthatóságára vonatkozóan? Milyen jogi és technikai kihívásokat támaszt a DSA által előírt követelmények teljesítése? Ezek a kérdések iránymutatást nyújtanak a tanulmány tartalmi kereteinek meghatározásához, valamint hozzájárulnak a szabályozás és az MI alapú technológiák közötti kapcsolat alaposabb megértéséhez. A tanulmány doktrinális kutatási módszert alkalmaz, amely a vonatkozó jogszabályok és szakirodalom összehasonlító és kritikai elemzésén keresztül vizsgálja a fenti kérdéseket.

2. Út a DSA megalkotásáig - A szabályozást életre hívó okok

Jelen tanulmánynak nem célja, hogy részletesen elemezze a DSA megalkotásának folyamatát, azonban a DSA-ban a tartalommoderálás szempontjából fontos átláthatósági szabályok helyes értelmezéséhez és rendszerszemléletű megközelítése érdekében fontos foglalkozni a szabályozás előzményeivel is. Az európai szabályozás középpontjában a megelőző időszakban az elektronikus kereskedelmi irányelv szabályai álltak (2000/31/ EK),[16] amely a DSA megjelenését megelőzően (s azt követően részben hatályon kívül helyezett szabályokkal) szabályozta az információs társadalommal összefüggő szolgáltatások jogi kereteit. A szabályozás az Európai Unió digitális gazdaságának egyik első mérföldköve volt. Az irányelv célja a belső piac működésének elősegítése volt a digitális szolgáltatásokra vonatkozó jogi akadályok csökkentésével.[17] Bár az irányelv alapvetően sikeresnek bizonyult az online gazdaság fejlődésének előmozdításában, számos jelentős hiányosságot hagyott maga után, amelyet a jogalkotó a modern platformjog és annak részeként a DSA megalkotásával igyekezett kiküszöbölni.[18]

- 82/83 -

Az e-kereskedelmi irányelv egyik legjelentősebb szabályozási megoldásának számított az előzetes engedélyezést kizáró elv (4. cikk).[19] Ez az elv meghatározta a közvetítő szolgáltatók működésének kereteit. Az elv jelentősége a szolgáltatók terjeszkedésének elősegítésében, a verseny fellendítésében és az egységes digitális piac megalapozásában állt. Az elv alapján a tagállamok nem tehetik az ilyen szolgáltatások nyújtását előzetes engedélyeztetéshez kötötté.

Az elv alkalmazásának előnyei ellenére komoly joghatósági problémákat eredményezett, amelyek akadályozták a tagállami hatóságok hatékony felügyeleti tevékenységét a közvetítő szolgáltatások felett. Az irányelv e szabálya a "származási ország elvére" épült, amely kimondta, hogy egy adott digitális szolgáltatás felett az az ország gyakorol joghatóságot, ahol a szolgáltató letelepedett.[20] Ez azt jelentette, hogy például egy Írországban bejegyzett, de az EU számos tagállamában működő platform esetében az ír hatóságok voltak illetékesek a szabályozás és ellenőrzés terén. Az eltérő nemzeti szabályozások, valamint a joghatósági különbségek lehetőséget teremtettek a forum shoppingra, amely során a szolgáltatók előnyösebb szabályozási környezetet választottak letelepedési helyül. A probléma még súlyosabban jelentkezett akkor, amikor a szolgáltató nem telepedett le az Európai Unió területén, hanem szolgáltatásait harmadik országból nyújtotta az Európai Unió területén található jogalanyok számára. A szabályozás irányukba - akár tagállami hatóság, akár egyéb jogalany (felhasználó) kezdeményezte - szinte érvényesíthetetlen maradt, mert hiányzott az a mechanizmus, amely megteremtette volna az alapot a szolgáltatók felelősségre vonására, másrészről pedig felelősségre vonás esetén a jogkövetkezmények szinte érvényesíthetetlenek maradtak, mert a szolgáltatókat nem tette érdekeltté a szabályozás a szabályok betartására, komolyabb szankciók hiányában. A szabályozás irányelvi jellegéből adódóan ráadásul nem eredményezett egységes európai szabályozást, tagállami eltérések mutatkoztak, amelyek erősítették a fent már vázolt problémákat.

Az érintett szolgáltatások átláthatóságával kapcsolatos legfontosabb problémák éppen az említett jogalkalmazási problémákon alapultak. Előzetes engedélyezés hiányában a jogalkalmazó szervek nem voltak abban a helyzetben, hogy előre kiszűrjék azokat a problémákat, amelyek a tartalommoderáció területén mutatkoztak, a szolgáltatók pedig ennek hiányában maguk döntöttek arról, hogy mennyire teszik átláthatóvá a szolgáltatásukat. Kötelező szempontrendszer hiányában a szolgáltatók semmilyen módon nem voltak ösztönözve a tartalommoderációs tevékenység láthatóvá tételében, értelmezésében, amelyek javították volna a felhasználók átláthatóság-érzetét és egyúttal áttekinthetővé tették volna a szolgáltatás nyújtásának ezirányú feltételeit is.

A szabályozás másik fókuszponti problémája a közvetítő szolgáltatók fajtái és a felelősségi szabályok jelentették. Egy-egy szolgáltató tekintetében máig irányadó és minden fél számára előnyös szabályokat sikerült megalkotni (így például az egyszerű továbbítást a gyorsítótárolóban történő rögzítést végző szolgáltatóknál). A platform-

- 83/84 -

szolgáltatók és szolgáltatások jelentős része azonban a tárhelyszolgáltatások kategóriájába kerültek. A szolgáltatónak ebben az esetben a jogellenes tartalomért viselt felelősség alóli mentessége megalapozásához elég volt az, hogy

"a szolgáltatónak nincsen tényleges tudomása jogellenes tevékenységről vagy információról, és - ami a kárigényeket illeti - nincsen tudomása olyan tényekről vagy körülményekről, amelyek nyilvánvalóan jogellenes tevékenységre vagy információra utalnának; vagy a szolgáltató, amint ilyenről tudomást szerzett, haladéktalanul intézkedik az információ eltávolításáról vagy az ahhoz való hozzáférés megszüntetéséről."[21]

Egy a szabályoknak megfelelő értesítési és eltávolítási rendszerrel dolgozó szolgáltató ez esetben elkerült minden felelősségét, tekintettel arra, hogy az irányelv egyik kulcsfontosságú szabálya az, hogy a tárhelyszolgáltatóknak nincs általános nyomonkövetési kötelezettsége a felhasználók által elhelyezett tartalmak jogszerűségének ellenőrzésére. Ez a szabály jelentős védelmet nyújtott a szolgáltatók számára, de egyben szabályozási problémát is teremtett, különösen a platformokat üzemeltető szolgáltatók esetében, amelyek tevékenysége jelentősen túlmutatott az egyszerű tárhelyszolgáltatáson.[22] Az Európai Unió Bírósága (EUB) több ítéletében is megerősítette, hogy az e-kereskedelmi irányelv alapján a közvetítő szolgáltatóknak, különösen a tárhelyszolgáltatóknak, nincs általános nyomonkövetési kötelezettségük,[23] ahogy azt láthattuk például a SABAM v. Netlog NV (C-360/10) ügyben.

Az irányelv nem tett különbséget az egyszerű tárhelyszolgáltatók és a modern platformokat üzemeltető szolgáltatók között. Ez utóbbiak, mint például a közösségi médiaplatformok vagy online piacterek, már nem csupán tárhelyet biztosítottak, hanem aktív szerepet játszottak a tartalmak terjesztésében, moderálásában és ajánlásában. Az ilyen platformok működésével kapcsolatban egyértelműen kimutathatóvá vált a tartalommoderáció átláthatóságának hiánya, amely azért alakulhatott ki, mert az e-kereskedelmi irányelv nem tartalmazott részletes előírásokat a digitális platformok tartalommoderációs tevékenységére vonatkozóan. A platformok széles mérlegelési lehetőséget kaptak, hogy saját szabályaik alapján kezeljék a felhasználói tartalmakat. A mérlegelést részben a vonatkozó szakpolitikai fejlemények (pl. gyűlöletbeszéd elleni fellépés, kiskorúak védelme miatt) folyamatosan szigorították, miközben ezek a változtatások gyakran a véleménynyilvánítás szabadságának indokolatlan korlátozásához vezettek. Az irányelv kizárólag a jogszerűtlen tartalmakra összpontosított, és nem foglalkozott a káros, de nem feltétlenül jogellenes tartalmak (például álhírek) kezelésével. Ezzel párhuzamosan csak egy-egy speciális tartalmi szempont (pl. gyűlöletbeszéd,

- 84/85 -

gyermekpornográfia) kapcsán követelt meg az európai szabályozás átláthatósági szempontból is releváns megfelelést a szolgáltatóktól.

Eközben a felhasználók számára nem állt rendelkezésre hatékony jogorvoslati mechanizmus a platformok moderációs és egyéb döntéseivel szemben az értesítési- eltávolítási eljárás jogintézményén kívül.[24] Például, ha egy felhasználói tartalmat eltávolítottak vagy felfüggesztették egy fiók működését, számos esetben tisztázatlan volt, hogy milyen módon érvényesíthetik igényeiket a felhasználók, ezzel tovább rontva a szolgáltatás nyújtásának átláthatóságát. A platformok tartalmi szűrését eközben egyre inkább uralni kezdték a háttérben működő algoritmusok, amelyekkel szemben a szabályozás még nem tudott érdemi választ adni, hiszen az irányelv kiadásának időpontjában az algoritmus alapú tartalomajánlás és a célzott hirdetések még nem voltak széles körben elterjedtek. Az irányelv ennek megfelelően nem tartalmazott előírásokat az algoritmusok működésének átláthatóságára és a felhasználók személyes adataival való visszaélések megelőzésére sem.

Ha mindez nem lett volna elég, az USA - ahol nagy arányban találhatóak a legjelentősebb platform- és keresőszolgáltatást üzemeltető vállalkozások székhelyei - szabályozásával még tovább rontotta a helyzetet. A platformszolgáltatók felelősségét leginkább a szövetségi szinten meghozott, 1996-os Communication Decency Act (CDA) 230. szakasza határozza meg. Ez a rendelkezés szinte teljes immunitást, felelősségmentességet biztosít a platformoknak a felhasználók által feltöltött tartalmakért, még akkor is, ha tudomásuk van a tartalom jogszerűtlenségéről.[25] Ugyanazon szakasz alpontja [c(2)] tartalmazza az úgynevezett "irgalmas szamaritánus" klauzulát, amely felelősségmentességet biztosít a szolgáltatóknak a polgári jogi felelősséggel szemben is, amennyiben jóhiszeműség mutatható ki a platformszolgáltatók tartalommoderálási tevékenysége kapcsán.[26]

A jogszabályi követelménybe foglalt immunitási szabályokat még tovább erősítette az amerikai bírósági gyakorlat: a Zeran v. America Online ügyben (1997) a bíróság kimondta, hogy az online szolgáltatók nem felelősek a harmadik féltől származó tartalmakért, még akkor sem, ha azok károsak vagy jogellenesek. Ez az eset precedenst teremtett, amely szerint az online platformok mentesülhetnek a felelősség alól, még ha értesítették is őket a tartalom jogellenes jellegéről. A Blumenthal v. Drudge ügyben (1998) a bíróság rámutatott, hogy a platformok még akkor is mentesülnek a felelősség alól, ha moderálták az érintett tartalmat, amennyiben nem mutathatók ki a tartalomszolgáltatás további feltételei. A Doe v. America Online ügyben (2001) a Floridai Legfelső Bíróság, valamint a Doe v. MySpace ügyben (2008) a Fifth Circuit (az Egyesült Államok ötödik körzeti fellebbviteli bírósága) megerősítette, hogy a szolgáltató

- 85/86 -

nem felelős a harmadik féltől származó jogellenes tartalmakért, mivel a 230. szakasz védelmet nyújt az ilyen helyzetekben. A bírósági joggyakorlat odáig is eljutott, hogy 2014-ben a Jones v. Dirty World Entertainment Recordings LLC ügyben a bíróság meghatározta, hogy a platform üzemeltetése nem minősül tartalomszerkesztési tevékenységnek, és ezért a 230. szakasz védelmet nyújtott számára.

Az elmúlt években az USA-ban számos reformjavaslat látott napvilágot, amelyek a CDA 230-as szakasz átfogó felülvizsgálatát szorgalmazták,[27] azonban ezek sem tudták általános jelleggel áttörni a felelősségmentességet, csak egy-egy speciális területen.[28] Az amerikai felelősségmentességet megállapító szabályok és joggyakorlat miatt pedig csak az európai szabályozás fektethette le azokat a rendelkezéseket, amelyek az MI által végzett tartalommoderációs tevékenység alapvető követelményeinek tekinthetünk.

Az elektronikus kereskedelmi irányelv kiadása és a digitális szolgáltatásokról szóló rendelet elfogadása közötti időszakban éppen ezért több olyan próbálkozás is történt európai színtéren, amely a platformszolgáltatók működésének szabályozására irányult, különösen az átláthatóság szempontjából. Ezek ugyan csak részeredményeket jelentettek, de a DSA megszületésének előképét jelentették.

E folyamat egyik meghatározó állomása volt a német Netzwerkdurchsetzungsgesetz (NetzDG) elfogadása 2017-ben,[29] amely a nagy platformszolgáltatók számára előírta a rendszeres jelentéstételi kötelezettséget a jogszerűtlen tartalmak kezelésével kapcsolatban (2. cikk), és eljárási szabályokat határoltak le e tartalmakkal kapcsolatos panaszok kezelésére (3. cikk). A NetzDG a DSA-ban megjelenő transzparencia-kötelezettségek egyik mintájául szolgált, különösen a bejelentések, eltávolítási arányok és moderálási döntésekről való jelentéstétel témaköreiben. Franciaországban hasonló céllal született meg a Loi Avia,[30] ami azonban a francia alkotmánybíróság döntése értelmében végül nem lépett hatályba. A javaslat célja a terrorizmushoz, gyűlöletbeszédhez kapcsolódó és erőszakot bemutató tartalmak gyors eltávolítása volt, és kötelező eltávolítási határidőket írt volna elő. A jogszabály az alkalmazás hiányának ellenére is jelentős diskurzust generált a tartalommoderációs kötelezettségek és az átláthatóság kérdéseiről.[31]

Ezekkel párhuzamosan az Európai Bizottság is felismerte a szabályozási szükséget az átláthatósági kérdések tekintetében felmerülő kihívások kapcsán több alkalommal

- 86/87 -

is,[32] sürgette a szolgáltatókat, hogy önkéntes alapon hozzanak létre átláthatóságra épülő moderációs eljárásokat. Ezek gyakorlati hatása azonban - kötelező előírások hiányában - korlátozott maradt.[33]

3. A DSA vonatkozó követelményei

A DSA egyik legfontosabb szabályozási újítása, hogy az e-kereskedelmi irányelv széles felelősmentességi szabályai helyett a felelősségmentességet leszűkítő és a kockázatarányos szabályozás keretei között,[34] átláthatósági mechanizmusokat ír elő a tartalommoderáció minden szakaszára. Ezen irányultság tükröződik a jogszabályalkotói célokat felvázoló és szabályozási megoldásokat körvonalazó preambulumbekezdésekben is, amelyek körvonalazzák a rendelet normatív szabályozását is.

A DSA preambuluma nem pusztán deklarálja a jogalkotói célokat, a szabályozás előzményeit és azokat a megfontolásokat, amelyek a szabályozási logika megalkotásához vezettek: a benne foglalt szabályozási elvek kötöttséget is hordoznak a rendelet értelmezése során és ez igaz a transzparenciára vonatkozó követelmények tekintetében is. Az európai uniós szabályozás fejlődéstörténete alapján is megállapítható, hogy az egyes preambulumbekezdések gyakorlati jelentőséggel bírnak a jogalkalmazói értelmezés során és az Európai Unió Bíróságának joggyakorlatában. A transzparencia e jogalkotói környezetben nem csupán általános elvárásként, hanem a szolgáltatók működési kötelezettségeit meghatározó, horizontális szabályozási elemként jelenik meg. Olyan jelentős szabályozási elemként azonosítható, amely áthatja az egész szabályozás követelményrendszerét, mert a DSA majd minden részletszabálya tartalmaz olyan elemeket, amelyek a platformszolgáltatások átláthatóságával összefüggésben vannak. Ezt arra tekintettel lehet kijelenti, hogy a DSA szabályozását az európai jogalkotó a rendelet preambuluma alapján olyan kiszámítható, biztonságos és megbízható online környezet megteremtése érdekében alkotta meg,[35] amely képes kezelni a jogellenes tartalmak gyors terjedéséből eredő társadalmi kockázatokat, ugyanakkor biztosítja a szolgáltatások igénybe vevőinek alapvető jogait is. Ez immanensen magába foglalja azt

- 87/88 -

is, hogy a szabályozott szolgáltatásokat olyan keretek közé szorítja,[36] amelyek átláthatóbbá teszik a szolgáltatás igénybevételi feltételeit, a működés egyes kritikus kérdéseit. A rendelet hatálya az összes közvetítő szolgáltatásra, így a tárhelyszolgáltatókra, azon belül az online platformokra és online piacterekre is kiterjed, de kiemelten kezeli az online óriásplatformokat (VLOP) és a nagyon népszerű keresőprogramokat (VLOSE), amelyeknek különösen nagy hatásuk van az alapvető jogokra. A szabályozás ugyan fenntartja az e-kereskedelmi irányelvben szereplő, általános monitorozási vagy aktív tényfeltárási kötelezettségek hiányát megállapító rendelkezést (8. cikk), de ezt áttöri a rétegzett szabályozáson keresztül a legnagyobb és legjelentősebb hatású szolgáltatókra vonatkozó kötelezettségek körében.

A platformszolgáltatások vonatkozásában éppen e rétegzett szabályozásra tekintettel szét kell választani azokat a rendszerint ex ante jellegű átláthatósági kötelezettségeket, amelyek minden közvetítő szolgáltatás irányába alkalmazandóak lesznek és azokat, amelyek csak az online óriásplatformokra és a nagyon népszerű keresőprogramokra lesznek irányadóak. A transzparenciához kapcsolódó követelmények több, egymással párhuzamosan érvényesülő szabályozási csomópont köré épülnek, amelyek az átláthatóság követelményrendszerének mintegy pilléreiként épülnek bele a szabályozásba.

3.1. Szerződési feltételek átláthatósági vonatkozásai

Egyik legfontosabb új szabályozási elem az átláthatóság szempontjából a platformszolgáltatók felhasználási feltételeire vonatkozik, amely kifejezetten szigorú közzétételt és transzparenciát ír elő, speciális tájékoztatási kötelezettséggel egybekötve.[37] E feltételek azért bírnak jelentőséggel, mert a felhasználók legfontosabb döntése, amikor a szolgáltatás igénybevételéről döntenek, s ebben a pozícióban különös jelentősége van átláthatósági szempontból is, hogy milyen információk állnak rendelkezésükre és mennyire közérthető az erre vonatkozó tájékoztatás.[38] A következetes tájékoztatással biztosítható ugyanis, hogy a felhasználók előre tudják, milyen tartalmak megosztása engedélyezett vagy tiltott, és a moderáció kiszámíthatóbb, jogszerűbb keretek között történjen. A jogalkotó szándéka továbbá a túlzottan homályos vagy önkényes platformszabályok visszaszorítása,[39] mivel ezek korábban a szólásszabadság indokolatlan korlátozásához

- 88/89 -

vezettek (pl. "árnyéktiltásokhoz", amikor a felhasználó tudta nélkül korlátozták a tartalma láthatóságát).[40] Már a preambulumbekezdések [(45)-(48)] lefektetik annak kereteit, hogy a szolgáltatóknak - különösen, ha automatizált eszközöket, algoritmusokat vagy mesterséges intelligencia alapú megoldásokat is alkalmaznak - a felhasználási feltételekben egyértelműen fel kell tüntetniük, hogy milyen szempontok alapján korlátozhatják a szolgáltatás igénybevételét vagy távolíthatnak el tartalmat, s ez egyszerre bír jelentőséggel a tartalommoderáció tekintetében és minden olyan irányelv, eljárás, technikai megoldás kapcsán is, amelyet ennek során alkalmaznak. E körben kell értékelniük és végül a szerződési feltételek között szerepeltetniük a szolgáltatóknak, ha MI alapú technológiai megoldásokat alkalmaznak a moderációs tevékenység során, nyilvánvalóan azért, mert a felhasználók így érzékelhetik e technológiai megoldások használatából eredő nagyobb vagy eltérő jellegű kockázatokat, amikor döntést hoznak a szolgáltatás igénybevételéről. Valójában ugyanez lesz az alapja az átláthatósági jelentési kötelezettségek (24. cikk) és hirdetési- és ajánlórendszerek átláthatósági követelményeinek (26-27. cikk) is.

Az MI felhasználása tekintetében ezen a ponton kapcsolódik össze a később kiadásra került AI Act és a DSA követelményrendszere, mert a szerződési feltételekben mind a tartalommoderáció módszertanát, mind pedig az alkalmazásra kerülő MI rendszerek úgynevezett műszaki leírását szerepeltetni kell, annak érdekében, hogy a szolgáltató egyszerre tudja teljesíteni a két szabályozás követelményeit. A szerződési követelmények tisztázása e tekintetben mutat kógens tartalmi elemeket is,[41] hiszen a felhasználási feltételeik tartalmára, alkalmazására és érvényesítésére vonatkozóan úgy kell megállapítani a szabályokat, hogy azok a transzparenciát, a felhasználóvédelmet és a tisztességtelen és önkényes megoldások elkerülését szolgálják. Azt már ehelyütt érdemes közreadni, hogy az átláthatóság növelése nem mindig a legegyszerűbben teljesíthető ezen keretek között sem - a szerződési feltételek egyértelmű, érthető és előzetes közlése mindenképpen átláthatóságot növelő hatással bír, azonban az MI rendszerek összetett működése nehezítheti az alkalmazott technikák közérthető és mindenre kiterjedő leírását. E követelmény teljesítése még tovább nehezedhet, ha figyelembe vesszük azt is, hogy a sérülékeny csoportok tekintetében, illetve kiskorúakat célzó vagy nagyrészt általuk használt szolgáltatások esetén a feltételek magyarázatát könnyen érthetővé kell tenni a számukra.[42] A jogi nyelvezetű feltételeket egyszerre részletesen és mégis közérthetően kell megfogalmazni, úgy, hogy minden felhasználó - akár kiskorú vagy jogban járatlan - megértse. Különösen olyan technológiai megoldásoknál, mint a mesterséges intelligencia alkalmazások, egyáltalán nem egyszerűen megvalósítható a rendkívüli összetett döntési mechanizmus közérthető és egyszerű megfogalmazása.

- 89/90 -

Nem egyértelmű például, mit tekint majd a Bizottság "világos és egyértelmű" nyelvnek,[43] és ez szolgáltatótípusonként is eltérhet, ami az első DSA 66. cikke szerinti eljárások esetében jogalkalmazási nehézségeket fog okozni.

3.2. Bejelentési és cselekvési mechanizmusok átláthatósági vonatkozásai

A DSA 16. cikkében szabályozza a bejelentési és intézkedési mechanizmusokat. Ezek arra szolgálnak, hogy minden hosting jellegű szolgáltató (tárhelyszolgáltató vagy online platform) hatékony és felhasználóbarát eljárást biztosítson a jogellenes tartalmak bejelentésére és eltávolítására. Ez a rendelkezés egységes keretet teremt az EU-ban a felhasználói bejelentések (notice) kezelésére és az arra adott platformintézkedésekre (action).[44] A jogalkotó szándéka a jogellenes tartalmak gyorsabb eltávolítása a bejelentések nyomán, miközben biztosítja, hogy a bejelentők visszajelzést kapjanak a panaszukról. A cikk összhangban van a korábbi "értesítés és eltávolítás" elvével, de azt explicitté és kötelező erejűvé teszi minden szolgáltató számára. Bejelentés esetén a szolgáltató dokumentáltan "tudomást szerez" a jogsértésről, így köteles lépni (ellenkező esetben elveszítheti a felelősség alóli mentességét).[45] Az átláthatóságot növeli a cikk előírásai szerint, hogy a tárhelyszolgáltatóknak (beleértve az online platformokat) könnyen hozzáférhető és felhasználóbarát elektronikus bejelentőfelületet kell működtetniük és ezen keresztül minden bejelentést időben, kellő gondossággal, az önkényesség kizárásával és tárgyilagos módon kell feldolgozniuk. Ha automatizált eszközt használ a bejelentések feldolgozására vagy a döntésre, azt jeleznie kell a bejelentőnek küldött értesítésben - itt ismét visszatérhet az MI szerepe az átláthatóságot biztosító folyamatokban.

A bejelentési mechanizmusokon és belső panaszkezelő rendszeren keresztüli bejelentések tekintetében a DSA 17. cikkében rendezi a döntések indoklási kötelezettségére vonatkozó szabályait. E cikk a platformok döntéseinek átláthatóságát és elszámoltathatóságát hivatott erősíteni azzal, hogy minden lényeges moderációs intézkedésről indokolást kell adniuk az érintett felhasználónak. Ez a rendelkezés a korábbi gyakorlat hiányosságaira reagál: sokszor előfordult, hogy a felhasználók nem kaptak semmilyen magyarázatot tartalmaik törlése vagy fiókjaik letiltása esetén, ami kiszolgáltatottságot és a szólásszabadság csorbulását eredményezte.[46] A részletes indokolás követelménye arra ösztönzi a platformokat, hogy körültekintően és ne önkényesen járjanak el, hiszen

- 90/91 -

döntéseiket meg kell tudniuk indokolni. A cikk előírja: a felhasználók számára lehetővé kell tenni, hogy megértsék a döntés okát és éljenek a jogorvoslati lehetőségeikkel, ha vitatják azt. A 17. cikk (4) bekezdése előírja, hogy az indokolásnak amennyire csak lehet, pontosnak és specifikusnak kell lennie, ugyanakkor közérthető nyelvezetűnek, ami újbóli nehézség elé állíthatja a platformszolgáltatókat, de ennek segítségével biztosítható érdemben a felhasználók átláthatóságérzetének valódi kialakulása. Felmerülhet azonban a fent már említett, az MI jellegzetességéből adódó probléma: nehezen megoldható lehet az MI-vel támogatott moderációs tevékenység utólagos indoklása és annak közérthető közreadása.[47]

A jogorvoslatok körét kívánja bővíteni a jogalkotó a DSA 20. cikkével, amely a belső panaszkezelési rendszerrel, és 21. cikkel, amely a bíróságon kívüli vitarendezés részleteivel foglalkozik. Átláthatósági szempontból ezeknek azért van szerepe, mert egyrészt fel tudják oldani a korábbiakban joghatósági problémák miatt jelentkező igényérvényesítési zavarokat, másrészt közelebb tudják hozni a tartalommoderációs döntéseket és az arra vonatkozó jogorvoslatokat az érintettekhez. Azzal, hogy a belső panaszkezelés következetesen dokumentálásra kerül, nyomonkövethető a folyamat, a felhasználó számára egyértelmű visszajelzések küldése önmagában átláthatóság növelő hatású, az ezt kiegészítő, független fórum által lefolytatott eljárás pedig tovább növelheti a felhasználók bizalmát és szubjektív átláthatóságérzetét a tartalommoderációval, a döntésekkel és önmagában a jogorvoslati folyamattal szemben is.

3.3. Átláthatósági jelentések

Átláthatósági szempontból látszólag az egyik legnagyobb jelentőségű követelményt hozza létre a DSA 15. cikke, meghatározva az átláthatósági jelentéstételi kötelezettséget, amely elsődlegesen a tartalommoderációs tevékenységről történő beszámolást helyette javaslat: beszámoló elkészítését jelenti. A cikk azt a célt szolgálja, hogy a szolgáltatók rendszeres időközönként számot adjanak tartalommoderációs tevékenységükről, ezzel növelve a platformok elszámoltathatóságát és a közbizalmat.[48] Az éves (vagy a nagyobb szolgáltatóknál gyakoribb) átláthatósági jelentések révén a felhasználók, a hatóságok és a civil szféra átfogó képet kaphat arról, hogyan alkalmazzák a platformok a moderációs szabályokat, milyen mértékben távolítanak el illegális vagy szabálysértő tartalmakat, és hogyan működnek az új panaszeljárások. E jelentésben kell bemutatnia a szolgáltatónak azt, hogy az általa alkalmazott - MI alapú és más jellegű - technológiai megoldások mennyire hatékonyak, milyen problémákkal szembesült a vizsgált időszakban. A jogalkotó szándéka az, hogy az eddig önkéntes alapon közzétett átláthatósági jelentéseket kötelezővé és összehasonlíthatóvá tegye, egységes kategóriák mentén. Így a jelentések elősegítik a tartalommoderációs gyakorlatok ellen-

- 91/92 -

őrzését és a problémás területek azonosítását (pl. ha egy platformhoz tömegesen érkeznek bizonyos típusú panaszok).[49] Emellett a 15. cikk fontos szerepet játszik a hatósági felügyelet megalapozásában is: a szolgáltatók nyilvános adatszolgáltatása megkönnyíti a szabályok betartásának monitorozását. A 15. cikk (1) bekezdése részletezi, hogy a jelentésnek milyen adatokat kell tartalmaznia. Hozzá kell azonban tenni, hogy az átláthatóság szempontjából lényeges szereplők, a felhasználók nézőpontjából az átláthatósági jelentés nem közvetlenül szubjektív átláthatóságot növelő kötelezettség, mert a felhasználóknak csak elenyésző része olvassa el ezeket, sokkal gyakrabban foglalkozik a platform általánosan használt felületeivel és az azokon keresztül biztosított szolgáltatásokkal. A DIGITALEUROPE által készített 2024. januári jelentés szerint a DSA által előírt átláthatósági jelentések sablonjai elsősorban a kutatók és hatóságok számára készülnek, nem felhasználóbarátok, sem nem könnyen érthetőek az egyéni szolgáltatások ügyfelei vagy felhasználói számára. A jelentés kiemeli, hogy még a kvalitatív jelentési sablon sem alkalmas a legtöbb felhasználó számára, mivel olyan részleteket tartalmaz, mint a jogsértő tartalmak detektálási módszerei, a felhasználási feltételek felülvizsgálatai, a moderátorok képzése vagy az automatizált jelentések különböző adatai, amelyek nem nyújtanak tömör és érthető összefoglalókat a felhasználók számára.[50]

A DSA réteges szabályozása alapján az online platformokra további átláthatósági jelentési követelmények kerülnek meghatározásra. Célja, hogy a 15. cikk szerinti általános tartalommoderációs jelentést kiegészítse olyan információkkal, amelyek az új DSA mechanizmusok hatékonyságát mutatják, illetve segítsék az online óriásplatformok (VLOP-ok) azonosítását.[51] A jelentések e követelmények alapján visszajelzést adnak abban is, hogyan működnek a bevezetett jogorvoslati és visszaélés-elleni eszközök (pl. mennyi peren kívüli vitarendezés van, hány felhasználót függesztettek fel visszaélésért). Ezen túlmenően előírja a felhasználói számok közzétételét, ami a VLOP minősítés egyik alapja (33. cikk szerinti küszöb). Végül a 24. cikk (5) bekezdése egy fontos átláthatósági újítást vezet be: a platformoknak a tartalommoderációs indokolásokat be kell küldeniük egy uniós nyilvántartásba, hogy az kutatható legyen. A szabályozási cél itt a külső ellenőrzés és kutatás elősegítése - a Bizottság által kezelt adatbázis révén a civil társadalom, tudósok, újságírók is betekintést nyerhetnek a platformok konkrét moderációs döntéseibe.[52] Egyúttal azonban nehezített pályát jelent az MI alkalmazása során: a mesterséges intelligencia alkalmazásokat rendszerint döntésre vagy döntéselőkészítésre alkotják meg, kevésbé ezek indoklására, amely immanensen nehezíti az indoklások kiadását.

- 92/93 -

A Bizottság a követelmények teljesítésének elősegítésére 2024 novemberében kiadott egy végrehajtási rendeletet,[53] amely megalapozza az átláthatósági jelentések egységes kialakítását, módszertanát, és annak érdekében, hogy e jelentések valóban széles körben elérhetővé, tudományosan elemezhetővé (akár számadataiban is) váljanak, e végrehajtási rendelet mellékletében közzétette az átláthatósági jelentések elvárt formáját. Ebben azonban nem említi külön a Bizottság, hogy értelmezése alapján további kötelezettségek terhelnék az MI alapú technikát alkalmazó szolgáltatókat, a jelentés tartalmának követelményeit e tekintetben a DSA adja. Az érintett szolgáltatóknak e jelentéseiket 2025 júliusáig kell eljuttatni a Bizottság részére és közzétenni.[54]

3.4. Hirdetési- és ajánlórendszerek átláthatósága

A DSA 26. cikke eközben az online hirdetések átláthatóságával foglalkozik, mely közvetve a tartalommoderációhoz is kapcsolódik (hiszen a reklámok is tartalomként jelennek meg, és sok panasz épp a nem jelölt, megtévesztő hirdetések miatt merül fel). A téma azért is fontos számunkra, mert napjainkra a hirdetési tevékenység központi alapját is az MI által támogatott folyamatok adják, megkerülhetetlen a működésük a modern hirdetési rendszerekben.[55] A szabályozó célja, hogy a felhasználók egyértelműen felismerjék a hirdetéseket, tudják, ki áll mögöttük és miért látják őket. Ezzel küzd a rejtett reklám és manipuláció ellen, és javítja a szolgáltatás átláthatóságát. A platformok eddig is alkalmaztak jelöléseket ("Szponzorált" címke stb.), de a DSA ezt kötelező normává emeli, és kiegészíti a célzási paraméterekre vonatkozó információkkal. Az is cél, hogy a felhasználók visszajelzést adhassanak (pl. jelölhessék a saját tartalmukat reklámként), így a platform ne csak maga próbálja felismerni. Végül a cikk tilt egy bizonyos gyakorlatot: érzékeny adatokon alapuló célzott hirdetést nem lehet nyújtani, ami a felhasználók magánszféráját védi. Ezek az adatok jellemzően a platform által felmérhető emberi viselkedésből levont következtetések, amelyek jelentős mennyiségű különleges személyes adatot is tartalmazhatnak, s kezelésük az adatvédelmi követelmények alapján jogszerűtlen a célok és jogalapok precíz meghatározásának hiányába. Tömeges és MI rendszerekkel való kezelésük pedig tovább ronthatja a szolgáltatások átláthatóságát és a felhasználók szubjektív átláthatóságérzetét.[56]

A DSA 27. cikke a fenti szabályokat kiegészítve a platformok tartalomajánló algoritmusainak (recommender systems) működésébe enged bepillantást a felhasználók

- 93/94 -

számára, és bizonyos fokú felhasználói kontrollt biztosít felettük. A cél az, hogy a felhasználók tudatában legyenek, mi alapján rangsorolja vagy javasolja nekik a platform a tartalmakat (pl. hírfolyam, videóajánló), és lehetőségük legyen ezen preferenciáikat alakítani. Ez tulajdonképpen az algoritmusok "fekete doboz"-problémája. Korábban a felhasználók semmit, vagy csak nagyon keveset tudtak arról, miért pont azt a tartalmat látják, amit, s ez aggályokat vet fel a tájékozódáshoz való jog és a véleménypluralizmus szempontjából. Az alapvető problémát ez a követelmény nem tudja feloldani,[57] de legalább láthatóvá teszi, hogy milyen feladatokra, milyen adatok alapján alkalmazza a platform az ajánlórendszert. A szabályozó kimutatható szándéka, hogy a platformok a főbb rendezési szempontokat nyilvánossá tegyék, amelynek bár megkérdőjelezhető mértékű a bizalomépítő hatása, de legalább az elszámoltathatóságot segíti (ha a paraméterekből kiderülne például, hogy előnyben részesít bizonyos politikai nézeteket, azt a közösség számonkérheti). Továbbá a felhasználók kezébe ad némi döntési lehetőséget: ha van más ajánlási opció (pl. időrendi sorrend), választhassanak és részben kimaradhassanak az ajánlórendszerbe foglalt szabályok egy része alól.[58] Mindez önmagában is növelheti a felhasználók átláthatóságérzetét. Az elszámoltathatóságot pedig növeli, hogy a felhasználókon túl az Európai Bizottság és tagállami hatóságok, így a digitális szolgáltatási koordinátor felügyeleti lehetősége is körvonalazásra kerül: a kockázatok és lehetséges károk felméréséhez szükséges adatokhoz, az algoritmikus tartalommoderálási rendszerek, az ajánlórendszerek vagy a hirdetési rendszerek pontosságára, működésére és tesztelésére, illetve a tartalommoderálás vagy az e rendelet értelmében vett belső panaszkezelési rendszerek folyamataira és kimeneteire vonatkozó adatokhoz a hatóságok hozzáférhetnek, segítve a platformok átlátható működése feletti kontrollt.

4. Következtetések és javaslatok

A tanulmányba foglalt elemzést követően több következtetést és javaslatot szeretnék megfogalmazni a DSA tartalommoderációs szabályai és a mesterséges intelligencia felhasználásának kapcsolatáról, figyelemmel a megfogalmazott kutatási kérdésre.

A DSA érdemi változást hozott az online platformok tartalommoderációjának átláthatóságára vonatkozó szabályozásban. Az eddig csak társadalmi elvárások kereszttüzében, önkéntesen végzett tevékenységek e szabályozás segítségével általánosan alkalmazandó kereteket kaptak, amely nagy előrelépést jelent. A részletes indokolási kötelezettség, a DSA tartalommoderációs átláthatósági adatbázisa, a rendszeres átláthatósági jelentések előírása és tartalmuk szabályozása mind-mind e rendszer fontos elemeit jelentik. Mindez nemcsak a hatósági felügyelet biztosítása szempontjából fontos: a jelentések önmagukban is visszajelzést adnak a felhasználóknak és maguknak a

- 94/95 -

platformokat üzemeltető szolgáltatásoknak automatikus moderációs eszközeik pontosságáról, hibaarányáról, a humán moderátorok munkájának arányáról.

Az is megállapítható, hogy a vezető online óriásplatformok már a DSA hatálybalépését megelőzően komolyan vették a szabályozást és elkezdték átalakítani rendszereiket, hogy megfeleljenek az új szabályoknak.[59] A legtöbb platform, még mielőtt a DSA követelményei szerint kötelező lett volna, frissítette a felhasználási feltételeit és jelentősen bővítették a moderációs adatok közzétételét. 2023 őszétől a kijelölt nagy platformok sorra publikálták első átláthatósági jelentéseiket, szinte kivétel nélkül.[60] A legnagyobb szolgáltatók közül a Google egy átfogó Átláthatósági Központot hozott létre, ahol szolgáltatásonként ismerteti moderációs irányelveit és gyakorlatait.[61] A TikTok jelentős többleterőforrásokat fordít moderációra: 2024 első felében a szabálysértő tartalmak 80%-át már automatikus eszközökkel távolították el (szemben az előző évi 62%-kal), miközben továbbra is több mint 6000 főt foglalkoztatnak EU-nyelvi moderátorként minden uniós tagállam nyelvét lefedve. Ezzel jól bemutatják a szolgáltatók központi stratégiáját: az MI alapú tartalommoderációt a kontextus értékelése során kiegészítik emberi felügyelettel, ezzel növelve a moderációs tevékenység hatékonyságát.

Jelenleg semmilyen jel nem utal arra, hogy a DSA miatt a platformoknak csökkenteniük vagy leépíteniük kellene a mesterséges intelligencia alkalmazását a moderációban. A DSA nem tiltja az automatizált moderációt - épp ellenkezőleg, számol annak használatával, de átláthatóvá és látható felelősségek mellett kívánja szabályozni azt. A rendelet előírja az automatizált eszközök teljesítményének mérését és közlését (pontosság, hibaarány),[62] ami arra ösztönzi a platformokat, hogy tovább javítsák algoritmusaik hatékonyságát. Ezt a fejlesztési tevékenységet eddig is végezték, azonban a szabályozás keretet ad ahhoz, hogy az európai szabályozásra tekintettel vigyék végbe mindezt. Ennek égisze alatt, ha egy MI moderációs rendszer túl sok hibát vét (pl. jogszerűtlennek nem minősülő tartalmakat tilt le, vagy nem szűri ki a tiltott tartalmat), az a kockázatkezelési kötelezettségek megsértéséhez vezethet. Ilyen esetben a platform esetében nem az MI leállítása az elvárás, hanem a kockázat enyhítése - például az algoritmus továbbfejlesztése, szigorúbb emberi felülvizsgálat bevezetése vagy más korrekciós intézkedés. A Bizottság korai intézkedései is azt mutatják, hogy a hangsúly a megfelelő erőforrások és felügyelet biztosításán van. Erre mutat az az eljárás, amelyet a Bizottság 2023 végén indított az X platform ellen részben amiatt, hogy a cég drámaian csökkentette a moderátorok számát Európában (mintegy 20%-os létszámleépítés, 11 nyelvről 7-re szűkítve a lefedettséget). A Bizottság emiatt információkat kért az X-től arról, hogyan kívánja kezelni a tartalommoderációt és milyen kockázatelemzést végzett a generatív MI eszközök alkalmazásáról. Ez azt jelzi, hogy a Bizottságot aggodalommal tölti

- 95/96 -

el az elégtelen humán erőforrás és a felügyelet nélküli MI kombinációja. Ugyanakkor a TikTok esetében - amely növelte automatizált szűrésének arányát, de megtartotta a moderátori kapacitását - nem merült fel, hogy le kellene állítaniuk az MI-rendszereiket; inkább azt emelik ki, hogy a kettőt érdemes együtt alkalmazni a hatékony eredmény érdekében.[63] A gyakorlatban ez azt jelenti, hogy a platformok továbbra is támaszkodhatnak MI-megoldásokra a mérethatékonyság miatt, de kötelesek gondoskodni arról, hogy ezek az eszközök megbízhatóan működjenek, és hogy az automatizált döntéseket emberi felülvizsgálat és felhasználói jogorvoslat egészítse ki a DSA szabályai alapján.

A DSA ezek alapján jelentős előrelépést hozott a tartalommoderáció nyilvánossága és átláthatósága terén, és alkalmazkodásra késztette a nagy platformokat. Erre tekintettel kifejezetten pozitív szabályozási fejlemény, hogy az elaprózódó tagállami jogalkalmazás helyett a Bizottság széles körű hatáskörrel rendelkezik az ex ante jellegű, így az átláthatósági, a kockázatértékelési és kockázatcsökkentési kötelezettségek, valamint a válságkezelési mechanizmusok felügyeletére. Ezek a hatáskörök biztosítják, hogy az online óriásplatformok és keresőszolgáltatók megfelelően végrehajtsák a DSA előírásait, és proaktívan kezeljék a rendszerszintű kockázatokat. A Bizottság felügyeleti tevékenysége, amely magában foglalja az információgyűjtést, vizsgálatokat, szankciókat és a folyamatos nyomon követést, kulcsszerepet játszik a digitális szolgáltatások szabályozásának hatékonyságában és az alapvető jogok védelmében. E tekintetben célszerű lehet arra törekedni, hogy a Bizottság a DSA 66. cikke alapján megindult eljárásokban lehetőség szerint a nem megfelelést megállapító határozat létrehozatala helyett arra törekedjen, hogy - amennyiben az eset összes körülménye engedi - a szolgáltató kötelezettségvállalásokat tegyen, mert ez a megoldás egyszerre biztosíthatja az átláthatóság fejlesztését, a DSA szabályainak való megfelelőséget, s egyúttal a szolgáltatók bevonását a döntésbe és a számukra legkevésbé hátrányos technológiai megvalósítás kiválasztását is. Az így elért önkéntes jogkövetés fontos lehet, mert bár komoly represszív erővel rendelkező bírságtételekkel dolgozhat a Bizottság, végső soron elérheti, hogy a tagállami hatóságok - így a digitális szolgáltatási koordinátor jelzése alapján a tagállami bíróság -korlátozzák, elérhetetlenné tegyék ideiglenesen a szolgáltatást egy adott tagállamban a DSA 82. cikk (1) bekezdésében és a DSA 51. cikk (3) bek. b) pontjában foglaltaknak megfelelően, mégis ezek az intézkedések olyan költség- és időigényesek, hogy célszerűbb lehet a megfelelés gyorsabb módját elérni, ha arra lehetőség van. Ez akár a minősítési határokat elérő, de kisebb szereplők megfelelését is elősegíthetné, mert lehetőséget adna egyedi feltételek megállapítására.

A Bizottság végrehajtó munkájában azt is fontos lehet fókuszba állítani, hogy a rendszeres jelentések mellett szabályozással, egységesített módszertani megoldásokkal ösztönözni kell a szolgáltatókat valós idejű vagy ahhoz közelítő tájékoztatási, átláthatósági rendszerek bevezetésére, amelyek képesek lennének az egyedi szolgáltatási folyamatban is átfogó információkat nyújtani a felhasználóknak annak érdekében, hogy valóban érdemi átláthatóságérzetük alakulhasson ki, s a szabályozás alapján is megvalósulhasson az átláthatóság materiális (azaz nem formális, pusztán dokumentumok közzétételében mért) megvalósítása. ■

JEGYZETEK

* Készült a Nemzeti Média- és Hírközlési Hatóság támogatásával. A tanulmányba foglalt kutatási eredmények létrehozása részben a Kulturális és Innovációs Minisztérium Nemzeti Kutatási Fejlesztési és Innovációs Alapból nyújtott támogatásával, az NKKP STARTING24 pályázati program finanszírozásában valósult meg, a STARTING 150399 számú projekt keretében.

[1] Pintér Melinda: Az online platformok diskurzusának moderációja és biztonsági aggályai. Scientia et Securitas, Vol. 3., No. 1. (2022) 45. https://doi.org/10.1556/112.2022.00089

[2] Tóth András: Az online platformok európai szabályozása. In Medias Res, Vol. 11., No. 2. (2022) 78-81. https://doi.org/10.59851/imr.11.2.6

[3] Papp János Tamás: A közösségi média platformok szabályozása a demokratikus nyilvánosság védelmében. Budapest, Wolters Kluwer, 2022. 7-8.

[4] Hadi Rhonda - Shiri Melumad - Eric S. Park: The Metaverse: A new digital frontier for consumer behavior. Journal of Consumer Psychology, Vol. 34., No. 1. (2024) 142-150. https://doi.org/10.1002/jcpy.1356

[5] Leonardo Madio - Martin Quinn: Content moderation and advertising in social media platforms. Journal of Economics & Management Strategy, Early view (2024) 345. https://doi.org/10.1111/jems.12602; Young K. Greyson: How much is too much: the difficulties of social media content moderation. Information & Communications Technology Law, Vol. 31., No. 1. (2022) 5. https://doi.org/10.1080/13600834.2021.1905593

[6] Teleki Lóránt - Gönczöl Tünde: A digitális kapuőrök az ex ante szabályozás, a versenyjog és az adatvédelem kereszttüzében. Verseny és Szabályozás, 2022/1. 243.

[7] Gosztonyi Gergely: A tartalomszabályozás emberi és technikai vonatkozásai. Erdélyi Jogélet, Vol. 4., No. 4 (2021) 12-14.

[8] Rob Frieden: The internet of platforms and two-sided markets: Implications for competition and consumers. Villanova Law Review, Vol. 63., No. 2. (2018) 269. https://doi.org/10.2139/ssrn.2935292

[9] Török Bernát: A szólásszabadság a közösségi platformokon és a Digital Service Act. In: Török Bernát - Ződi Zsolt (szerk.): Az internetes platformok kora. Budapest, Ludovika, 2022. 195-200.; Jens Brunk - Jana Mattern - Dennis M. Riehle: Effect of transparency and trust on acceptance of automatic online comment moderation systems. In: Jörg Becker et. al. (szerk.): 2019 IEEE 21st Conference on Business Informatics (CBI) 1. Moscow, IEEE, 2019. 429-433. https://doi.org/10.1109/CBI.2019.00056; Nicolas P. Suzor - et al. : What do we mean when we talk about transparency? Toward meaningful transparency in commercial content moderation. International Journal of Communication, Vol. 13., No. 1. (2019) 18.

[10] Poplett Ryan: Is content moderation a concern that is best left to platforms? Ethica, Vol. 2., No.1. (2022) 73. Ld. pl. gyakorlati esettanulmányon keresztül: Heather Tillewein - Keely Mohon-Doyle - Destiny Cox: A Critical Discourse Analysis of Sexual Violence Survivors and Censorship on the Social Media Platform TikTok. Archives of Sexual Behavior, Vol. 53., No.1. (2024) 1-10. https://doi.org/10.1007/s10508-024-02987-2

[11] Mauro Conti et al.: Revealing The Secret Power: How Algorithms Can Influence Content Visibility on Social Media. arXiv preprint arXiv:2410.17390 (2024) 2-3. https://doi.org/10.48550/arXiv.2410.17390; Edouard Pignot: Who is pulling the strings in the platform economy? Accounting for the dark and unexpected sides of algorithmic control. Organization, Vol. 30., No. 1. (2023) 150-151. https://doi.org/10.1177/1350508420974523

[12] Tatjana Jovanić: Platform Regulation: Ex Ante Tools and Strategies in the Regulatory Toolkit. In: Duąan V. Popović - Rainer Kulms (szerk.): Repositioning Platforms in Digital Market Law. Cham, Springer Nature Switzerland, 2024. 2-5. https://doi.org/10.1007/978-3-031-69678-7_1

[13] 2022/2065 rendelet a digitális szolgáltatások egységes piacáról és a 2000/31/EK irányelv módosításáról HL L 277, 2022.10.27., 1-102. o.

[14] Bence Kis Kelemen - Balázs Hohmann: Is There Anything New Under the Sun? A Glance at the Digital Services Act and the Digital Markets Act from the Perspective of Digitalisation in the EU. Croatian Yearbook of European Law And Policy, Vol. 19., No. 1. (2023) 247-248. https://doi.org/10.3935/cyelp.19.2023.542

[15] Hohmann Balázs: A Digital Services Act és a Digital Markets Act termékekre és digitális szolgáltatásokra irányuló fogyasztói jogviszonyokat érintő rendelkezései. In Medias Res, Vol. 12., No. 2. (2023) 70-72. https://doi.org/10.59851/imr.12.2.4

[16] 2000/31/EK irányelv a belső piacon az információs társadalommal összefüggő szolgáltatások, különösen az elektronikus kereskedelem, egyes jogi vonatkozásairól. HL L 178, 2000.07.17., 1-16. o. (a továbbiakban: e-kereskedelmi irányelv).

[17] E-kereskedelmi irányelv, 1. cikk.

[18] Klein Tamás: Az újmédia szabályozásának új iránya? - A Digital Services Act alapjogvédelmi mechanizmusa. In: Török Bernát - Ződi Zsolt (szerk.): Digitalizálódó társadalom - Tanulmányok az új technológiák társadalmi-jogi hatásairól. Budapest, Ludovika, 2023. 122-124.

[19] Strihó Krisztina: Elektronikus kereskedelem. Debreceni Jogi Műhely, 2008/1.1-3.

[20] Michael Hellner: The Country of Origin Principle in the E-commerce Directive-A Conflict with Conflict of Laws? European Review of Private Law, Vol. 12., No. 2. (2004) 194-200. https://doi.org/10.54648/erpl2004015

[21] E-kereskedelmi irányelv 14. cikk (1) bekezdés

[22] Gergely Gosztonyi - János Bálint - Gergely Ferenc Lendvai: Public Figures and Social Media from a Freedom of Expression Viewpoint in the Recent U.S. and EU Jurisdiction. Journalism and Media, Vol.6, No. 1. (2025) 5. https://doi.org/10.3390/journalmedia6010026

[23] Gergely Gosztonyi - Ewa Galewska - Andrej Školkay: Challenges of Monitoring Obligations in the European Union's Digital Services Act. ELTE Law Journal, 2024/1. 48-50. https://doi.org/10.54148/ELTELJ.2024.1.45

[24] Gyetván Dorina: A Digital Services Act és a Facebook Oversight Board szerepe a jogorvoslat biztosításában a közösségi média vonatkozásában. In Medias Res, 2023/2. 192-195. https://doi.org/10.59851/imr.12.2.9

[25] Michelle Jee: New Technology Merits New Interpretation: An Analysis of the Breadth of CDA Section 230 Immunity. Houston Business & Tax Law Journal, Vol. 13., No. 2. (2013) 186-193.

[26] Gosztonyi Gergely: Az internetes tartalomszabályozással kapcsolatos új gondolkodási irányok az Amerikai Egyesült Államokban. Miskolci Jogi Szemle, 2021/4. 40-54. https://doi.org/10.32980/MJSz.2021.4.1257

[27] Michael L. Rustad - Thomas H. Koenig: The Case for a CDA Section 230 Notice-and-Takedown Duty. Nevada Law Journal, Vol. 23., No. 2. (2023) 533.

[28] Ld. pl. a szexuális jellegű jogellenes tartalmak terén hozott változást az úgynevezett FOSTA-SESTA (2018) jogszabálycsomag, amely kivételt teremtett a szakasz alkalmazása alól az online szexkereskedelemmel kapcsolatos tartalmak esetében.

[29] Netzwerkdurchsetzungsgesetz vom 1. September 2017 (BGBl. I S. 3352), das zuletzt durch Artikel 29 des Gesetzes vom 6. Mai 2024 (BGBl. 2024 I Nr. 149) geändert worden ist.

[30] Assemblée Nationale, Proposition de loi n° 388, adoptée par l'Assemblée nationale, en nouvelle lecture, visant à lutter contre les contenus haineux sur internet, 13 Mai 2020

[31] Dominik Steiger: Protecting Democratic Elections Against Online Influence via "Fake News" and Hate Speech-The French Loi Avia and Loi No. 2018-1202, the German Network Enforcement Act and the EU's Digital Services Act in the Light of the Right to Freedom of Expression. In: Stephanie Schiedermair - Alexander Schwarz - Dominik Steiger (szerk.): Theory and practice of the European Convention on Human Rights. Baden-Baden, Nomos Verlagsgesellschaft, 2021. 175. https://doi.org/10.5771/9783748923503-165

[32] Ld. C/2018/1177 A Bizottság (EU) 2018/334 ajánlása (2018. március 1.) az illegális online tartalom hatékony kezelésére irányuló intézkedésekről. HL L 63., 2018.3.6., 50-61. o.

[33] Evangelia Psychogiopoulou: The Fight Against Digital Hate Speech: Disentangling the EU's Regulatory Approach and Hurdles. German Law Journal, Vol. 25., No. 7. (2024) 1190. https://doi.org/10.1017/glj.2024.26

[34] Sara Tommasi: Risk-Based Approach in the Digital Services Act and in the Artificial Intelligence Act. In: Sara Tommasi (szerk.): The Risk of Discrimination in the Digital Market: From the Digital Services Act to the Future. Cham, Springer Nature Switzerland, 2023. 73-76. https://doi.org/10.1007/978-3-031-43640-6_5

[35] DSA (9) preambulumbekezdés. Összhangban: COM/2020/67 final A Bizottság Közleménye az Európai Parlamentnek, a Tanácsnak, az Európai Gazdasági és Szociális Bizottságnak és a Régiók Bizottságának - Európa digitális jövőjének megtervezése. 2020.02.19.; Szőke Gergely László: A közösségi oldalak szabályozási problémái. In: Kis Kelemen Bence - Mohay Ágoston (szerk.): A technológiai fejlődés jogi kihívásai. Kézikönyv a jogalkotás és jogalkalmazás számára. Pécs, PTE ÁJK, 2021. 105-107.

[36] Önmagában azzal is, hogy szabályozott kereteket hoz létre olyan területen, ahol korábban nem voltak szabályok és így nem voltak átláthatóak a felhasználók számára a rá vonatkozó követelmények. Ld. Ellen Wauters - Verónica Donoso - Eva Lievens: Optimizing transparency for users in social networking sites. Info/Digital Policy, Regulation and Governance, Vol. 16., No. 6. (2014) 18. https://doi.org/10.1108/info-06-2014-0026

[37] Gellén Klára: A DSA fogyasztókat érintő egyes rendelkezései a fogyasztói bizalom és az átláthatóság erősítése érdekében. In: Koltay András - Szikora Tamás - Lapsánszky András (szerk.): A vadnyugat vége? Tanulmányok az Európai Unió platformszabályozásáról. Budapest, ORAC, 2024. 114. https://doi.org/10.59851/9789632586328_06

[38] Giuseppe A. Veltri et al.: The impact of online platform transparency of information on consumers' choices. Behavioural Public Policy, Vol. 7. No. 1. (2023) 75-79. https://doi.org/10.1017/bpp.2020.11

[39] Ződi Zsolt: Átláthatósági és indokolási követelmények az európai platformjogban. In Medias Res, 2023/2. 14-17. https://doi.org/10.59851/imr.12.2.1

[40] David Nosák: The DSA Introduces Important Transparency Obligations for Digital Services, but Key Questions Remain. Center for Democracy & Technology, June 18, 2021. https://tinyurl.com/2f564bvh ; Jean De Meyere: The Digital Services Act: Towards more transparency for content moderation. KU Leuven CITIP, 13 February, 2024. https://tinyurl.com/2986y7aa

[41] Ld. DSA (45) preambulumbekezdés.

[42] João Pedro Quintais - Naomi Appelman - Ronan Ó. Fathaigh: Using terms and conditions to apply fundamental rights to content moderation. German Law Journal, Vol. 24. No. 5. (2023) 893-894. https://doi.org/10.1017/glj.2023.53

[43] Nataliia Filatova-Bilous - Tetiana Tsuvina - Bohdan Karnaukh: Digital Platforms' Practices on Content Moderation: Substantive and Procedural Issues Proposed by DSA. In: Mykola Nechyporuk - Volodymir Pavlikov - Dmytro Krytskyi (szerk.): Integrated Computer Technologies in Mechanical Engineering -2023. Cham, Springer Nature Switzerland, 2023. 198-200. https://doi.org/10.1007/978-3-031-60549-9_16

[44] João Pedro Quintais et al.: From the DMCA to the DSA: A Transatlantic Dialogue on Online Platform Regulation and Copyright. SSRN, 17 Jun 2024. 34-37. https://dx.doi.org/10.2139/ssrn.4860225

[45] Daniel Holznagel: How to Apply the Notice and Action Requirements under Art. 16 (6) sentence 1 DSA-Which action actually? Computer Law Review International, Vol. 25., No. 6. (2024) 172-173.

[46] Paddy Leerssen: An end to shadow banning? Transparency rights in the Digital Services Act between content moderation and curation. Computer Law & Security Review, Vol. 48., No. 105790. (2023) 6-8. https://doi.org/10.1016/j.clsr.2023.105790

[47] Yifat Nahmias - Maayan Perel: The oversight of content moderation by AI: impact assessments and their limitations. Harvard Journal on Legislation, Vol. 58., No. 1. (2021) 145.

[48] Marta Maroni: "Mediated transparency": The Digital Services Act and the legitimisation of platform power. In: Maarten Hillebrandt - Päivi Leino-Sandberg - Ida Koivisto (Szerk): (In)Visible European Government. London, Routledge, 2023. 312-326.

[49] Aleksandra Urman - Mykola Makhortykh: How transparent are transparency reports? Comparative analysis of transparency reporting across online platforms. Telecommunications policy, Vol 47., No. 3. 102477. (2023) 11-12. https://doi.org/10.1016j.telpol.2022.102477

[50] Digital Services Act transparency reports: focus on simplicity and usefulness. DigitalEurope, 22 January 2024. https://tinyurl.com/mr32tnr4

[51] Kasia Söderlund: Regulating high-reach AI: On transparency directions in the Digital Services Act." Internet Policy Review, Vol. 13. No. 1. (2024) 3. https://doi.org/10.14763/2024.1.1746

[52] Gautam Kishore Shahi et al.: A Year of the DSA Transparency Database: What it (Does Not) Reveal About Platform Moderation During the 2024 European Parliament Election. https://doi.org/10.48550/arXiv.2504.06976

[53] 2024/2835 végrehajtási rendelet a közvetítő szolgáltatók és az online platformot üzemeltető szolgáltatók (EU) 2022/2065 európai parlamenti és tanácsi rendelet szerinti átláthatósági jelentési kötelezettségeire vonatkozó mintadokumentumok meghatározásáról. HL L, 2024/2835, 2024.11.05. 1-48. o.

[54] European Commission: Implementing regulation laying down templates concerning transparency reporting obligations. https://tinyurl.com/266zb2vb

[55] Elena Izyumenko - Martin Senftleben: Online behavioural advertising, consumer empowerment and fair competition: are the DSA transparency obligations the right answer?. Journal of European Consumer and Market Law, Vol. 14., No. 2. (2025) 46. https://doi.org/10.2139/ssrn.4729118

[56] Bram Duivenvoorde - Catalina Goanta: The regulation of digital advertising under the DSA: A critical assessment. Computer Law & Security Review, Vol. 51. No. 105870. (2023) 8-10. https://doi.org/10.1016/j.clsr.2023.105870

[57] Miután az algoritmusok működéséből az adódik, hogy a különböző szempontok figyelembe vétele és általánosságban a döntéshozatali folyamatok nem megismerhetőek, hanem azok az algoritmus akár valós időben változó belső döntéshozatali logikája szerint alakulnak.

[58] Lendvai Gergely Ferenc: Taming the Titans? - Digital Constitutionalism and the Digital Services Act. ESSACHESS - Journal for Communication Studies, Vol. 17., No. 2. (2024) 175-176. https://doi.org/10.21409/0M3P-A614

[59] European Commission: Impact of the Digital Services Act on platforms. https://tinyurl.com/4bb64t79

[60] European Commission: Digital Services Act: Commission designates first set of very large online platforms and search engines. https://tinyurl.com/y9ftz4ar

[61] Logan Partners: Digital Services Act (DSA) Compliance in Action: Insights from Leading Online Platforms. https://tinyurl.com/yww7b7fs

[62] European Commission: Very large online platforms and search engines publish first transparency reports under DSA. https://tinyurl.com/4ftb5uhp; Alessia Zornetta: Is the Digital Services Act Truly a Transparency Machine? The Tech Policy Press, Jul 11, 2024. https://tinyurl.com/sbep8nwc

[63] TikTok Newsroom: DSA Third Transparency Report. https://tinyurl.com/3hpum6zs

Lábjegyzetek:

[1] A szerző egyetemi adjunktus, Pécsi Tudományegyetem, Állam- és Jogtudományi Kar. https://orcid.org/0000-0003-4252-1923

Tartalomjegyzék

Visszaugrás

Ugrás az oldal tetejére