Megrendelés

Sorbán Kinga[1]: Merre tovább az online gyermekvédelemben? A kiskorúak védelme az új médiakörnyezetben megjelenő káros tartalmaktól (GI, 2022/1-2., 65-88. o.)

Absztrakt

A gyermekek védelme az interneten és a televízióban előforduló káros tartalmaktól, olyan kérdés, amely nem csak a témával foglalkozó szakembereket, hanem a laikusokat is markáns véleményformálásra készteti. A gyermekek ártalmas tartalmaktól való védelmének biztosítása az online térben szélmalomharcnak tűnik, bár mind az Európai Unió, mind a tagállamok élénken foglalkoznak a kérdéssel. A tanulmány áttekinti azokat a fontosabb európai szabályokat, amelyekkel az elmúlt években az egyes tagállamok kezelni próbálták az online tartalmak okozta ártalmakat. Ezekre a szabályokra reflektálva pedig igyekszik bemutatni azokat az eseteket is, amikor nem hatékony azok alkalmazása. A szerző amellett érvel, hogy az ártalmas online tartalmakkal szembeni fellépés napjainkban már alapvetően nem jogalkotást kíván, hanem olyan szabályozáson túli eszközök alkalmazását, amelyek a meglévő szabályok gyors és hatékony érvényre juttatását segítik elő.

Kulcsszavak: Médiajog, gyermekvédelem, platformszabályozás, videómegosztó, közösségi média

What's next for the protection of children online? The protection of minors from harmful content in the new media environment

Abstract

The protection of minors from harmful content on the internet and television is an issue that is causing not only professionals but also lay people to take a strong stance. Ensuring the protection of minors from harmful content in the virtual world is like fighting a losing battle, although both the European Union and the Member States are actively addressing the issue. This paper

- 65/66 -

takes a look at the key European rules that Member States have adopted in recent years to tackle the harm caused by online content. It will also reflect on these rules and try to identify cases where their application is not efficient. The author argues that tackling harmful content online in our present days does not necessarily involve legislation, but rather the deployment of instruments beyond legislation to facilitate the swift and effective enforcement of existing rules.

Keywords: Media law, protection of minors, platform regulation, video-sharing, social media

1. Bevezetés

A gyermekek védelme az interneten és a televízióban előforduló káros tartalmaktól, olyan kérdés, amely nem csak a témával foglalkozó szakembereket, hanem a laikusokat is markáns véleményformálásra készteti. A gyermekvédelem sokszor azért is szül parázs vitákat, mert a kérdés gyakran erőteljesen átpolitizált, egyes részterületei gyakran merülnek fel politikai diskurzusokban. Ennek, és az online térben napról-napra felbukkanó, új ártalmas magatartásoknak köszönhetően a gyermekvédelem jogszabályi környezete folyamatos változásban van. E tanulmány egyik célja, hogy pillanatképet adjon arról, hogy milyen szabályok vonatkoznak ma az Európai Unióban és Magyarországon a kiskorúakra ártalmas médiatartalmakra. Különösen izgalmas téma ez annak fényében, hogy hazánkban a 2021-ben elfogadott, a médiatörvény egyes rendelkezéseit is módosító ún. "pedofiltörvény" (a pedofil bűnelkövetőkkel szembeni szigorúbb fellépésről, valamint a gyermekek védelme érdekében egyes törvények módosításáról szóló 2021. évi LXXIX. törvény) és az annak nyomán megtartott népszavazás hatalmas társadalmi indulatokat hoztak a felszínre. Ezek a szabályok azonban nagyrészt a televíziós médiakörnyezetre fókuszálnak, míg az online környezetet figyelmen kívül hagyják.

Mindeközben az Európai Unió is élénken foglalkozik a gyermekvédelem témakörével. 2018-ban fogadták el az audiovizuális médiaszolgáltatásokról szóló irányelv felülvizsgált szövegét, amely a videómegosztóplatform-szolgáltatókra vonatkozó szabályokkal egészítette ki a kiskorúak védelmét szolgáló rendelkezéseket. 2022 tavaszán született politikai egyetértés a digitális szolgáltatásokról szóló rendelettervezetről, amely szélesebb körben, valamennyi online platformra nézve fogalmaz meg szabályokat, így - bár nem kimondottan gyermekvédelmi aspektusból - rendezi a közösségimédia-platformok kötelezettségeit is.

- 66/67 -

Jelen tanulmány amellett érvel, hogy hiába a magyarországi, televíziót és lekérhető szolgáltatásokat szabályozó részletes intézkedések, a gyermekekre legkárosabb tartalmak az online térben találhatók. Felmerül a jogon túli eszközök használata, azaz a felhasználói tudatosság fejlesztése, a tagállamok egymás közötti és piaci szereplőkkel való együttműködése, illetve a védelemhez használt műszaki védelmi eszközök továbbfejlesztése is. A tanulmány 4. része bemutatja, hogy ezeken a területeken sok esetben még nagy hiányosságokat tapasztalhatunk, a feltárt hiányosságok mentén ugyanakkor megfogalmaz konkrét javaslatokat is, amelyek - ha teljesen biztonságos online környezetet nem is teremtenek - közelebb visznek ahhoz, hogy a gyermekeink nagyobb biztonságban mozogjanak az online térben.

2. Gyermekvédelmi szempontok az Európai Unió médiaszabályozásában

A bevezető rész már röviden utalt rá, hogy az Európai Unióban is élénk gyermekvédelmi szabályozás folyik. A médiatartalmak területére koncentrálva két fontosabb uniós szintű jogalkotási aktust indokolt részletesebben vizsgálni, az audiovizuális médiaszolgáltatásokról szóló irányelvet (a továbbiakban: AVMS irányelv),[1] valamint a digitális szolgáltatásokról szóló jogszabályt (a továbbiakban: DSA).[2] A teljesség kedvéért indokolt megjegyezni, hogy az uniós gyermekvédelem szabályrendszere természetesen jóval több jogi instrumentumot ölel fel a tanulmányban vizsgáltaknál. Az írás tárgyát kizárólag az audiovizuális tartalmakkal összefüggő ártalmak képezik, ezért értelemszerűen nem tárgyal olyan kiskorúakat érintő ártalmas magatartásokat, mint mondjuk a családon belüli erőszak vagy a kábítószerkereskedelem.

Az ártalmas médiatartalmak szélesebb kategóriáján belül is indokolt megkülönböztetnünk egymástól azokat a tartalmakat, amelyek a kiskorúak fejlődését veszélyeztetik azoktól, amelyeknek a közzététele bűncselekményt valósít meg (például gyermekpornográfia). A jogellenes és az ártalmas tartalmak megkülönböztetésének gondolata először az 1990-es években merült fel. Az Európai Bizottság Zöld Könyvében[3] megkülönbözteti azokat a tartal-

- 67/68 -

makat, amelyekhez a hozzáférés mindenki számára tilos a néző életkorától és a szolgáltatás fajtájától függetlenül, valamint azokat a tartalmakat, amelyek kedvezőtlen hatást gyakorolhatnak a kiskorúak fizikai, illetve értelmi fejlődésére. Előbbi kategóriába tartoznak azok a tartalmak, amelyek nem csak a gyermekek számára károsak, hanem mindenki számára. Ahogyan Polyák Gábor fogalmaz, ezek azok a tartalmak, amelyek "mind az egyén, mind a közösség számára elfogadhatatlanok, a társadalom alapvető elveit sértik."[4] Általános megegyezés van a tekintetben, hogy az ilyen jellegű tartalmak -így a gyűlöletbeszéd, a terrorizmusra uszítás vagy a gyermekpornográfia - esetében a társadalom érdeke az, hogy minél hamarabb lekerüljenek a világhálóról. Esetükben nem beszélhetünk médiajogi értelemben vett tartalomkorlátozásról, csak a büntetőjog rendszeréhez szervesen kapcsolódó tartalomeltávolításról. Bár a két terület a tartalomeltávolításra alkalmazott intézkedések azonossága miatt szorosan összefonódik, az online tér bűncselekményeinek ismertetése már túlmutatna jelen tanulmány keretein. Annyit azonban mindenképpen meg kell jegyezni, hogy a kiskorúak nagyon gyakran érintettek az ilyen cselekményekben (pl. cyberbullying vagy online szexuális kizsákmányolás), így az online gyermekvédelem rendszeréhez az online tér bűncselekményei elleni fellépés is szorosan hozzátartozik.

Az ártalmasnak minősített tartalmak esetében ellenben a felnőtt közönség számára a hozzáférés nem tilos, éppen ezért ezeknél a cél nem az eltávolítás, hanem a hozzáférés korlátozása különféle eszközökkel. A médiaszabályozás általában ezeknek a korlátozó eszközöknek az alkalmazását igyekszik érvényre juttatni, mind az EU-ban, mind Magyarországon.

2.1. Az AVMS irányelv

Az AVMS irányelv az európai médiaszabályozás alapdokumentuma, amely lefekteti az audiovizuális médiaszolgáltatásokra (lineáris és lekérhető szolgáltatásokra), valamint a videómegosztóplatform-szolgáltatásokra vonatkozó uniós minimumszabályokat. E szabályok között számos olyan rendelkezést találunk, amelyek a kiskorúak káros tartalmaktól való védelmét hivatottak biztosítani.

A lineáris (televíziós) és lekérhető szolgáltatásokkal kapcsolatban az irányelv 6a. cikke kimondja, hogy a tagállamoknak megfelelő intézkedések révén kell biztosítaniuk, hogy "a kiskorúak rendes körülmények között nem

- 68/69 -

hallhatják vagy láthatják"[5] a károsnak ítélt műsorszámokat. A megfelelő intézkedéseket nem határozza meg az irányelv taxatív módon, néhány példát azonban nevesít. Ilyen intézkedés lehet televíziós környezetben a sugárzás időpontjának megválasztása, avagy az ún. vízválasztó időszakok (watershed period) bevezetése, az életkor-ellenőrzés bevezetése, valamint a hozzáférést korlátozó műszaki intézkedések (például a műsorjel kódolása).

A videómegosztóplatform-szolgáltatásokra vonatkozó szabályokat, tekintettel az e szolgáltatástípus jellegzetességeire, az irányelv 28b. cikke fekteti le. A videómegosztó-platformok egyik sajátossága, hogy a szolgáltató nem rendelkezik a hagyományos médiakörnyezetben megszokott szerkesztői felelősséggel. Ennek oka, hogy e szolgáltatástípusok az E-kereskedelemről szóló irányelv (a továbbiakban: E-ker. irányelv)[6] rendszerében tárhelyszolgáltatóknak minősülnek, vagyis a szolgáltatásukban megjelenő tartalmaknak csupán tárhelyet és megjelenési felületet biztosítanak, a szerkesztők azonban maguk a felhasználók. A videómegosztóplatform-szolgáltatók az E-ker. irányelv szabályai alapján csak korlátozottan felelnek a harmadik személyek (felhasználók) által közzétett jogellenes tartalmakért, csak akkor vonhatók felelősségre, ha a jogsértésről tudomást szereztek, de elmulasztották megtenni a szükséges intézkedéseket a jogsértés felszámolása érdekében.[7] Az AVMS irányelv preambuluma rögzíti,[8] hogy az irányelv nem kívánja felülírni az E-kereskedelmi irányelv által lefektetett korlátozott felelősségi rendszert. Általános célkitűzésként az AVMS irányelv azt fogalmazza meg, hogy a videómegosztóplatform-szolgáltatóknak biztosítaniuk kell a kiskorúak védelmét "a fizikai, szellemi vagy erkölcsi fejlődésüket"[9] károsító tartalmaktól. Biztosítaniuk kell továbbá a teljes társadalom védelmét az olyan jogellenes tartalmaktól, mint a gyűlöletbeszéd, a terrorcselekmény elkövetésére uszítás, illetve az Unió joga szerint bűncselekménynek minősülő tartalmak.[10] Annak a részletes szabályozását, hogy ezt a célkitűzést a szolgáltatóknak milyen eszközökkel kell elérniük, az AVMS irányelv a tagállamokra bízza. Hasonlóan az audiovizuális médiaszolgáltatások esetében megfogalmazottakhoz, azonban példálózó jelleggel itt is megnevez olyan intézkedéstípusokat, amelyek alkalmasak lehet-

- 69/70 -

nek a nevezett célok eléréséhez. Az AVMS irányelv által előnyben részesített intézkedések különösen az alábbiak:

a) a célkitűzések rögzítése a szolgáltatók felhasználási feltételeiben,

b) a felhasználók széleskörű tájékoztatása a platform szabályrendszeréről, a kiskorúak védelmében megtett intézkedésekről,

c) az audiovizuális kereskedelmi közleményekkel kapcsolatos szabályok beépítése a videómegosztók felhasználási feltételeibe az olyan kereskedelmi közlemények tekintetében, amelyeket nem a platformszolgáltató szervez,

d) ártalmasnak, illetve jogellenesnek vélt tartalmak bejelentésére szolgáló rendszer működtetése,

e) életkor-ellenőrző rendszerek kialakítása,

f) tartalomminősítő rendszerek bevezetése,

g) szülői felügyeleti rendszerek bevezetése,

h) a panaszkezelés eljárásrendjének a meghatározása,

i) a médiatudatosság fejlesztése.[11]

Az irányelv átültetése során a tagállamok szabadon válogathatnak a javasolt intézkedésekből, az arányosság követelményét szem előtt tartva, vagyis a legszigorúbb korlátozó intézkedések csak a legártalmasabb tartalmakat kínáló szolgáltatások esetében alkalmazhatóak, míg a kevésbé ártalmas tartalmak esetében az irányelvi célok enyhébb intézkedések révén érhetők el.

Nem, illetve csak nagyon szűk körben terjed ki az AVMS irányelv hatálya a közösségimédia-platformokra. A közösségi média csak akkor minősíthető videómegosztóplatform-szolgáltatásnak, ha annak egy különválasztható része vagy alapvető funkciója megfelel a videómegosztóplatform-szolgáltatás irányelvben meghatározott fogalmi elemeinek[12] és az irányelvi szabályok csak e szolgáltatásrész vonatkozásában érvényesülnek. Ennél fogva az ismertebb közösségimédia-platformoknak csak egy-egy részére (pl. a Facebook esetében a Watch menüpontra) vonatkoznak az irányelvi szabályok. Ez az európai audiovizuális szabályozás egyik gyengesége, hiszen a közösségi médiában rengeteg ártalmas tartalom jelenik meg, ezt a gyengeséget azonban a jövőben orvosolhatja a nemrégiben elfogadott digitális szolgáltatásokról szóló uniós jogszabály.

- 70/71 -

2.2. A digitális szolgáltatásokról szóló jogszabály

Az Európai Unióban 2022. április 23-án született politikai konszenzus a digitális szolgáltatásokat szabályozó rendelettervezet szövegéről.[13] A rendelettervezet elsődlegesen az előbbiekben már említett E-kereskedelmi irányelv szabályain változtat, részletesebb szabályokat fektetve le egyes internetes közvetítő szolgáltatók számára. A rendelettervezet az internetes közvetítő szolgáltatók körét bővíti az ún. online platformokkal. Az Európai Bizottság digitális szolgáltatásokról szóló jogszabályának (Digital Services Act) tervezete úgy határozza meg az online platformokat, mint "olyan tárhelyszolgáltató, amely a szolgáltatás igénybe vevőjének kérésére információkat tárol és nyilvánosan terjeszt." Amellett, hogy a Bizottság egyértelműen a tárhelyszolgáltatók csoportján belül helyezné el az online platformokat, két következtetést vonhatunk le a javasolt definícióból.

Az egyik, hogy a tervezet a létező definícióknál szűkebben határozza meg az online platform fogalmát. Az OECD által alkotott definíció szerint az online platformok olyan digitális szolgáltatások, amelyek célja az egymással internetes szolgáltatáson keresztül kapcsolatba lépő, két vagy több különböző, de egymástól függő felhasználói csoport (akár cégek, akár magánszemélyek) közötti interakció megkönnyítése.[14] A 2016-ban lezárult, nyilvános konzultáció során egyébként még az Európai Bizottság is szinte azonos tartalmú fogalom használatát javasolta, a konzultációra érkezett válaszok fényében azonban változtatott a definíció tartalmán. A konzultáció során ugyanis sok válaszadó kifogásolta, hogy a javasolt meghatározás túlságosan tág, ennélfogva újabb, részletesebb szabályok kidolgozására sarkallhatja a jogalkotót, tovább bonyolítva a már egyébként is komplex szabályozási környezetet.[15]

A másik levonható következtetés, hogy a DSA tervezetben felvázolt definíció máshova helyezi a hangsúlyt, az OECD fogalommeghatározásával ellentétben nem a felhasználói csoportok összekapcsolását, hanem az információ nyilvános terjesztését helyezi a középpontba. Kizárja tehát azokat a szolgáltatásokat, mint az alkalmazásboltok (Apple Store vagy Google Pay), a fizetési szolgáltatók

- 71/72 -

(PayPal), illetve az azonnali üzenetküldő szolgáltatások (Whatsapp, Viber), ahol a felhasználói csoportok létrehozása nem meríti ki a nyilvánosság követelményét. A tervezet tovább szűkíti az online platformok által lefedett szolgáltatások körét, amikor arról is rendelkezik, hogy ha az információk nyilvános terjesztése csupán egy másik szolgáltatás jelentéktelen és kizárólag kiegészítő eleme, amely - objektív technikai okokból - nem használható a másik, fő szolgáltatás nélkül, akkor e szolgáltatásokat nem kell online platformnak tekinteni.[16] Ilyennek tekinti az online újságok által biztosított hozzászólási lehetőséget.

Az online platformok csoportján belül a DSA tervezete még példálózó jelleggel sem sorolja fel azokat a szolgáltatástípusokat, amelyekre a szabályozás várhatóan kiterjed majd. A szabályok tartalmából azonban arra következtethetünk, hogy a következő néhány szolgáltatástípus mindenképp a rendelet hatálya alá fog tartozni: közösségi média szolgáltatás, videómegosztóplatform-szolgáltatás, online piacterek, szállásközvetítő, illetve fuvarközvetítő oldalak.

A javaslat szerkezeti felépítése a következő: az 1. rész azokat az általános szabályokat fekteti le, amelyek a közvetítő szolgáltatók összes típusára irányadóak, a 2. rész a szolgáltatók egy szűkebb kategóriájával, a tárhelyszolgáltatókkal - ideértve az online platformokat is - kapcsolatos rendelkezéseket tartalmazza, míg a 3. rész már csak az online platformokra vonatkozó különös szabályokat tartalmazza.

2.2.1. Valamennyi közvetítő szolgáltatóra vonatkozó rendelkezések

A közvetítő szolgáltatók kötelesek lesznek ún. kapcsolattartó pontokat létrehozni, amelyeken keresztül minden tagállam fel tudja venni velük a kapcsolatot. A harmadik országokban székhellyel rendelkező szolgáltatók ezen felül kötelesek valamelyik tagállamban jogi képviselőt kijelölni, aki (amely) adott esetben akár felelősségre is vonható a szolgáltató mulasztásaiért, jogsértéseiért. Nagy hangsúlyt helyez a javaslat a felhasználók megfelelő tájékoztatására is, ami a felhasználási feltételek megszövegezésére vonatkozó szabályokban, valamint az átláthatósági jelentések elkészítésére vonatkozó követelményekben ölt testet. Emiatt minden közvetítő szolgáltatónak kötelessége úgy megszövegezni a felhasználási feltételeit, hogy a felhasználó tisztában legyen a tartalomkezelés rendjével. A felhasználási feltételeknek tehát szólniuk kell a szolgáltató tartalommoderálási gyakorlatáról, az algoritmikus döntéshozatalról, valamint az emberi felülvizsgálatról.[17] A felhasználók tájékoztatását szolgálják

- 72/73 -

az átláthatósági jelentésekben, melyekben a szolgáltatóknak évente be kell számolniuk a tartalommoderálási tevékenységükről.

2.2.2. A tárhelyszolgáltatókra vonatkozó rendelkezések

A tárhelyszolgáltatóknak lehetővé kell tenniük, hogy a felhasználók, illetve bizonyos személyek és szervezetek bejelentést tehessenek, amennyiben jogellenes tartalmat észlelnek. A tartalmakat feltöltő felhasználókat védő szabály ugyanakkor az, hogy a szolgáltatókat indokolási kötelezettség terheli, ha a szolgáltató törli azokat, vagy korlátozza az azokhoz való hozzáférést.[18]

2.2.3. Az online platformokra vonatkozó rendelkezések

Csak az online platformokat terheli az a kötelezettség, hogy olyan belső panaszkezelési rendszert működtetnek, amelynek az igénybe vételével a felhasználók jelezhetik, ha nem értenek egyet a szolgáltató tartalomeltávolítással, a hozzáférés korlátozásával, a fiók felfüggesztésével vagy törlésével kapcsolatban hozott döntésével.[19] A platformoknak azt is biztosítaniuk kell, hogy a felhasználók másik fórumhoz fordulhassanak, ha nem értenek egyet a belső panaszkezelési eljárás kimenetelével. A javaslat elsősorban a peren kívüli vitarendezést tartja követendőnek.[20]

3. Gyermekvédelem a magyarországi médiaszabályozásban

A Digitális Gyermekvédelmi Stratégia,[21] amelyet a 1488/2016. (IX. 2.) Korm. határozattal fogadott el Magyarország Kormánya, a hazai gyermekvédelmi megoldásoknak két nagyobb csoportját határozza meg:

1. Az egyik csoportot az aktív védelmi megoldások, azaz a prevencióra, a tartalomkorlátozásokra, illetve tilalmakra épülő intézkedések alkotják.

2. A másik csoportot a megtörtént károkra reagáló, úgynevezett reparativ megoldások alkotják. Ide tartoznak a káros tartalmak esetében a médiajogi szabályok megsértése esetén alkalmazott közigazgatási jogi szankciók, a

- 73/74 -

jogellenes tartalmak esetében pedig a tartalom eltávolítására irányuló eljárások, a polgári jogi, illetve büntetőjogi eszközök.

A hazai médiaszabályozás három legfontosabb eszköze a sajtószabadságról és a médiatartalmak alapvető szabályairól szóló 2010. évi CIV. törvény (Smtv.), a médiaszolgáltatásokról és a tömegkommunikációról szóló 2010. évi CLXXXV. törvény (Mttv.), valamint az elektronikus kereskedelmi szolgáltatások, valamint az információs társadalommal összefüggő szolgáltatások egyes kérdéseiről szóló 2001. évi CVIII. törvény (Ekertv.). Az Smtv. azokat az általános szabályokat rögzíti, amelyeket az összes médiaszolgáltatásra, tehát az audiovizuális médiaszolgáltatásokon túl a nyomtatott és az online sajtótermékekre, valamint a rádiós médiaszolgáltatásokra is alkalmazni kell, míg az Mttv. tartalmazza az audiovizuális (lineáris és lekérhető) médiaszolgáltatásokra vonatkozó részletes szabályokat. Az Ekertv. a videómegosztó-platformokra vonatkozó szabályokat bontja ki.

3.1. Az audiovizuális médiaszolgáltatásokra vonatkozó szabályok és a sokat vitatott pedofiltörvény

Az Smtv. a kiskorúak védelmére vonatkozóan csak egy általános, a médiajogi gyermekvédelem egészén átívelő alapvető szabályt rögzít, az AVMS irányelv szabályaival teljesen összhangban. Eszerint a médiaszolgáltatásban a kiskorúak szellemi, lelki, erkölcsi vagy fizikai fejlődését veszélyeztető médiatartalom csak úgy tehető közzé, ha biztosított, hogy a kiskorúak rendes körülmények között nem láthatják vagy hallhatják azt.[22]

Az Smtv.-ben megfogalmazott alapelv mentén az Mttv. rögzíti azokat a részletszabályokat, amelyeknek az audiovizuális médiaszolgáltatóknak meg kell felelniük. A médiajogi gyermekvédelem kiemelt helyét az is jól mutatja, hogy a kiskorúak védelmére vonatkozó szabályok rögtön az első fejezetben kaptak helyet. Az Mttv. külön szabályokat fogalmaz meg a televíziós (lineáris), valamint a lekérhető szolgáltatásokra. A lineáris médiaszolgáltatásokban a gyermekvédelem legfontosabb eszköze a korhatári besorolás, amely alapján a műsorszolgáltatók a hat különböző korhatárjelzés egyikével kötelesek ellátni a műsorszámaikat. E rendelkezéshez kapcsolódik az új gyermekvédelmi törvény legvitatottabb rendelkezése, amely alapján azok a műsorszámok, amelyek "meghatározó eleme az erőszak, a születési nemnek megfelelő önazonosságtól való eltérésnek, a nem megváltoztatásának, valamint a homoszexualitásnak a népszerűsítése, megjelenítése, illetve a szexualitás közvetlen, naturális

- 74/75 -

vagy öncélú ábrázolása" automatikusan a tizennyolc éven aluliak számára nem ajánlott minősítésnek megfelelő, V. kategóriába sorolandók.[23] Ezek a műsorszámok csak este 22 és reggel 5 óra között tehetők közzé, a sajtóban megjelent álláspontokkal ellentétben tehát teljes tilalomról nincsen szó.

Az Mttv. rendelkezik arról is, hogy az V. és VI. korhatári kategóriába sorolandó tartalmakat lekérhető szolgáltatások esetében is korhatári jelzéssel kell ellátni.[24] E szakasz szól arról is, a kiskorúak hozzáférését a szolgáltatóknak hatékony műszaki megoldások alkalmazása révén kell korlátozniuk.[25] Arról, hogy milyen műszaki megoldás minősül hatékonynak, a törvény már nem ad eligazítást, csupán utal arra, hogy e tárgyban a Médiatanács ajánlást tesz közzé.

A Médiatanács ennek megfelelően 798/2011. (VI. 22.) számú határozatával ajánlást adott ki a kiskorúak védelmében alkalmazható hatékony műszaki megoldásokról.[26] A dokumentum csak a lineáris és lekérhető médiaszolgáltatásokra vonatkozik, a videómegosztókra és közösségi média platformokra a benne foglalt javaslatok nem terjednek ki. A dokumentum, ajánlás jellegénél fogva nem bír normatív erővel, célja az önkéntes jogkövetés elősegítése, a jogszabályi rendelkezések érvényesülésének az előmozdítása, valamint a médiatanácsi jogalkalmazói gyakorlatnak a jogalanyok számára követhetővé és előreláthatóvá tétele.

Az ajánlás külön részt szentel a műsorterjesztők, a mobil hírközlési szolgáltatók, valamint a vezetékes és mobil internet-szolgáltatók által kínált lineáris és lekérhető médiaszolgáltatásoknak és mindegyiküknek különféle gyermekzár-megoldások alkalmazására tesz javaslatot.

A digitális műsorterjesztés szolgáltatások esetén az ajánlás a gyermekzár funkcióval rendelkező set-top-boxok és CAM modulok használatát javasolja azzal, hogy a VI. kategóriába tartozó műsorszámokat tartalmazó csatornákhoz való hozzáférés korlátozása alapértelmezett beállítás legyen. Ez az ún. opt-out típusú védelem azt jeleni, hogy a szóban forgó műsorszolgáltatásokhoz való hozzáférés korlátozott és a felhasználónak kifejezetten rendelkeznie kell a tiltás feloldásáról.

A digitális műsorszolgáltatás keretében nyújtott lekérhető szolgáltatások esetében a szolgáltatás nyújtójának azt is javasolt biztosítania, hogy az V-VI.

- 75/76 -

kategóriákba tartozó műsorszámok ne jelenhessenek meg a tartalomjegyzékben. A mobil hírközlési szolgáltatók által nyújtott lineáris és lekérhető szolgáltatások esetében javasolt az opt-out típusú védelem alkalmazása, amelynek kikapcsolásáról a felhasználónak külön szükséges rendelkeznie.

Az internet-hozzáférésen elérhető lineáris és lekérhető médiaszolgáltatások esetén a metatagek alkalmazását tartja hatékony műszaki megoldásnak az ajánlás. Javasolt tehát, hogy a szolgáltatók a forráskódban olyan azonosítót (metataget) helyezzenek el, amely segítségével a szűrőszoftver a káros médiatartalmat elérhetetlenné teszi. A szűrőszoftver előre beállított kulcsszavak alapján szűri a káros tartalmakat, annál hatékonyabb tehát a szűrés, minél több kulcsszó szerepel a szűrőszoftverben, illetve minél több kulcsszóval jelöli meg a gyermekeknek nem való tartalmat a szolgáltató.

Jól látható, hogy az ajánlás - az opt-out típusú megoldások kivételével - olyan intézkedések megtételét javasolja, amelyeknek az eredményességéhez nagy mértékben hozzájárul a felhasználói tudatosság. Ahol a felhasználóknak maguknak kell aktiválniuk a gyermekzár funkciót (opt-in típusú védelmi rendszer), illetve telepíteniük a szűrőszoftvert, ott a felhasználói és a szolgáltatói védelem lényegében kiegészítik egymást. Hiába biztosít tehát a szolgáltató számos gyermekvédelmi lehetőséget, ha a felhasználók maguk nem élnek ezek használatával.

A médiatudatosság szerepének jelentőségére reflektálva a Médiatanács a műszaki ajánlásokon felül a médiatudatosság növelésével kapcsolatos javaslatokat is megfogalmazott. A szolgáltatóknak így javasolt feltüntetni internetes oldalukon a gyerekzár megoldások működését, illetve negyedévente hírlevésben, számlalevélben, társadalmi célú reklámban javasolt felhívniuk a figyelmet a tudatos médiahasználatra. A médiatartalom megjelenítésével kapcsolatban az ajánlás a következőket fogalmazza meg:

• A forráskódban elhelyezett metatagnek egyértelműen utalnia kell a médiatartalom korhatári kategóriájára (pl. age=18).

• A médiaszolgáltató a tartalom elérésére szolgáló oldal megjelenítésénél - illetőleg a lekérhető médiaszolgáltatást, annak tartalmát bemutató tartalomjegyzékben vagy más felületen - optikai azonosítással lássa el az érintett médiatartalmat.

• A médiaszolgáltatónak életkor-ellenőrzést kell alkalmaznia a műsorszám megjelenítése előtt (pl. jelenítsen meg egy kérdést, amelyben a néző életkorát ellenőrzi: "Ön elmúlt már 18 éves? Igen - Nem").

• A médiaszolgáltatónak az életkor-ellenőrzéssel egyidejűleg ajánlott felhívnia a figyelmet a kiskorúakra vonatkozó veszélyekre.

- 76/77 -

A médiatudatosság fejlesztésről szóló javaslatok kapcsán ki kell emelni, hogy azoknak célja pusztán a felhasználók tájékoztatása az elérhető lehetőségekről és nem a hozzáférés-korlátozás. A tájékoztatás elhelyezése önmagában nem jelent visszatartó erőt egy kíváncsi gyermek számára és a káros tartalmak fogyasztását nem feltétlenül az életkor-ellenőrzés akadályozza meg (hiszen a biztonsági kérdésen könnyedén túl lehet lépni).

3.2. A videómegosztó-platformokra vonatkozó szabályok

Magyarországon az AVMS irányelv rendelkezéseit az Ekertv. ültette át. Az átültetett szabályok alapján a magyar videómegosztók is kötelesek bizonyos védelmi intézkedéseket megtenni, ha a rajtuk található műsorszámok, felhasználók által létrehozott videók vagy kereskedelmi közlemények alkalmasak a kiskorúak fizikai, szellemi, lelki vagy erkölcsi fejlődésének károsítására.[27] Kifejezetten a kiskorúak védelmét biztosító intézkedésként nevesíti a törvény a hatékony életkor-ellenőrzést, valamint a szülői felügyeleti rendszereket.[28] A hatékonyság kérdésével kapcsolatban a törvény annyit rögzít, hogy azok az életkor-ellenőrző és szülői felügyeleti rendszerek hatékonyak, amelyek a felhasználók valós életkorának ellenőrzése alapján képesek megakadályozni a hozzáférést.[29] A valós életkor megállapítására utalás vélhetőleg azt jelenti, hogy a mindenfajta azonosítást mellőző ellenőrző kérdéshez kötött hozzáférés nem minősíthető hatékony védelemnek, hiszen ezeknél a felhasználók nagyon könnyen hazudhatnak a tényleges életkorukról. Tényleges információ azonban nem áll rendelkezésre arról, hogy miként értelmezi a Médiatanács ezt a követelményt, hiszen a videómegosztók számára nem készült ajánlás a hatékony műszaki védelmi intézkedésekről.

3.3. A médiatartalomnak nem minősülő online tartalmakra vonatkozó szabályok

Az Ekertv. olyan rendelkezéseket is tartalmaz, amelyek kiskorúak védelmével kapcsolatos intézkedések bevezetésére kötelezik a videómegosztónak nem minősülő információs társadalmi szolgáltatást nyújtó szolgáltatókat is. A médiatartalomnak nem minősülő olyan információ, amely súlyosan károsíthatja a kiskorúak szellemi, lelki, erkölcsi vagy fizikai fejlődését, csak az

- 77/78 -

információ megjelenítése előtt közzétett figyelmeztető jelzéssel, továbbá az aloldal forráskódjában szereplő olyan azonosítókkal (metatag) tehető közzé, amelyek utalnak a tartalom kategóriájára, és amelyek szűrőszoftverek által felismerhetők.[30] Ezekre a jelzésekre, címékre Kóczián Sándor szerint a szülői ellenőrző rendszerek hatékony működése érdekében van szükség, és a címkézésnek mind a lekérhető műsorszámok, mind az online tartalmak esetében két fajtáját különbözteti meg:

• a leíró címkézést (descriptive labelling), amely a tartalomra vonatkozó információkat mutatja be és

• az értékelésen alapuló címkézést (evaluation of content), amely esetében a tartalom elemzése során kerül megállapításra, hogy mely életkorú kiskorú számára alkalmas.[31]

Kiss Ferenc[32] a leíró címkézés alkalmazását hasznosabbnak tartja, mivel a tartalmat leíró jelzések univerzálisan használhatóak. Véleményem szerint azonban, noha a leíró kategóriák hasznos tájékoztatást adnak, mégsem nyújtanak önmagukban kellő információt a fogyasztóknak. A leíró jelzések például nem differenciálnak a befogadó érettsége szerint, így például "a műsorszám erőszakot tartalmaz" kategória egyaránt ráillik egy horrorfilmre és egy szuperhősökről szóló rajzfilmre. Az egyes leíró kategóriák értelmezése lehet ország- és egyénfüggő, vannak országok, melyekben az ártalmasság szempontjából differenciálnak az erotikus tartalom, illetve a pornográf tartalom között. Ezért úgy gondolom, hogy a leíró jelzéseket célszerűbb kiegészítő jelleggel a korhatárjelzéssel együtt alkalmazni. Erre épül a hollandok által fejlesztett minősítési rendszer, a Kijkwijzer, melyet több európai ország is átvett, és amely lineáris, lekérhető és online tartalmak esetében is megfelelő értékelési rendszert biztosít.

Annak érdekében, hogy az Ekertv.-ben foglalt intézkedéseket a szolgáltatók a lehető leghatékonyabban tudják megvalósítani, 2014-ben létrejött a Gyermekvédelmi Internet Kerekasztal, amely a Nemzeti Média- és Hírközlési Hatóság (a továbbiakban: NMHH) elnökének tanácsadó testülete. A Kerekasztal ajánlást fogadott el a szűrőszoftverekkel és a káros internetes

- 78/79 -

tartalmak esetén alkalmazandó figyelemfelhívásokkal kapcsolatban.[33] A testület javaslattevő, véleményező funkciót tölt be és fő feladatai a kiskorúak védelmét szolgáló jogszabályi előírások hatályosulásának ösztönzése és támogatása, ajánlások, állásfoglalások kiadása, valamint médiatudatosságot növelő intézkedések kezdeményezése. A szervezet által kiadott ajánlások nem kötelező erejű jogi normák, így a szolgáltatóknak nem kell alkalmazniuk az azokban leírtakat, ezen felül sem az NMHH Hivatala, sem a Médiatanács nem hivatkozhat döntései indokolásaként ezekre a dokumentumokra. Míg a Médiatanács hatékony műszaki intézkedésekről szóló ajánlásának címzettjei a médiatartalom-szolgáltatók, a Kerekasztal ajánlása egyrészt azoknak a szereplőknek szól, akik lehetővé teszik harmadik személyek tartalmainak az átvitelét saját hálózatukon keresztül (internet-hozzáférés-szolgáltatók), illetve, amelyek nem médiatartalomnak minősülő tartalomszolgáltatást nyújtanak (információs társadalommal összefüggő szolgáltatások és e-kereskedelmi szolgáltatások nyújtói).

Az ajánlás a médiatartalomnak nem minősülő, kiskorúak fejlődését súlyosan károsító tartalmak (pl. felhasználók által előállított videók) esetében olyan figyelemfelhívó jelzések megjelenítését javasolja, amelyek alkalmasak lehetnek a hozzáférés megakadályozásra. Ilyen jelzések:

• az információ megjelenítése előtt közzétett figyelmeztető jelzés,

• életkor-ellenőrző kérdés, amelynek révén a szolgáltató eldöntheti, hogy az adott felhasználó jogosult-e megtekinteni az adott tartalmat,

• az oldal forráskódjában elhelyezett metatag, mely egyértelműen utal a tartalom káros voltára (pl. age=18), és amelyet a szűrőszoftverek felismernek,

• a kiskorúakra káros tartalom optikai azonosítása a tartalmakat bemutató tartalomjegyzékben vagy más felületen, pl. URL címsorban.

A törvény úgy rendelkezik, hogy ha a szolgáltató nem tesz eleget a figyelmeztető jelzés használatára, illetve a metatagek alkalmazására vonatkozó követelményeknek, a Kerekasztalhoz lehet fordulni, amely a bejelentéseket megvizsgálja és tapasztalatait tevékenysége során felhasználja. A Kerekasztal a beérkezett bejelentések alapján egyedi ügyeket is vizsgálhat, tapasztalatai alapján ajánlást vagy állásfoglalást adhat ki. A Kerekasztal által kiadott ajánlások, illetve állásfoglalások azonban nem kötelezőek, csak iránymutatás jellegűek, ezért ha egy szolgáltató nem felel meg az Ekertv.-ben foglalt rendelkezéseknek, annak

- 79/80 -

gyakorlatilag nincs jogkövetkezménye. Noha az ajánlást a magyar joghatóság alatt álló szolgáltatók nagy része átültette, ennek ellenére nem mondható, hogy a kiskorúak káros tartalmaktól való védelme megvalósult volna. A Videa elnevezésű videómegosztóplatform-szolgáltatásban ugyan megjelenik figyelemfelkeltő jelzés az V. és VI. korhatári kategóriába, vagyis a 18 éven aluliak számára nem ajánlott tartalmak esetében, ugyanakkor ezen egyszerűen túl lehet lépni, maga a weboldal pedig regisztráció nélkül látogatható.

4. Megoldásra váró kihívások a médiajogi gyermekvédelem rendszerében

A médiajogi gyermekvédelem számos sebből vérzik, míg a televíziós szolgáltatások szabályozására még mindig jelentős médiafigyelem fordul, az online térben jelentkező problémák nehezen jutnak el a köztudatba. A gyermekvédelemmel összefüggő szabályozási és jogalkalmazási kihívásokat alapvetően öt témakör köré csoportosíthatjuk:

• a médiatudatosság jellemzően alacsony szintje,

• elavult műszaki megoldások,

• szürke zónák az ártalmas tartalmak körében,

• a szolgáltatásnyújtás szabadsága és az online tartalomterjesztés globális jellege,

• a magánpiaci szereplők jelentős befolyása a tartalommoderálásban.

4.1. A médiatudatosság jellemzően alacsony szintje

Annak ellenére, hogy számos ajánlás előírja a tudatosságnövelést, a magyar társadalom digitális tudatossága még napjainkban sem erős. Az Információs Társadalom Kutatóintézet (ITKI) 2019 óta vizsgálja a magyarok szűrőszoftver-alkalmazását. Az ITKI 2020-as jelentésében a szűrőszoftver-alkalmazás alacsony szintjéről számolt be, eszerint a gyermeket nevelők 61%-a semmilyen internetes szűrőszoftvert nem használ.[34]

Az ITKI intézet eredményeit támasztja alá a Gyermekvédelmi Internet Kerekasztal 2020-as beszámolója is,[35] amely problémaként azonosítja a szülői digitális

- 80/81 -

ismeretek rendkívül alacsony fokát. Ennek javítása érdekében a 2020 elején indult el az NMHH által üzemeltetett gyerekaneten.hu weboldal, amelynek célja a tudatosságfejlesztés. Az oldal ugyan hasznos információgyűjtemény, nem veszi azonban figyelembe azt, hogy az információs környezetben mozgó felhasználóknak gyakran igényük sincs arra, hogy képezzék magukat. Az ITKI 2020-as kutatása azt is vizsgálta, hogy milyen mértékben képezik magukat a felhasználók, hogy tájékozottak legyenek az online tér kihívásaival kapcsolatban. A kutatás eredményei azt mutatták, hogy a teljes lakosságnak mindössze a 28%-a képezi magát, a legtöbben (52,6%) barátoktól kapott információkból tájékozódnak, míg az önmagukat fejlesztők közel fele (47%) szakcikkeket is olvas.[36]

4.2. Elavult műszaki megoldások

Az online elérhető káros tartalmak vonatkozásában a Kerekasztal fentebb hivatkozott ajánlása a gyermekzár funkció mellett a figyelmeztető jelzések elhelyezését, illetve az ellenőrző kérdés feltételét tartja követendőnek. A gyermekzár funkció eredményes működéséhez aktív és tudatos szülői magatartás szükséges, így műszakilag hiába megfelelő egy-egy ilyen rendszer, felhasználói közreműködés nélkül nem alkalmas a kívánt cél elérésére. A műszaki megoldások másik csoportja, a tájékoztatásra hangsúlyt helyező eszközök (így a figyelmeztető jelzés és az ellenőrző kérdés) azonban nem alkalmasak arra, hogy a hozzáférést hatékonyan megakadályozzák, hiszen semmi nem korlátozza a kíváncsi kiskorúakat abban, hogy hamis életkort adjanak meg, vagy továbblépjenek a megtekinteni kívánt tartalomra.

Joggal merül fel a kérdés, hogy ha a tájékoztatók elhelyezése és az életkor-ellenőrző kérdés elhelyezése nem alkalmas a kiskorúak hozzáférésének megakadályozására, akkor milyen megoldás az, ami visszatartó erővel bírhat. Az elterelést az alábbi megoldások szolgálhatják:

• A tartalom megtekintésének regisztrációhoz, felhasználói fiók létrehozásához kötése, amely főként a pillanatnyi kíváncsiságból böngészőket tántoríthatja el azzal, hogy pluszlépésekhez kapcsolja a tartalomhoz való hozzáférést.

• Erősebb védelmet biztosít, ha a regisztráció tényleges életkor-ellenőrzéssel jár együtt, amelyhez személyazonosító okmányok adatainak megadása szükséges.

• Az egyedi tartalomhoz való hozzáférés díjfizetéshez, bankkártyaadatok megadásához kötése (pay-per-view) szintén visszatartó lehet a kiskorúak

- 81/82 -

számára, akik még nem rendelkeznek saját bankszámlával és pénzeszközökkel.

• A szolgáltatás egészének díjfizetésessé tétele. A legtöbb lekérhető szolgáltatás igénybevétele manapság előfizetéses konstrukció keretében történik, amelynek előfeltétele a felhasználó és a szolgáltató közötti szerződéskötés is.

Az arányosság követelményére figyelemmel, legalább a legkárosabb tartalmakat kínáló oldalak esetében megfontolandó a szigorúbb védelmi intézkedések bevezetése, noha technikai oldalról ezek napjainkban még nehezen kivitelezhetők. A felnőtteknek szóló, pornográf tartalmak esetében az Egyesült Királyság és Franciaország hatékony életkor-ellenőrzésre épülő megoldások bevezetésére törekszik, változó sikerrel.

Az Egyesült Királyság 2019-ben fogadta el a köznyelvben "pornóblokkolásként" elhíresült intézkedéscsomagot, amely végül nem váltotta be a hozzá fűzött reményeket. A Digital Economy Act harmadik, online pornográfia címet viselő része olyan életkor-ellenőrző rendszerek alkalmazását írja elő, amelyek alkalmasak arra, hogy megállapítsák a szolgáltatás igénybevevőjének tényleges életkorát.[37] A technikai megvalósítás mikéntjéről a jogszabály nem szól, ugyanakkor a szóba jöhető lehetőségek komoly adatvédelmi aggályokat vetnek fel. A legkézenfekvőbb módja az életkor ellenőrzésének az életkor-ellenőrző szoftvereket gyártó cégek (AgeID, AgeChecked, AgePass) szolgáltatásainak az igénybevétele. Ezek a szolgáltatók hitel- és bankkártyaadatok, személyazonosító okmányok adatai alapján azonosítják a felhasználókat.[38] Mivel a brit jogszabály ezekkel a harmadik személyek által nyújtott szolgáltatásokkal szemben nem fogalmaz meg követelményeket, a kritikusok szerint működésük kiszámíthatatlan, adatkezelésük pedig kockázatos.[39] Hátránya továbbá, hogy ezt a fajta műszaki védelmi intézkedést viszonylag könnyű kijátszani, ugyanis a rendszer IP cím alapján azonosítja be a felhasználó tartózkodási helyét és dönti el, hogy ez alapján helye van-e szigorú életkor-ellenőrzésnek. Az akár ingyenesen is igénybe vehető VPN szolgáltatásokkal azonban még egy gyermek is könnyen meg tudja kerülni a védelmet.

- 82/83 -

A törvényi rendelkezések betartásának ellenőrzésére a Digital Economy Act életkor-ellenőrző hatóság kijelölését is előírja, amely akár 250.000 angol fontig, illetve az érintett szolgáltató összbevételének 5 százalékáig terjedő bírságot is kiszabhat.[40] A hatóság továbbá értesítheti a jogsértő szolgáltatóval együttműködő fizetési szolgáltatókat a jogsértésről és javasolhatják, hogy függesszék fel az ezeknek a platformoknak és felhasználóiknak nyújtott szolgáltatást, annak érdekében, hogy ellehetetlenítsék a szolgáltatás igénybevételéért való fizetést.[41]

Franciaország 2021-ben fogadta el a családon belüli erőszakról szóló 2020-936-as törvény[42] végrehajtását szolgáló 2021-1306 sz. 2021. október 7-i rendeletet,[43] amely a hozzáféréskorlátozás részletszabályait rendezi. A hivatkozott törvény azt mondja ki, hogy a francia médiahatóság, a Conseil supérieur de l'audiovisuel (CSA) felhívhatja az online pornográfiát kínáló szolgáltatókat arra, hogy akadályozzák meg a kiskorúak hozzáférését a felnőtt tartalmakhoz, amelynek a szolgáltatóknak 15 napon belül eleget kell tenniük megfelelő műszaki megoldások alkalmazásával.[44] A rendelet alapján a CSA ajánlásokat ad ki azokról a megbízható műszaki megoldásokról, amelyek segítségével biztosítható az életkor-ellenőrzés. A francia adatvédelmi hatóság (La Commission nationale de l'informatique et des libertés) álláspontja szerint azonban a felhasználók magánélethez való jogával, illetve az információhoz való hozzájutás szabadságával összeegyeztethetetlen a felhasználók személyes adatai útján történő életkor-ellenőrzés, hiszen ezek magukban foglalják azt a jogot is, hogy valaki álnéven, illetve személyazonosságát elrejtve böngészhessen pornográf tartalmakat.

A hatékony életkor-ellenőrzés kérdése a legtöbb országban tehát még megoldásra váró feladat, ugyanakkor a piacon már találkozhatunk figyelemre méltó kezdeményezésekkel. Az egyik ilyen kezdeményezés a mesterséges intelligencián alapuló arcfelismerő szoftverek alkalmazása az azonosításban (pl.

- 83/84 -

Yoti, VerifyMyAge).[45] Az ilyen eszközöknek a működési elve, hogy a szolgáltatás igénybe vevőjének az azonosításhoz be kell kapcsolnia a készülékén található kamerát, az algoritmus pedig meghatározza a felhasználó életkorát. Egy másik hasonló kezdeményezés az ún. életkor-tokenek használatára irányul, amelyek az online adatvédelmet is segítik.[46] E technológia lényege, hogy a felhasználónak a személyes adatait csak egy alkalommal és csak egy szolgáltatónak kell megadnia, amely előállít számára egy digitális azonosítót (pl. QR kódot), amellyel igazolható az életkor.

4.3. Szürke zónák az ártalmas tartalmak körében

A büntetőjogi szankcióval fenyegetett jogellenes tartalmak esetében a kriminalizálás viszonylag széleskörű társadalmi konszenzuson nyugszik, például a gyermekpornográfia és a gyűlöletkeltő tartalmak terjesztését a polgárok szinte egyöntetűen elítélik. A kiskorúakra ártalmas tartalmak esetében már korántsem találunk ekkora egyetértést. A tartalmak ártalmasságukon alapuló besorolását a nemzeti és kulturális sajátosságok jelentős mértékben befolyásolják, a kiskorúakra ártalmas tartalmak köréről tehát taxatív listát nem is lehetséges felállítani. Az AVMS irányelv a legkárosabb tartalmakra is csak példát hoz, ezek az öncélú erőszak és a pornográfia.[47] Ezen túlmenően nehezen találhatunk iránymutatásokat arra vonatkozóan, hogy mely tartalmak ártalmasak.

Az AVMS irányelvben megjelenik néhány kereskedelmi közleményekkel kapcsolatos szabály, amely irányadó lehet akár a többi médiatartalom vonatkozásában is. Az alkoholtartalmú italokat népszerűsítő kereskedelmi közlemények nem ábrázolhatnak kiskorú fogyasztókat, dohánytermékek, vényköteles gyógyszerek és gyógyászati segédeszközök egyáltalán nem reklámozhatók és tilos az emberi méltóságot sértő kereskedelmi közlemények megjelenítése is. Tájékozódási pontot jelenthetnek még a tartalmi leíró rendszereket működtető szervezetek által meghatározott kategóriák. A már korábban említett Kijkwijzer rendszer például külön figyelmeztetést tartalmaz a félelemkeltő tartalmakra, illetve a kábítószerhasználatra, valamint a trágár nyelvezetre. Fontos kiemelni, hogy ezek a tartalmat leíró címkézések alapvetően a klasszikus

- 84/85 -

műsorszolgáltatási környezetben alakultak ki, így leginkább a hagyományos, professzionális vállalkozások által gyártott, jellemzően fikciós, műsorszámnak minősülő tartalmakra szabottak.

Az online környezet felhasználók által előállított tartalmai azonban sokkal színesebb képet mutatnak és több olyan ártalmas tartalomtípust fedezhetünk fel közöttük, amely nem jelenik meg a Kijkwijzerhez hasonló kategorizáló rendszerekben. Ezek a tartalmak abba az igen jelentős szürke zónába tartoznak, ahová az olyan tartalmak sorolhatók, amelyek a jogellenesség szintjét még nem érik el, mégis ártalmasnak tekintendők. Ide tartoznak például a veszélyes magatartásra buzdító tartalmak, amelyek lehetnek fizikai sérüléssel, vagy egészségkárosodással járó kihívások (mint a TidePod challenge, amelynek a lényege mosókapszulák elfogyasztása volt), étkezési zavaroknak (pl. extrém fogyókúráknak) a népszerűsítése, az öngyilkosságra buzdítás, bűncselekmények elkövetésének népszerűsítése. A nagyobb online szolgáltatók (pl. a YouTube) igyekeznek fellépni az ilyen tartalmak ellen, jogszabályi előírások híján azonban ezt magánszabályozás keretében teszik meg, hiszen ilyen tartalmú kötelezettségük nincs.

4.4. Tagállami szabályok a globális virtuális térben

A hozzáférést korlátozó műszaki megoldások hatékonyságát az erősen fragmentált szabályozás is csökkenti. A határokon átívelő médiakörnyezetben bármilyen - tehát nem csak a kiskorúak védelmét érintő - tagállami szabály érvényesítése komoly akadályokba ütközik, amely főképp a médiaszolgáltatók honosságával hozható összefüggésbe. Az Unió területén a digitális belső piacon szabadon mozoghatnak az audiovizuális szolgáltatások is. Ez a gyakorlatban azt jelenti, hogy egy televíziótársaság, vagy streaming szolgáltató bármely tagállamban rendelkezik székhellyel, jogosult akár az összes tagállam területén szolgáltatást nyújtani. Ugyanez igaz a videómegosztóplatform-szolgáltatókra is. Az Európai Audiovizuális Obszervatórium MAVISE adatbázisa szerint jelenleg 120 olyan lineáris és lekérhető szolgáltató van,[48] amely külföldön telepedett le, de elsősorban Magyarországra szolgáltat. Az adatbázisban ezen felül 35 Európai Unióban letelepedett videómegosztóplatform-szolgáltatás szerepel, amelyek az EU egész területén elérhetőek.[49] Az

- 85/86 -

audiovizuális médiaszolgáltatásokról szóló uniós irányelv szabályai értelmében ezeknek a szolgáltatóknak - bizonyos kivételektől eltekintve - azon tagállam jogszabályainak kell megfelelniük, amelyben letelepedtek.

Lineáris és lekérhető szolgáltatások esetében van lehetőség arra, hogy a célország eljárást indítson a szolgáltató ellen, abban a tagállamban, ahol az letelepedett, de ez csak nagyon szűk körben lehetséges, akkor, ha a szolgáltató nyilvánvalóan, komolyan és súlyosan sérti az emberi méltóságot, a kiskorúak fizikai, szellemi vagy erkölcsi fejlődését. Az emberi méltóságot, illetve a kiskorúak fejlődését komolyan és súlyosan sértő tartalom kategóriája azonban meglehetősen szabadon interpretálható és nem mindig van egyetértés a tagállamok között a tekintetben, hogy mit minősítenek ilyen tartalomnak. A Médiatanács több alkalommal is eljárást indított külföldi honosságú televíziós szolgáltatókkal szemben (pl. 2021-ben a Family Guy,[50] 2015-ben a Való Világ,[51] korábban az Éden Hotel miatt), változó eredményességgel. Amennyiben a tagállamok között nem születik kölcsönösen kielégítő megállapodás és a jogsértés többszörös, a szolgáltatásnyújtás korlátozható, ha az Európai Bizottság úgy dönt, hogy egy ilyen intézkedés összeegyeztethető az uniós joggal. Mindezeknek az esélye igen csekély - főképp akkor, ha a magyar szabályozás tartalmával ideológiailag sem értenek egyet.

A videómegosztó-platformok működésének korlátozásával kapcsolatos eljárásrendet nem tartalmaz az AVMS irányelv, igaz, ezek esetében a szolgáltatásnyújtás szabadságával összefüggő rendelkezést sem találunk. Mindebből az következik, hogy a videómegosztók korlátozása a lineáris és lekérhető szolgáltatásokénál szabadabban megvalósítható.

Még nehezebb a tagállami szabályok alkalmazása abban az esetben, ha a szolgáltató nem az Európai Unió területén, hanem harmadik országban telepedett le, hiszen ebben az esetben még az irányelvi minimumszabályoknak sem köteles megfelelni. Ilyen szolgáltató a gyermekek körében népszerű videójátékos streamingplatform, a Twitch, vagy a rövid videóknak platformot biztosító TikTok, de számos felnőtt tartalom számára létrehozott platform is. Mivel ezeken a platformokon alapvetően nem lehet az uniós szabályok betartását számon kérni, kiemelten fontos lenne a szolgáltatók és az igénybe vétel helye szerinti ország közötti aktív párbeszéd kialakítása a panaszkezelést illetően. A korábban bemutatott DSA rendelettervezet révén az EU már

- 86/87 -

megtette az első lépést a párbeszéd kialakítása érdekében, hiszen arról rendelkezik, hogy azok a szolgáltatók, amelyek harmadik országból nyújtanak olyan szolgáltatást, amely az EU valamely tagállamában is igénybe vehető, kötelesek kapcsolattartási pontokat létrehozni.

4.5. A piaci szereplők túl nagy hatása a tartalommoderálásra

A kiskorúak káros tartalmaktól való védelmében nagy szerepe van a platformok magánszabályozásának, hiszen a sokféle tagállami jog mellett a szolgáltatók saját szabályai sokszor egységesítő és hézagkitöltő szerepet töltenek be. A platformok önszabályozásában ugyanakkor számos potenciális kockázat is rejlik. A piaci szereplők önszabályozásának hátránya, hogy a tagállamok nem látnak bele az egyes szolgáltatóknál zajló folyamatokba: nem átlátható az eljárás, melynek következtében az egyes tartalmak eltávolításra kerülnek, nem egyértelmű, hogy milyen mértékben automatizált az eltávolítás folyamata és nem került egyértelműen rendezésre az sem, hogy a felhasználó és a platform esetleges vitája esetén mely fórumhoz lehet fordulni.

A felhasználói bejelentésen felül lehetőség van a tartalmak eltávolítására bírósági határozatok alapján is. A bírósági határozatok természetesen elsősorban a tartalom közzétevőjét kötelezik a jogsértő tartalom törlésére, azonban amennyiben a kötelezett nem távolítja el a tartalmat, szükség lehet a tartalomnak tárhelyet adó közvetítő szolgáltató megkeresésére. Több platformszolgáltató, például a YouTube, honlapja azonban arról tájékoztatja a felhasználókat, hogy: "Minden bírósági végzést megvizsgálunk és számos helyi és globális szempont alapján értékeljük őket."[52] Ez azt sugallja, hogy a platformszolgáltató jogosult mérlegelni egy nemzeti bíróság jogerős döntését és ha a kötelezett felhasználó nem tesz eleget a döntésben foglaltaknak és a platformszolgáltató a nemzeti bíróságtól eltérő álláspontra jut, a kérdéses tartalom fent marad a platformon. Ez azért sem szerencsés, mert így a döntés kötelezettje az, aki kvázi felülvizsgálatot gyakorol, ahelyett, hogy a címzett szolgáltató letelepedési helye szerinti ország hatósága, vagy bírósága vizsgálná meg a megkeresésben foglaltak indokoltságát. A platform általi mérlegelés azért sem szerencsés, mert arról sincs ismeretünk, hogy a szolgáltató milyen mértékben ismeri az egyes helyi jogrendszerek sajátosságait, amelyre alapozva jogszerű és igazságos döntést tudna hozni.

- 87/88 -

5. Összegzés

Az előbbi részekben ismertetett problémák arra a következtetésre vezetnek, hogy a gyermekek védelme az online tér ártalmas tartalmaitól ma már nem egy-egy ország jogszabályain áll, vagy bukik. Sőt, a nemzetközi környezetben egy-egy körülhatárolt földrajzi területre érvényes szabályok sokszor igen keveset érnek, hiszen hatásuk nem érvényesül a határokon túlról nyújtott szolgáltatásokra. Álláspontom szerint azonban a helyi szinten jelentkező problémákra a válasznak inkább lokálisnak kell lennie, hiszen magával a jogsértéssel és a helyi normatív értékrenddel az az ország van a legszorosabb kapcsolatban, amelynek területén a sérelem okozása történt, míg a nagy globális szereplők nem tudják megfelelően értékelni a helyi kontextust, ami hibás döntésekre vezethet.

Fokozott szükség van tehát olyan jogi szabályozáson túli eszközökre, amelyek a helyi (tagállami) jogszabályok érvényesülését elősegítik. Ilyen jogi szabályozáson túli eszközök lehetnek keretkitöltő, soft law jellegű normák (például ajánlások, társszabályozási kódexek), amelyek a folyamatosan változó technológiai környezethez és az abban megjelenő állandóan megújuló ártalmas tartalmakhoz rugalmasan hozzáigazíthatók. Nem csak az ilyen soft law jellegű normák megalkotása fontos, hanem azok folyamatos aktualizálása is, hogy naprakészen tartalmazzák a legújabb trendekre reflektáló iránymutatásokat. A szabályozáson túli eszközök közé tartozik a hatékony kooperáció megteremtése, amely jelenti egyrészt a tagállamok egymás közötti együttműködésének erősítését, valamint a tagállamok és az olyan szolgáltatók közötti együttműködést, amelyek nagy hatást gyakorolnak a tartalommoderálásra. Ez az együttműködés nem csak az Európai Unión belül fontos, hanem az Unió tagállamai és harmadik országok között is, hiszen sok ártalmas tartalom tengerentúli platformokon jelenik meg, ezek pedig nem maradhatnak kezeletlenül. ■

JEGYZETEK

[1] Az Európai Parlament és a Tanács (EU) 2018/1808 irányelve (2018. november 14.) a tagállamok audiovizuális médiaszolgáltatások nyújtására vonatkozó egyes törvényi, rendeleti vagy közigazgatási rendelkezéseinek összehangolásáról szóló 2010/13/EU irányelvnek (Audiovizuális médiaszolgáltatásokról szóló irányelv) a változó piaci körülményekre tekintettel való módosításáról.

[2] Az Európai Parlament és a Tanács rendelete a digitális szolgáltatások egységes piacáról (digitális szolgáltatásokról szóló jogszabály) és a 2000/31/EK irányelv módosításáról.

[3] Az Európai Bizottság Zöld Könyve a kiskorúak és az emberi méltóság védelméről az audiovizuális és információs szolgáltatásokban.

[4] Polyák Gábor: Biztonság az interneten. Médiakutató, 2001/3, http://www.mediakutato.hu/cikk/2001_03_osz/05_biztonsag_az_interneten (2022. 05. 15.)

[5] AVMS 6a. cikk.

[6] Az Európai Parlament és a Tanács 2000/31/EK irányelve (2000. június 8.) a belső piacon az információs társadalommal összefüggő szolgáltatások, különösen az elektronikus kereskedelem, egyes jogi vonatkozásairól (Elektronikus kereskedelemről szóló irányelv).

[7] E-ker. irányelv 14. cikk.

[8] AVMS (25) preambulumbekezdés.

[9] AVMS 28b. cikk a).

[10] AVMS 28b. cikk b)-c).

[11] AVMS 28b. cikk (3).

[12] Az AVMS 1. cikk (1) aa) szerint olyan szolgáltatás, amelynek, vagy amely egy elválasztható részének vagy egy alapvető funkciójának elsődleges célja, hogy tájékoztatás, szórakoztatás vagy oktatás céljából elektronikus hírközlő hálózatokon keresztül olyan műsorszámokat, felhasználó által létrehozott videókat, vagy mindkettőt juttasson el a közönsghez, amelyekért a videómegosztó platform szolgáltatója nem tartozik szerkesztői felelősséggel.

[13] https://ec.europa.eu/commission/presscorner/detail/en/ip_22_2545 (2022. 05. 15.)

[14] OECD: What is an "online platform"? An Introduction to Online Platforms and Their Role in the Digital Transformation. Paris, OECD Publishing, 2019. 1-214.

[15] Gawer, Annabelle: Online Platforms: Contrasting perceptions of European stakeholders. A qualitative analysis of the European Commission's Public Consultation on the Regulatory Environment for Platforms 016. https://www.surrey.ac.uk/sites/default/files/2018-11/online-platforms-contrasting-perceptions-european-stakeholders-report.pdf (2022. 05. 15.)

[16] DSA (14) preambulumbekezdés.

[17] DSA 12. cikk (1).

[18] DSA 15. cikk.

[19] DSA 17. cikk (1).

[20] DSA 18. cikk.

[21] Magyarország Digitális Gyermekvédelmi Stratégiája http://www.kormany.hu/download/6/0e/c0000/Magyarorsz%C3%A1g%20Digit%C3%A1lis%20Gyermekv%C3%A9delmi%20Strat%C3%A9gi%C3%A1ja.pdf (2022. 05. 15.)

[22] Smtv. 19. § (2) bekezdés.

[23] Mttv. 9. § (6) bekezdés.

[24] Mttv. 11. § (1) bekezdés.

[25] Mttv. 11. § (2) bekezdés.

[26] A Médiatanács ajánlása a kiskorúak védelmében a lineáris és lekérhető médiaszolgáltatók által alkalmazandó hatékony műszaki megoldásokra. https://nmhh.hu/dokumentum/162607/hatekony_muszaki_megoldasok_kiskoruak_vedelmeben.pdf (2022. 05. 15.)

[27] Ekertv. 15/D. § (1) bekezdés a) pont.

[28] Ekertv. 15/F. § (2) bekezdés.

[29] Ekertv. 15/F. § (3) bekezdés.

[30] Kóczián Sándor: Gyermekvédelem a médiajogban. Budapest, Médiatudományi Intézet, 2014, 40-41.

[31] Uo.

[32] Kiss Ferenc: Tiltott gyümölcs. A kiskorúak védelme az Európai Unió médiajogában, valamint a védelem eszközei a lekérhető szolgáltatások terén. Infokommunikáció és Jog, 2017/Különszám, 26.

[33] A Gyermekvédelmi Internet-kerekasztal ajánlása a kiskorúakra káros internetes tartalmak és szolgáltatások esetén alkalmazandó figyelemfelhívó jelzésekre és szűrőszoftverekre http://nmhh.hu/dokumentum/162986/szuroszoftver_ajanlas.pdf (2022. 05. 15.)

[34] Rab Árpád - Török Bernát: Bizalom, tudatosság, veszélyérzet az interneten: Az NKE Információs Társadalom Kutatóintézet reprezentatív, országos felmérésének eredményei (2020). https://itki.uni-nke.hu/document/itki-uni-nke-hu/EJKK%20ITKI_Bizalom%20tudatoss%C3%A1g%20vesz%C3%A9ly%C3%A9rzet%20az%20interneten.pdf (2022. 05. 15.)

[35] A Gyermekvédelmi Internet Kerekasztal 2020. évi tevékenységéről szóló beszámolója. https://nmhh.hu/dokumentum/225723/beszamolo_gyermvedelmi_kerekasztal_2020_evi_vegleges.pdf (2022. 05. 15.)

[36] Rab-Török i. m. 34.

[37] Digital Economy Act, Part 3, 14(1) https://www.legislation.gov.uk/ukpga/2017/30/part/3/enacted (2022. 05. 15.)

[38] Burgess, Matt: This is how age verification will work under the UK's porn law. Wired, 2019. június 20. https://www.wired.co.uk/article/uk-porn-age-verification (2022. 05.15.)

[39] Burgess, Matt: The UK porn block, explained. Wired, 2019. október 16. https://www.wired.co.uk/article/porn-block-uk-wired-explains (2022. 05. 15.)

[40] Digital Economy Act, Part 3, 14(1) https://www.legislation.gov.uk/ukpga/2017/30/part/3/enacted (2022. 05. 15.) 17-20.

[41] Uo.

[42] LOI n° 2020-936 du 30 juillet 2020 visant à protéger les victimes de violences conjugales.

[43] Décret n° 2021-1306 du 7 octobre 2021 relatif aux modalités de mise œuvre des mesures visant à protéger les mineurs contre l'accès à des sites diffusant un contenu pornographique. https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000044173388?s=03 (2022. 05. 15.)

[44] LOI n° 2020-936 du 30 juillet 2020 visant à protéger les victimes de violences conjugales. Article 23.

[45] Snow, Jackie: Why Age Verification Is So Difficult for Websites. The Wall Street Journal, 2022. február 27. https://www.wsj.com/articles/why-age-verification-is-difficult-for-web-sites-11645829728 (2022. 05. 15.)

[46] Uo.

[47] AVMS irányelv 6a. cikk (1)

[48] http://mavise.obs.coe.int/f/ondemand/advanced?targetedcountries=90&countryofjurisdiction=9/18/23/88/52/53/56/60/66/69/54/82/97/92/98/118/112/116/117/132/144/145/155/158/162/173/172/62/170 (2022. 05. 15.)

[49] http://mavise.obs.coe.int/f/ondemand/advanced?typeofservice=4 (2022. 05. 15.)

[50] https://nmhh.hu/cikk/221211/Egyuttmukodes_a_cseh_tarshatosaggal_a_Film_Mania_es_a_Comedy_Central_felugyeleteben (2022. 05. 15.)

[51] https://nmhh.hu/cikk/165913/Eljarast_indit_a_Mediatanacs_a_Valo_Vilag_7_roman_joghatosag_alatt_allo_mediaszolgaltatojaval_szemben (2022. 05. 15.)

[52] https://support.google.com/youtube/answer/6156383?hl=hu&ref_topic=6154211 (2022. 05. 15.)

Lábjegyzetek:

[1] A szerző tudományos segédmunkatárs, NKE ITKI.

Tartalomjegyzék

Visszaugrás

Ugrás az oldal tetejére