Fizessen elő a Családi Jogra!
ElőfizetésTanulmányom második részében a gyermekek okoseszköz-használatával összefüggésben a mesterséges intelligencia (MI) és a gyermekjogok kapcsolatát vizsgálom. Használható-e és ha igen, hogyan, az érzelmi alapú mesterséges intelligencia a gyermekközpontú technológiákban?
Egyáltalán a technológia hogyan lehet gyermekközpontú? A technológia milyen mértékben generálja a törődést, a tárgyakkal való összefonódást, a tapasztalatszerzést, a tanulást és az emberi kapcsolatok közvetítésének újszerű módjait? A kérdések kapcsán felmerülő etikai aggályoknak jogi, gyermek fejlődéslélektani, adatvédelmi és fogyasztói aspektusai is vannak. A UNICEF ezeket az aspektusokat figyelembe véve dolgozta ki iránymutatását 2021-ben, majd aktualizálta követelményeit és átfogó ajánlásait 2023-ban,[1] melyek a policy és a gyakorlat körében fogalmaznak meg konkrét feladatokat a tagállamok részére. A gyermekjogi szemléletet tükröző iránymutatás, a követelmények és ajánlások az uniós jogalkotási folyamatokra is erős hatást gyakoroltak. Ezeket a nemzetközi és uniós törekvéseket abból a szempontból értékelem, hogy a gyermek legfőbb érdekét megjelenítő elvárások milyen hatással vannak az MI fejlődésére, a gyermek jogainak tiszteletben tartására és érvényesülésére a digitális térben. Végül egy bírósági ügy tanulságaival igazolom a gyermekek digitális térben való jelenlétének lehetséges következményeit és jogalkalmazásra gyakorolt hatásait.
Mi történt az 1990-es évek óta a mesterséges intelligencia technológiai fejlődésével, amely a gyermekek számára kiemelt kockázatot kezdett jelenteni? Mindannyian romantikus nosztalgiával emlékezünk még az 1996-ban, a világpiacra berobbant Tamagotchikra, mely kis robotok először testesítették meg az "emotional AI"-t, az érzelmi mesterséges intelligenciát, és a kimúlt kis játékrobotokat könnyes szemmel temették szülők és gyermekek. Vagyis komoly érzelmi kötődés alakult ki az okos játék és a kisgyermek között, melynek káros következményeire vajmi kevéssé gondolt akkoriban bárki is. Hamar kiderült, hogy a 90-es évek technológiai fejlődése az okosjátékok olyan új generációját termelte ki, amelyekben az alkalmazott érzelmi mesterséges intelligencia sokkal gyorsabban fejlődött, mint ahogyan kialakulhatott volna egy kölcsönös, egyenrangú kapcsolat a gyermek (szülő) és az okosjáték között a játékok érzelmi állapotának tudatosítása terén. Vagyis a felhasználói tudatosság kullogott a mesterséges intelligencia mögött. Ilyen volt az elsők között a csivitelő hangú Cozmo, mely szociális tulajdonságokkal rendelkezik, mivel "ő" (az alkotók szerint férfi) tanul, alkalmazkodik, reagál a felhasználókra, és saját "hangulata" van. Hangulata romlik, ha "éhes" lesz, "elragadtatást" és "magabiztosságot" mutat, ha megnyert egy játékot, mélypontra kerül, ha olyan perem közelébe kerül, ahonnan leeshet, és még "dühöt" is mutat: például Cozmo a földbe döngöli a targoncáját, ha nem sikerül neki egy feladat. Képes felismerni a felhasználókat, leolvassa az arckifejezéseket és (korlátozott módon) értelmezi a környezetét. A kamerák segítségével a Cozmo arcfelismerő szoftvere lehetővé teszi számára, hogy felismerje az arcokat és megtanulja az emberek nevét, de emocionális mesterséges intelligencia segítségével alapvető érzelmeket is felismer és reagál rájuk: düh, undor, félelem, boldogság, szomorúság és meglepetés. Idővel az emotoyok valószínűleg további érzékelőkkel fognak rendelkezni, beleértve a játékosok szívritmusát, a bőr vezetőképességét és a véráramlás érzékelőit is.
2015-ben nem kis botrány övezte a Mattel által piacra dobott Hello Barbie emotoyt, amely nemcsak beszél, hanem olyan dolgokra is képes, ami adatvédelmi aggályokat is jócskán felvet: képes wifivel internetre csatlakozni, kérdezni, beszélgetni, információkat rögzíteni és tárolni, sőt továbbítani. Az Egyesült Államokban adatvédelmi aktivisták az azonnali betiltását követelték, szakemberek súlyos aggályokat fogalmaztak meg azzal kapcsolatban, hogy kisgyermekek bizalmas beszélgetéseit mások rögzítik, elemzik, különösen közvetlenül a játékiparban
- 1/2 -
érdekelt cégek. A gyártó tagadta a marketingcélokat, és hangsúlyozta az elkötelezettségét a biztonság és az adatvédelem mellett. Végül szülői hozzájáruló nyilatkozat mellett aktiválódhat a baba. Nyilvánvalóan problematikus, hogy nem követhető és világos, kik azok a harmadik felek, akikkel a beszélgetés megosztható. A botrány rávilágított a szülők és a gyermekek védelmének szükségességére, egyre több kutatás, tanulmány, szakember és politikus is sürgette a védelem kidolgozását az Egyesült Államokban és az Egyesült Királyságban is. Egyre élesebben vetődött fel, hogy elfogadhatóak-e az okosjátékok és egyáltalán az érzelmi mesterséges intelligencia használata a gyermekközpontú technológiákban, milyen feltételek szerint kellene szabályozni ezen intim technológiák játékokban való használatát. Vagyis a kérdés az, hogy a technológia milyen mértékben generálja a törődést, a tárgyakkal való összefonódást, a tapasztalatszerzést, a tanulást és az emberi kapcsolatok közvetítésének újszerű módjait. Az etikai kérdéseknek pedig jogi, gyermekfejlődési, adatvédelmi és fogyasztóvédelmi aspektusai is vannak. E kérdések köré fókuszált egy 2019 augusztusa és 2020 májusa között készült kutatás az Egyesült Királyságban,[2] melynek központi témái voltak: a nemzedéki igazságtalanság, a manipuláció, az emlékezet és az ontológiailag bizonytalan tárgyakkal való együttélés. A nemzedéki igazságtalanság kifejezés a szülők által a közösségi médiában a gyermekekről készült fényképek hozzájárulás nélküli megosztását, a gyermek adatainak a szülők, az ipar és a közszféra általi gyűjtését és feldolgozását fedi le, anélkül, hogy a résztvevők a jövőbeli hatásokra gondolnának (a gyermek felnőttkorára, arra, hogy ezek az adatok az egyetem, az egészségügy, a munkahely számára is elérhetővé válnak). A gyermekek digitális lábnyomainak hatása generációs távlatok nélkül azt jelenti, hogy az érzelmi mesterséges intelligencia felerősíti az információs aszimmetriát, mivel a gyermekek képtelenek megkérdőjelezni az érzelmek technológiába ágyazott kereteit. A manipuláció abban érhető tetten, hogy az érzelmekre vonatkozó adatoknak gazdasági értéke van (kereskedelmi célok, további játékfejlesztések), valamint a negatív érzelmek lehetnek a legértékesebbek, mert "az emberek többet költenek, ha depressziósak". A gyermekeknél alkalmazott érzelmi mesterséges intelligencia a vállalatok és a gyermekek közötti hatalmi egyenlőtlenségek révén generális igazságtalanságot okoz, amely nagyrészt a gyermekek saját érzelmeikre vonatkozó korlátozott tudatossága miatt veszélyes a gyermek fejlődésére. A memória vagy emlékezet témakör az adatok hosszú élettartamára és a múlthoz való jogra utal. A generációs igazságtalanság egy másik aspektusa a gyermekkor egy részének elfelejtéséhez való joggal kapcsolatos aggodalom, márpedig az okosjátékok kétségtelenül hosszú távra képesek adatokat megőrizni. A játékok társalgási képességének növekedése azt jelenti, hogy a gyerekek hajlamosak lennének bizalmi személyként tekinteni rájuk és megbízni bennük. Ezekben az esetekben nagyon magas a diszkriminációs potenciál is, gondoljunk csak az iskolai bullyingre, a származásra, a vallásra, a faji, nemi, egészségi állapot stb. szerinti megkülönböztetésre is. A kutatás alapján megállapítható, hogy az összegyűjtött érzelmi adatok hosszú ideje károsan hathatnak a gyermek növekedésére és önmeghatározására mind a magánéletében, mind a gyermekek testi, szellemi, lelki, erkölcsi és szociális fejlődését garantálandó gyermeki jogok érvényesülésében. Gátolhatják annak felismerésében is, hogy a felfedezés szabadságát jelentő cselekvésekkel másoknak esetleg kárt okozhat. A kutatás rávilágított arra, hogy a kisgyermekeknek az a tulajdonsága, mely szerint nagyobb valószínűség- gel veszik készpénznek a dolgokat, a műgesztusok, a műarcmimikri valóságosan hat rájuk, komoly felelősséget telepít az MI-technológiákra: ez a képesség hogyan kezelhető a gyermekek adatvédelmének és az új biometrikus és mesterségesintelligencia-alapú technológiákkal való interakciójában? A szülőket vonzhatja, hogy egy technológia megoldhat egy azonnali, rövid távú problémát (például a síró gyermek megnyugtatását), de elgondolkodtató, hogy hagyatkozhat-e a szülő egy gép "empatikus képességeire", ha meg akar győződni arról, miért sír a gyermeke. A kutatás korábbi, okosjátékokkal kapcsolatos szélesebb körű kutatások[3] adataira is támaszkodva kérdőjelezi meg ezen játékok kreativitását, ugyanis a felnőtt játékkészítők alapvetően félreértik a gyermeki játék természetét. A gyermekeket sokszor frusztrálják az okosjátékok korlátai és a kreativitás hiánya, igénylik, hogy képesek legyenek átlépni az okosjáték szabályait. Az emotikonok értéke általában a céltól függ: elképzelhető, hogy például a nagyon beteg, kórházban fekvő és magányos gyerekek közérzetét javítják, de kevésbé szolgálnak oktatási célokat.
A kutatókat a gyermekekre vonatkozó egyedi rendelkezések mellett az is érdekelte, hogy az érzelmi adatokra vonatkozóan kell-e különleges védelem. Az Európai Unió általános adatvédelmi rendelete (GDPR) egyáltalán nem tesz említést az érzelmekről. Az ePrivacy[4] preambulumának a (2) és (20) preambulumbekezdése említi az érzelmeket, a (2) preambulumbekezdés kiemelten érzékeny adatokként határozza meg azokat, ezzel az uniós jogalkotó elismeri, hogy az egészségügyi állapotokkal,
- 2/3 -
szexuális preferenciákkal és politikai nézetekkel összefüggésben az érzelmekre vonatkozó adatok nem kívánt nyilvánosságra hozatala személyes és társadalmi károkat, gazdasági veszteséget vagy szégyent okozhat. A GDPR az unió területi határain túl is alkalmazandó az adatfeldolgozási tevékenységekre, így a világ különböző adatvédelmi normái ütközhetnek az okosjátékok gyártása és terjesztése során, nem beszélve arról, hogy az intelligens játékokat gyakran az Egyesült Államokban vagy Kínában gyártották (és gyártják ma is). Ezek a játékok az uniós piacra való belépésükkor nem rendelkeznek ugyanazokkal az adatvédelmi követelményekkel, mint az unióban. A biometrikus és személyes adatokra vonatkozó meglévő rendelkezések vajon elegendőek-e tehát, vagy a rendelkezések következetes végrehajtásában rejlik a válasz kulcsa. Az interjúalanyok válaszai arról győzték meg a kutatást végzőket, hogy az időzítésnek és a hozzájárulásnak van meghatározó jelentősége a védelem szempontjából. A GDPR 6. cikke, mely a személyes adatok jogszerű felhasználásának a szabályait fekteti le, a hozzájáruláson túl hivatkozik a szerződéses és jogi kötelezettségekre, létfontosságú érdekekre, a közérdekre és a jogos érdekekre is. Elképzelhető tehát, hogy a gyermekek érzelmi adatait a hozzájárulás megszerzése nélkül is feldolgozzák, bár a vállalatok a jogos érdek jogalapjának választásakor az érintett jogai és az érintett érdekei közötti egyensúly megteremtésére törekednek. E mérlegelési teszt során a gyermekek érdekei erősebbek lesznek, illetve jobban figyelembe veszik őket, mint a felnőtt érintettek érdekeit. A következő releváns kérdés, hogy milyen életkorban kell a gyermekeknek hozzájárulást adniuk. A GDPR 16 éves korban határozza meg a gyermekek beleegyezési korhatárát, de lehetővé teszi a tagállamok számára, hogy ezt a küszöböt 13 évre csökkentsék. A szerződő államok az életkorról hozott döntéseik indokaként általában a nemzeti jogra, a gyermek belátási képességére, esetleg az Egyesült Államok gyermekek online adatainak védelméről szóló törvényére (COPPA)[5] hivatkoznak, aminek vajmi kevés köze van a gyermek fejlődéslélektanhoz, és nem tud érveket felsorakoztatni amellett, hogy egy gyermek miért tekinthető kompetensnek abban, hogy egy bizonyos életkortól hozzájárulást adjon. Így a GDPR-nak a tagállamok közötti adatvédelmi harmonizációra irányuló erőfeszítései ellenére a gyermekek védelmének biztosítása tudományos megalapozottság nélkül változik. A techipar biztonságra és gyermeki jogok tiszteletben tartására vonatkozó elköteleződési nyilatkozatai mellett a telekommunikációs cégek is sietnek biztosítani a társadalmat, a szülőket arról, hogy fejlesztéseik során prioritást élveznek a gyermek védelmét célzó, gyermekközpontú érzelmi MI-fejlesztések. A GSMA (mobilszolgáltatók nemzetközi szakmai szervezete) - egy, a mobil ökoszisztémát egyesítő globális szervezet, amely az üzleti és társadalmi fejlődést elősegítő innovációk felfedezése, fejlesztése és megvalósítása érdekében egyesíti a mobil ökoszisztémát - is adott ki hasonló tartalmú kódexet a gyermekek jogainak védelme céljából.[6] A kutatásból leszűrhető következtetésekből kiderül, hogy a módszerektől eltekintve az interjúalanyok jó lehetőségeket látnak a gyermekközpontú érzelmi mesterséges intelligenciában, de ragaszkodnak ahhoz, hogy azt a gyermek érdekében kell alkalmazni. A kutatók a megkérdőjelezhető hatékonyság, a magánélet hosszú távú védelmének rövid távú előnyökkel való lehetséges felcserélése, valamint a gyermekadatok feldolgozásából és megosztásából eredő kimenetel lehetséges súlyossága (lehetséges gyermekbántalmazások) miatt javasolják, hogy a jogi szabályozás fokozott figyelmet fordítson ezekre a technológiákra, és azok széles körben való alkalmazása során a szakértői interjúk és a szülői felmérés eredményei alapján az emotikonok unboxing-videós népszerűsítését[7] sürgetik, amelyben megjelenhet egy korosztálynak megfelelő kommunikációs stratégia, prominens YouTuberek szerepelhetnek, hogy növeljék az érzékeny játékok és a hozzájuk kapcsolódó játékok adatismeretét.
Ahogy egyre több döntést bízunk az intelligens rendszerekre, arra kényszerülünk, hogy újragondoljuk az emberi méltóságról és cselekvőképességről alkotott elképzeléseinket, mivel az algoritmusok egyre kifinomultabban manipulálják döntéseinket. A mesterségesintelligencia-technológiák kiterjedt társadalmi, gazdasági és etikai következményei miatt a kormányok és számos szervezet iránymutatásokat fogalmaznak meg a fejlesztésre és a megvalósításra vonatkozóan. A 2021-ben született és 2023-ban is frissített UNICEF iránymutatás (policy guidance)[8] alapjául a UNICEF-nek a gyermekek biztonságával és védelmével összefüggésben megfogalmazott alapvető elvei (core principles) szolgáltak, melyek folyamatosan bővültek ("3 C", "4 C", "5 C"). Ezek az elvek a New York-i Gyermekjogi Egyezmény egyes gyermeki jogaihoz kapcsolódnak. Az UNICEF fenntartja azt az elvet, hogy minden lányt, fiút, nőt és férfit, minden korosztályban emberségesen kell kezelni, és arra törekszik, hogy minden kiszolgáltatott gyermeket segítsen és megvédjen, méltósággal és tisztelettel bánjon velük. Ezek alapján az
- 3/4 -
öt legfontosabb gyermeki jog: az egészséghez, az oktatáshoz, a családi élethez, a játékhoz és a kikapcsolódáshoz, a megfelelő életszínvonalhoz, valamint a bántalmazástól és a sérelmektől való védelemhez való jog. A gyermekek jogai kiterjednek a gyermekek fejlődési és életkoruknak megfelelő szükségleteire, amelyek a gyermek felnövekedésével idővel változnak.
Az iránymutatás vizsgálja a mesterségesintelligencia-rendszereket, és figyelembe veszi, hogy ezek milyen módon hatnak a gyermekekre. A felhasználási gyakorlat bemutatásával rávilágít arra, hogy a mesterségesintelligencia-rendszerek hogyan jelenthetnek lehetőségeket és kockázatokat egyaránt a gyermekek számára. A gyermekek világszerte másképp használják a mesterségesintelligencia-rendszereket és azok másképp hatnak rájuk. A mesterségesintelligencia-alapú játékok közül a hangalapú asszisztensek és chatbotok használata kapcsán a BBC által 2018-ban végzett kutatás két mentális egészségügyi chatbot tesztelését emelte ki, melynek során kiderült, hogy az alkalmazások nem tudták megfelelően kezelni a gyermekek szexuális visszaélésekről szóló bejelentéseit, annak ellenére, hogy mindkét alkalmazást gyermekek számára alkalmasnak tartották. Az UNICEF tájékoztatója szerint a nem gondos tervezés különösen kockázatos a fiatal felhasználók esetében, akik nem rendelkeznek megfelelő érzelmi rugalmassággal ahhoz, hogy megbirkózzanak a chatbot negatív vagy zavaros válaszélményével, így növelik a szorongásukat. A biometrikus azonosításhoz készült arcfelismerő rendszerekről úgy nyilatkozott, hogy az arcfelismerésben továbbra is fennállnak pontatlanságok, többek között a gyermekek arcának és más, nem és etnikum szerinti csoportoknak (például színes bőrű nők) a kevésbé megbízható megfeleltetése. Mindez a meglévő társadalmi előítéletek megszilárdulásához és a kisebbségi közösségek megkülönböztetéséhez vagy további marginalizálódásához vezethet. Az eszközök használata során felmerülő kockázatok kezelését öt lépésben foglalta össze: elkerülés, megtartás, megosztás, átruházás (továbbhárítás), valamint a veszteségek megelőzése és csökkentése. Az első lépés az, hogy felismerjük a mesterségesintelligencia-rendszerek által a gyermekek számára jelentett egyedi lehetőségeket és kockázatokat, majd pedig olyan módon tegyünk lépéseket ezek kihasználására, illetve mérséklésére, amely elismeri a gyermekek - különösen a marginalizált közösségekből származó gyermekek - eltérő helyzetét. A mesterségesintelligencia-rendszerek tervezése és megvalósítása során figyelembe kell venni a gyermekek különböző jellemzőit, például fejlődési szakaszaikat és eltérő tanulási képességeiket. A mesterséges intelligenciával kapcsolatos politikáknak és rendszereknek a gyermekek védelmére, szükségleteik és jogaik méltányos kielégítésére kell törekedniük, valamint arra, hogy a mesterséges intelligencia fejlesztéséhez és használatához való hozzájárulással képessé tegyék őket a mesterséges intelligencia világában való részvételre.
Az átfogó ajánlások körében a tagországok figyelmét arra hívja fel a szervezet, hogy a követelményeket alkalmazzák minden olyan esetben, amikor a mesterséges intelligenciával működő rendszerek kölcsönhatásba lépnek a gyermekekkel, vagy hatással vannak rájuk, függetlenül attól, hogy a rendszert gyermekeknek tervezték-e, vagy a gyermekeknek szánták-e. Ezeket a rendszereket úgy fejlesszék és alkalmazzák, hogy egyidejűleg biztosítsák a gyermekek védelemhez, ellátáshoz és részvételhez való kollektív jogait. Több érdekelt fél részvételével, több megközelítésből történjenek a kormányzati és az üzleti élet döntései (mesterségesintelligencia-politikák létrehozása, frissítése, tapasztalatok dokumentálása, eredmények nyilvános megosztása). Az MI használata igazodjon a helyi, nemzeti környezethez is, tükrözze és elégítse ki a helyi igényeket. A UNICEF kilenc pontos követelményrendszert állított fel mesterségesintelligencia-rendszerek gyermekközpontúvá tételéhez, amelyek a részvétel, a diszkrimináció tilalma, a gyermek adatainak és magánéletének védelme, a biztonságához és tájékoztatáshoz való alapvető jogok köré csoportosulnak. Ezek közül kiemelendő a gyermekek érdemi részvételének támogatása mind a mesterséges intelligenciával kapcsolatos szakpolitikákban, mind a fejlesztési folyamatokban, az adatkészletek diszkrimináció- és kirekesztésmentes fejlesztése, a felelősségteljes adatfeldolgozási megközelítés, a mesterségesintelligencia-rendszerek gyermekekre gyakorolt hatásának értékelése és a folyamatos nyomon követésére szolgáló mechanizmusok szorgalmazása a mesterségesintelligencia-politikákban és stratégiákban. További követelmény a mesterségesintelligencia-rendszerek biztonsági, védelmi és robusztussági tesztelésének megkövetelése, az életkornak megfelelő nyelvezet használata a mesterséges intelligencia leírásához, az interakciók megértéséhez szükséges átlátható MI-rendszerek fejlesztése, a gyermekfelhasználók speciális jogi és politikai védelme, függetlenül attól, hogy a gyermekek mennyire értik a rendszert. A UNICEF a jogi lépések körében szorgalmazza a mesterséges intelligenciával kapcsolatos szabályozási keretek felülvizsgálatát, frissítését, az elveknek és szabályzatoknak megfelelő MI felügyeleti szervek és jogorvoslati mechanizmusok létrehozását, a kormányok és a vállalkozások mesterséges intelligenciával és a gyermekek jogaival kapcsolatos ismereteinek, a fejlesztők kapacitásainak bővítését. Az oktatási platformon a gyermekek felkészítése a mesterséges intelligencia jelenlegi és jövőbeli fejlődésére, oktatási programok fejlesztése és korszerűsítése, a vállalkozások és az oktatási intézmények közötti együttműködés elősegítése és ösztönzése indikátorok szerepelnek. Végül felhívja a kormányok figyelmét az infrastruktúra fejlesztésének támogatására a digitális szakadék felszámolása érdekében, finanszírozás és ösztönzők biztosítására a gyermekközpontú mesterségesintelligencia-politikák és stratégiák számára, a mesterséges intelligenciával kapcsolatos ku-
- 4/5 -
tatások támogatására. A UNICEF az iránymutatásban foglaltak végrehajtása érdekében - többek között - a tapasztalatok dokumentálását, az eredmények blogok, projektjelentések vagy konferencia-előadások útján történő nyilvános megosztását javasolja, különös tekintettel a gyermekfelhasználókra.
2012-ben egy 15 éves német lány öngyilkos lett, vonat elé vetette magát. A szülők azt remélték, hogy megtudnak valamit lányuk indítékáról, ha Facebook fiókjának tartalmát megismerhetik. Az anya megpróbált a lány belépési adataival bejutni a fiókba, de a fiókot már röviddel a baleset után az úgynevezett "memorial state" állapotba állította a Facebook, mert a lány Facebook-barátai posztolták a lány halálhírét. Innentől kezdve kizárólag a Facebook férhetett hozzá a tartalomhoz és az adatokhoz. Az anya megkereste a Facebookot az adatok és a tartalom közlése céljából, arra hivatkozott, hogy a lánya odaadta neki a belépési jelszavát, amiből az következik, hogy az adatokhoz való hozzáférést engedélyezte számára. A Facebook az általános szerződési feltételeire hivatkozva utasította el a kérést, miszerint a profiladatokat és a fő tartalmat nem adhatja ki. A Berlini Regionális Bíróság 2015-ben kötelezte a Facebookot a fiókadatokhoz való hozzáférés engedélyezésére, a tartalom szolgáltatására. Indokolása szerint a gyermek életkorára tekintettel szülői felügyelet alatt állt, halálával minden digitális és analóg hagyatékának örökösei a szülei. Ahogyan egy személyes napló tartalma is az örökösök tudomására jut, az e-maileket és a személyes Facebook-üzeneteket is megismerhetik az örökösök. Ez azt jelentette, hogy a Facebook nem hivatkozhat az adatvédelmi jogszabályokra: a harmadik fél által küldött bizalmas leveleket a címzett örökösei elolvashatják, és ugyanez vonatkozik a digitális üzenetekre is. Ez utóbbiak tekintetében nem érheti hátrány az örökösöket az analóg tartalmakkal szemben. Jogszabályi analógiaként a bíróság az európai GDPR rendelet 6. cikk (1) bekezdés b) és f)[10] pontját alkalmazta, bár kétségtelenül nehézséget jelentett, hogy a GDPR élő személyekre tartalmaz rendelkezéséket. A Facebook fellebbezése folytán a Berlini Fellebbviteli Bíróság az elsőfokú ítéletet helybenhagyta. A Facebook a Szövetségi Legfelsőbb Bírósághoz fordult, a testület a jogerős ítéletet hatályában fenntartotta. Hangsúlyozta, hogy az örökhagyónak a Facebookkal kötött felhasználási szerződése is az örökség részét képezi, azt a szülők örökölték az összes jogosítványával és kötelezettségével együtt, és kötelezte a Facebookot az adatok hozzáférhetővé tételére. A Facebook egy USB stickre feltöltött pdf fájlban 14 000 oldalnyi adatot ömlesztve küldött el a szülőknek.
A szülők ismét beperelték a Facebookot, mert álláspontjuk szerint a "grant acessing" (hozzáférés) így nem biztosított: a pdf fájlon levő adatok olvashatatlanok, követhetetlen, kusza összevisszaságban vannak. 2019-ben a Berlini Regionális Bíróság az anya javára döntött. Álláspontja szerint a "hozzáférés biztosításának" úgy kell megvalósulnia, mint ahogyan az anya láthatta volna a fiókot, ha a lánya belépési kódjával bejuthatott volna oda. Program kérdése, hogy ne aktív módon, hanem csak olvasható módon közölje a tartalmat.
Bár a szakirodalom is "nyilvánvalóan szemtelenül pimasznak" minősítette a Facebook magatartását, a Berlini Fellebbviteli Bíróság megváltoztatta az elsőfokú ítéletet azzal az indokolással, hogy nem volt kikötés, hogyan kell a hozzáférést biztosítani a létező fióktartalomhoz, ennek technikai megvalósításáról a Facebook szabadon dönthetett. A Szövetségi Legfelsőbb Bíróság 2020-ban a másodfokú ítéletet hatályon kívül helyezte, és az elsőfokú ítéletet hatályában fenntartotta. Érvelése szerint a Facebook felhasználási szerződése alapján az örökösöket is ugyanolyan jogok illetik meg, mint az eredeti felhasználót, tehát olyan formában kell biztosítani a hozzáférést, ahogyan az az örökhagyót megillette. Az alig olvasható formában továbbított tartalom nem elégíti ki az ítéleti kritériumokat. A döntéseknek két tanulsága van: egyrészt a "hozzáférés biztosítása" tartalmának értelmezése, másrészt az "estate in testamentary disposition", a végrendelkezésre álló vagyonnal kapcsolatos intézkedések analóg alkalmazása a digitális környezetben. Ennek ugyanis fogyasztó-, vagyis örökösközpontúnak kell lennie, és ez vonatkozik a vonatkozó jogszabályok és bírói döntések értelmezésére is. Az ügy kapcsán érdemes a magyar jogi szabályozás két vetületére felhívni a figyelmet. Egyrészt az információs önrendelkezési jogról és az információszabadságról szóló 2011. évi CXII. törvény (a továbbiakban: Infotv.) 25. § (2) bekezdésében foglaltakra, mely szerint a személyes adatokkal összefüggő jogok közül a helyesbítéshez, az adatkezelés korlátozásához és a törléshez való jogokat - meghatározott feltételek fennállta esetén - az érintett halálát követően, a halált követő öt éven belül az a közeli hozzátartozó is gyakorolhatja, aki ezen jogosultságát elsőként gyakorolja. Másrészt, és ez már a gyermekekre vonatkozó speciális szabályozás, az Infotv. 61/A-D. §-a alapján számos hatóság elrendelheti elektronikus adat ideiglenes eltávolítását, illetve ideiglenes hozzáférhetetlenné tételét. A tárhelyszolgáltatóknak kötelességük ez alapján beállítani a szűrést. Ennek köszönhetően a tárhelyszolgáltatók leszűrik azon oldalakat, amelyek gyermekek személyes adatát jogellenesen kezelik, így
- 5/6 -
azok elérhetetlenné válnak. Ezen lehetőségeknek vannak korlátai, hiszen a közösségimédia-felületeken elektronikus adatot hozzáférhetetlenné tenni ilyen módon nem lehet. E platformok esetén az egyetlen lehetőség az, ha az adott jogsértésre a felület üzemeltetője, adminjai, valamint moderátorai reagálnak. A gyakorlatban tehát - az adatok mennyiségére tekintettel - szinte megoldhatatlan, hogy az adatot még annak további megosztása előtt hozzáférhetetlenné tegyék. Másik korlátja az elektronikus adat ideiglenes hozzáférhetetlenné tételének, hogy azt egy ún. Virtual Private Network (VPN) csatlakozás segítségével kikerülik. A szűrés kizárólag Magyarország területére korlátozódik - ezért nem is tud megfelelő eszköz lenni a közösségi média esetén. Az online gyermekvédelem átfogóbbá tételéhez további kiegészítő intézkedésekre van tehát szükség.[11]
A gyermekekre az online térben leselkedő veszélyeket részletesen lehetne ismertetni, ezek közül az alapjogi konfliktusok összeütközése szempontjából kiemelést érdemel az oversharing (megosztási kényszer), mely a szülőt és a gyermeket is egyaránt jellemezheti. A szülői tudatosság fejlesztése, a család, a szülők nevelése érdekében a civil szervezetek is sokat tesznek/tehetnek.[12] A megosztással kapcsolatban a szülők és a gyermekek, szülők és más családtagok között keletkezett konfliktus megoldásának a mediáció szintén elsődleges terepe lehet. Napjaink közösségi oldalai a 13. életév betöltése után teszik lehetővé a regisztrációt, de 18 éves korig szükség van a szülői mintára a médiumok használatának megfelelő elsajátításához. A külföldi infokommunikációs technológiák közül - gyermekvédelemmel kapcsolatos aggályok miatt - a TikTok kényszerült életkortól függően 60/30 perces használati korlátozási limitet bevezetni (jelenleg 99 percet töltenek a képernyő előtt a gyerekek).[13] További korlátozás, hogy 13 éven aluliaknál szülői hozzájárulás kell az internethasználathoz. Feltehetnénk a kérdést, hogy: miért késlekednek a digitális platformok ilyen és ehhez hasonló védelmi intézkedések bevezetésével? Nos, ismét az alapjogok összeütközését említhetjük, hiszen mindig aggályos, sőt alkotmányellenes az infokommunikációs szabadság, szólásszabadság, gondozási szabadság jogellenes korlátozása, de az egymással versengő érdekek csatájából csakis a gyermek legfőbb érdeke szerinti megoldás kerülhet ki győztesen. Az adatokkal való kereskedelmi jellegű visszaélések (profilozás) hárítására a hazai Infotv.[14] is tartalmaz rendelkezéseket. Megkerülhetetlen a szakirányú hatóságok szerepe a visszaélések eredményes csökkentésében.[15] A nemzetközi és az uniós törekvések is a megelőzés fontosságára helyezik a hangsúlyt, amelynek során a hatóságok, a civil szervezetek és a piaci szereplők összefogására van szükség. A hazai szereplők közül például a Nemzeti Adatvédelmi és Információs Hatóság, a Nemzeti Média- és Hírközlési Hatóság - a Gyermekvédelmi Internet-kerekasztallal[16] -, a Telekom,[17] az UNICEF Magyarország,[18] a Magyar Máltai Szeretetszolgálat,[19] valamint a tanulmányban már érintett más civil szervezetek foglalkoznak tájékoztatással és gyermekbarát megoldásokkal az infokommunikációs térben. Az összetett problémák közül egyetlen, de számarányában is jelentős problémát érint az unióban 2023-ban is zajló jogalkotási folyamat a gyermekek szexuális bántalmazásának megelőzésére és az ellene folytatott küzdelemre vonatkozó szabályok megállapításáról (CSA - Child Sexual Abuse),[20] amely biztosíthatja a gyermekek harmonizált védelmét a 27 uniós tagállamban a szexuális visszaélésekkel szemben. A készülő rendelet annak is jó példája lehet, hogy a felhasználók magánélethez való joga és a gyermekek erőszakkal szembeni védelemhez való joga nem zárják ki egymást, ezeknek együtt kell érvényesülniük.[21] Bizakodásra adhat okot, hogy a mesterséges intelligencia fejlődése nyomán olyan új algoritmusok jelennek meg, amelyek fejlett technológiával képesek a titkosítás befolyásolása nélkül szűrni a káros programokat, mint például a WhatsApp end-to-end encryption (E2EE) titkosított szolgáltatása.[22] Egy kérdés marad: szolidaritásdeficites környezetünkben bízhatunk-e abban az összefogásban, amely gyermekeink - legfőbb érdeke szerinti - digitális biztonságát (is) képes megteremteni? ■
JEGYZETEK
[1] https://www.unicef.org/globalinsight/media/2356/file/UNICEF-Global-Insight-policy-guidance-AI-children-2.0-2021.pdf (utolsó megtekintés: 2024. január 31.).
[2] https://www.researchgate.net/publication/344432963_Emotional_AI_and_children_2020_report. Az interjúalanyok szülők, gyermekek, kutatók, egyetemi oktatók, tudósok, szakértők és cégek képviselői voltak. (utolsó megtekintés: 2024. január 31.).
[3] Andrew McStay - Gilad Rosner: Emotional artificial intelligence in children's toys and devices: Ethics, governance and practical remedies. https://journals.sagepub.com/doi/pdf/10.1177/2053951721994877 (utolsó megtekintés: 2024. január 31.).
[4] Javaslat AZ EURÓPAI PARLAMENT ÉS A TANÁCS RENDELETE az elektronikus hírközlés során a magánélet tiszteletben tartásáról és a személyes adatok védelméről, valamint a 2002/58/EK irányelv hatályon kívül helyezéséről (elektronikus hírközlési adatvédelmi rendelet). https://eur-lex.europa.eu/legal-content/HU/TXT/?uri=CELEX%3A52017PC0010 (utolsó megtekintés: 2024. január 31.).
[5] https://www.ecfr.gov/current/title-16/chapter-I/subchapter-C/part-312, COPPA - USA; https://www.washingtonpost.com/politics/2023/06/15/privacy-kids-safety-are-dominating-state-tech-rules-2023/, COPPA - UK; https://www.wilmerhale.com/en/insights/blogs/wilmerhale-privacy-and-cybersecurity-law/20230509-us-lawmakers-continue-legislative-focus-on-childrens-online-privacy-and-social-media-use (utolsó megtekintés: 2024. január 31.).
[6] https://www.gsma.com/publicpolicy/the-year-ahead-in-digital-policy-proliferation-of-data-protection-laws-continues-with-childrens-privacy-going-mainstream (utolsó megtekintés: 2024. január 31.).
[7] Az unboxing (kicsomagolás)-videó nem pusztán egy műfaj, hanem egyben kulturális jelenség. Ezekben a videókban új termékek eredeti csomagolásból való kivételét, majd a termék bemutatását látjuk. A YouTube gyermekeknek szóló, játékokat és kütyüket kicsomagoló és bemutató csatornájának 11,6 millió követője van.
[8] https://www.unicef.org/globalinsight/media/2356/file/UNICEF-Global-Insight-policy-guidance-AI-children-2.0-2021.pdf (utolsó megtekintés: 2024. január 31.).
[9] Angelica Fuchs: What happens to your social media account when you die? The first German judgments on digital legacy. ERA Forum, https://doi.org.10.1007/s12027-021-00652-y (utolsó megtekintés: 2024. január 31.).
[10] "6. cikk: Az adatkezelés jogszerűsége.
(1) A személyes adatok kezelése kizárólag akkor és annyiban jogszerű, amennyiben legalább az alábbiak egyike teljesül:
b) az adatkezelés olyan szerződés teljesítéséhez szükséges, amelyben az érintett az egyik fél, vagy az a szerződés megkötését megelőzően az érintett kérésére történő lépések megtételéhez szükséges;
f) az adatkezelés az adatkezelő vagy egy harmadik fél jogos érdekeinek érvényesítéséhez szükséges, kivéve, ha ezen érdekekkel szemben elsőbbséget élveznek az érintett olyan érdekei vagy alapvető jogai és szabadságai, amelyek személyes adatok védelmét teszik szükségessé, különösen, ha az érintett gyermek."
[11] Faragó-Farkas Mariann Gabriella: A gyermekek adatainak védelme az online térben. Közjog 2022/3., 10-11. o.
[12] https://hintalovon.hu/2019/08/30/hogyan-ne-posztoljon-a-csalad-a-gyerekrol/ (utolsó megtekintés: 2024. január 31.).
[13] https://gdpr.blog.hu/2023/09/22/fokuszban_a_gyermekek_adatainak_vedelme (utolsó megtekintés: 2024. január 31.).
[14] Infotv. 3. § 27.
[15] Az Európai Adatvédelmi Testület (EDBP) például a TikTokot a 13 és 17 év közötti gyermekek adatainak kezelésére vonatkozó, 2020. július 31. és december 31. közötti jogellenes adatkezelési gyakorlata miatt 345 millió eurós bírsággal sújtotta. https://gdpr.blog.hu/2023/09/22/fokuszban_a_gyermekek_adatainak_vedelme (utolsó megtekintés: 2024. január 31.).
[16] https://nmhh.hu/cikk/162718/A_Gyermekvedelmi_Internetkerekasztal_feladata_es_tagjai (utolsó megtekintés: 2024. május 6.).
[17] https://legyelteis.hu/media/public/files/TELEKOM_Internetmost_kutatas.pdf (utolsó megtekintés: 2024. január 31.).
[18] http://file://Users/mac/Downloads/unicef_-mba_-gyermekvedelmi-magatartasi-szabalyzat.pdf (utolsó megtekintés: 2024. január 31.).
[19] https://fokuszbanagyermek.hu/adatkezelesi-szabalyzat/ (utolsó megtekintés: 2024. január 31.).
[20] https://eur-lex.europa.eu/legal-content/HU/TXT/HTML/?uri=CELEX:52022PC0209 (utolsó megtekintés: 2024. január 31.).
[21] Gyurkó Szilvia: A gyerekekkel szembeni online szexuális visszaélések és a készülő új EU rendelet háttere. Családi Jog 2023/3., 11. o.
[22] Lásd bővebben Gyurkó: i. m. (2023).
Lábjegyzetek:
[1] A szerző habilitált egyetemi docens, Szegedi Tudományegyetem.
Visszaugrás