Megrendelés
Jogtudományi Közlöny

Fizessen elő a Jogtudományi Közlönyre!

Előfizetés

Török Bernát[1]: Az "empíria-feletti" ember (JK, 2025/12., 530-538. o.)

Az emberi méltóság fogalma a digitális vívmányok szabályozásában

https://doi.org/10.59851/jk.80.12.3

A legújabb technológiai eszközök, kiváltképp a mesterséges intelligencia különféle alkalmazásai minden korábbinál közelebb hozták hozzánk a gépek világát. Bizonyos képességeik egyre jobban imitálják azokat a gondolkodási, értékelési és döntéshozatali kvalitásokat, amelyeket mindezidáig kizárólag az embernek tulajdonítottunk. Mindez értelemszerűen azt a kérdést is kiélezte, hogy miben tudjuk megragadni azt a sajátos lényeget, amely - a gépek működésének határt szabva - továbbra is egyedül az embert jellemzi. Az utóbbi évek európai uniós jogalkotását szemügyre véve azt találjuk, hogy sok-sok technikai előírás mellett az e tekintetben legfontosabb uniós rendeletek (GDPR, DSA, AI Act) egyes szabályai már kimondatlanul is a mögöttes antropológiai kérdésre adnak válaszokat, nem engedve, hogy az emberi személyiséget digitális adatokkal teljes mértékben leírható valóságnak tekintsük. Ezek a válaszok abból a szempontból is kiemelt figyelmet érdemelnek, hogy az emberi méltóság mindig nehezen konkretizálható fogalmának új tartalmi elemeivel gazdagítják az európai jogi gondolkodást. Másrészt a kérdés gyakorlati téttel is bír, hiszen az emberi méltóság lényeges tartalmához tartozó jogosultságoknak a technológiák gyorsan változó szabályozási környezetében is biztos alappá kell válniuk.[1]

Tárgyszavak: emberi méltóság, mesterséges intelligencia, profilalkotás, prediktív algoritmusok, Európai Unió joga

Summary - The "Supra-Empirical" Man: The Concept of Human Dignity in the Regulation of Digital Achievements

Recent technological advancements, particularly in artificial intelligence applications, have brought machines closer to us than ever before. The abilities of digital instruments increasingly imitate the qualities of thinking, evaluating and decision-making that have traditionally been attributed solely to humans. This evolution has intensified the need to identify the specific essence that characterises humanity and to establish limits on machine operations. An analysis of recent European Union legislation reveals that, alongside a range of technical regulations, certain rules of the key EU regulations (GDPR, DSA, AI Act) implicitly provide answers to the fundamental anthropological question, ruling out the idea that human personality can be fully described by digital data. These answers deserve special attention as they enrich European legal discourse with new substantive elements regarding human dignity, which is inherently difficult to define. Furthermore, considering this question has practical implications, as the rights associated with human dignity must provide a solid foundation even in the rapidly changing regulatory environment of new technologies.

Keywords: human dignity, artificial intelligence, predictive algorithms

I.

Bevezetés

Mi az ember? A kérdés mélysége, melyben egyszerre van jelen a válaszkeresés sürgető kényszere és végtelen nyitottsága, megrendítő erejű. Az emberi mivolt feltárásának fundamentális kihívása még összetettebbnek tűnik, ha figyelembe vesszük, hogy nemcsak a vallások transzcendensre tekintő filozófiai magaslatain, hanem evilági létünk rögvalóságában is felelnünk kell rá. Felelnie kell rá a jognak is, amelytől éppen az ember személyes és közösségi viszonyainak mindenkire nézve kötelező, társadalmi szintű elrendezését várjuk. A jog számára tehát központi jelentőségű kérdés, hogy miként tekint az emberre.

Az európai jogi gondolkodásban mindenekelőtt az emberi méltóság fogalma hivatott arra, hogy megragadja az emberi mivolt sajátos lényegét. Az emberi méltóság fogalmát és (alkotmány)jogban betöltött szerepét ugyanakkor hagyományos kettősség lengi körül: egyfelől a nyugati emberi jogi kultúra (sőt az egész alkotmányosság) központi értéke és alapja, amelyen egész alapjogi rendszerünk nyugszik, másfelől önálló konkrét tartalma bizonytalan, és állandó viták tárgyát képezi. Ezekben a vitákban - miként az emberi jogi gondolkodásban általában véve - a vallási tanok, az európai hagyományban kiváltképp a keresztény társadalmi tanítás orientáló erővel bírhat, közvetlenül mégsem érvényesülhet, hiszen demokratikus viszonyaink között a mindenkit kötelező jogi norma nem támaszkodhat vallási igazolásra, hanem mindenki, vagyis a nem keresztények és ateisták számára is belátható alappal kell bírnia. Az emberi méltóság modern jogi fogalma kezdettől fogva keresi a szekuláris fogódzókat, amelyekbe bárki világnézeti meggyőződésétől függetlenül belekapaszkodhat, ha az emberi mivolt lényeges elemeit keresi.

Az utóbbi évek technológiai fejlődésére reagáló európai jogalkotás figyelemreméltóan aktívnak tekinthető ebben a keresésben. Ahogy ugyanis egyre közelebb férkőznek hozzánk a legújabb technológiai vívmányok, és bizonyos képességeik egyre jobban hasonlítanak ránk, úgy éleződik ki a kérdés: mi az, ami már csakis az ember lényegéhez tartozik, ezért határt szab a technológiai alkalmazások felforgató erejének. Az alábbiakban azt elemezzük, milyen konkrét tartalmi elemekkel látszik gazdagodni az emberi méltóság fogalma a digitális technológiák szabályozásában. Amellett fogunk érvelni, hogy az Európai Unió meghatározó szabályozásai - kimondott antropológiai utalások nélkül, de egyértelműen - az emberi természetről vallott új érdemi elemeket hoznak az emberi méltóság jogi tartalmába.

II.

Az emberi méltóság jogi fogalmának alapvető kihívása

Még mielőtt rátérnénk az emberi méltóság jogi fogalmának definíciós problémáira, érdemes felidéznünk, hogy a

- 530/531 -

nehézségek nem pusztán jogi természetűek. A jog világában feltűnő kérdőjelek csupán egy mélyebb valóságot tükröznek. A II. Vatikáni Zsinat "Gaudium et spes" konstitúciója pontosan jelzi a probléma lényegét. Egyfelől megállapítja, hogy "hívők és nem hívők csaknem egybehangzó véleménye az, hogy a földön mindennek az emberre kell irányulnia, minthogy az ember áll a földi lét középpontjában és csúcsán", másfelől rögtön szembesít is minket az ontológiai feladvánnyal: "De mi az ember?" A tapasztalati alapú választ a konstitúció szerint is ellehetetleníti, hogy az ember "sok és különféle, sőt egymásnak ellentmondó nézetet vallott és vall önmagáról. Van úgy, hogy mindenek felett álló zsinórmértéknek teszi meg magát, máskor a kétségbeesésig megy el önmaga leértékelésében. Innen ered tanácstalansága és szorongása." A dokumentum szerint "az egyház mélyen átérzi ezeket a nehézségeket", de a kinyilatkoztatás alapján feloldja őket az istenképiség tanításával, amely szerint minden ember Isten képmására, test és lélek egységére lett teremtve, és ez megadja természetének evilági valóságon túlmutató méltóságát.[2]

A jog - amely nem támaszkodhat a kinyilatkoztatás igazoló erejére - rögösebb útkeresésre van ítélve az emberi mivolt megragadásában. A jogi szakirodalom széles körű, izgalmas vitában reflektál arra a feszültségre, amely az emberi méltóság központi szerepe és jelentésének bizonytalansága között húzódik. Szerzők hosszú sora hívja fel a figyelmet a méltóság alapelvi ereje mellett konkrét tartalmának homályosságára. Cathrine Dupré szerint "az emberi méltóság fogalmának alkotmányokban, nemzetközi emberi jogi egyezményekben és az alkotmánybíráskodásban való egyre gyakoribb használata tudományos tanácstalansággal és fenntartásokkal párosul e fogalom jelentését illetően, amely oly nehezen meghatározhatónak bizonyul".[3] Az Európai Bíróság előtti Omega-ügy főtanácsnoki indítványa egyenesen úgy látta, hogy "aligha van olyan jogi alapelv, amely nehezebben értelmezhető, mint az emberi méltóság".[4] Mattson és Clark ezzel összhangban úgy fogalmaz, hogy "az emberi méltóság körül oly mértékű a zűrzavar, hogy még csak minimálisan sem nyújt stabil keretet a globális diskurzushoz és cselekvéshez".[5] O'Mahony szintén a fogalom kiemelkedő globális jelentősége mellett mutat rá lokális jogi alkalmazásának teljes bizonytalanságára: "Az emberi méltóság alapelvének fontosságára vonatkozó széles körű nemzetközi egyetértés ellenére nagyfokú zűrzavar tapasztalható azzal kapcsolatban, hogy mit követel a jogalkotóktól és a jogalkalmazóktól, és jelentős ellentmondások figyelhetők meg a nemzeti alkotmányjogokban található megfogalmazások és alkalmazások között."[6] Bagaric és Allen odáig mennek, hogy az emberi méltóságot "jelentés nélküli fogalomnak" mondják.[7] A kritikai gondolatok a magyar szakirodalomból is ismertek. Balázs Zoltán szerint "az emberi méltóság fogalmának rangja és funkciója nincs arányban filozófiai teherbíróképességével, szabatosságával", és feltűnő, hogy "az emberi méltóságra való hivatkozás nagyon is ellentétes következtetések levonására ad lehetőséget".[8] Még közelebb lépve az emberi méltóság jogi fogalmához, Balogh Zsolt is rámutat arra a feszültségre, hogy "amikor kimondjuk, hogy emberi méltóság, mindenki tudja, hogy valójában mit takar e fogalom. Azonban akkor, amikor megpróbáljuk leírni, elemezni, gyakran elveszünk. Nem, vagy csak nagyon nehéz munka árán kapunk a kérdéseinkre választ".[9] Zakariás Kinga az e tekintetben egyik legmeghatározóbb európai példát, a német alkotmányjogot vizsgálva is hangsúlyozza, hogy az emberi méltóság alapvető jelentősége mellett a fogalom normativitása és alapjogi jellege vitatott. "A vita oka az emberi méltóság klauzula szemantikai nyitottságában és sajátos struktúrájában keresendő."[10]

Az emberi méltóság konkrét jogi alkalmazhatóságát ugyanakkor az elméleti meghatározás nehézségei mellett sem kell feltétlenül reménytelen vállalkozásnak látnunk. Egyfelől Riley is kiemeli, hogy bár az emberi méltóság adja az emberi jogi katalógus alapját, lényegi normatív erejét és célját, maga a fogalom homályos és vitatható, így kiemelkedő ideológiai jelentősége ellenére keveset ad hozzá a joggyakorlathoz. Másfelől azonban arra hívja föl a figyelmet, hogy nem érdemes a méltóság aktuálisan feltárt jelentéstartalmából kiindulva ítéletet mondani, mivel "a méltóság értelmét nem merítik ki jelenlegi megjelenési formái, és több lehetőség rejlik benne, mint amit a

- 531/532 -

joggyakorlat jelenleg megragad".[11] Carozza is amellett érvel, hogy a méltóság gyakorlati megragadása értelmesen elvégezhető és elvégzendő feladat. Ő az emberi méltóság - mint a globális jogfejlődésben felemelkedő új ius commune - szerepével kapcsolatban azt hangsúlyozza, hogy ez a szerep nagyon távol áll attól, hogy pusztán az emberi méltóság egyetemességének megjelenéseként tekintsünk rá. A fogalomnak át kell esnie egy specifikációs folyamaton, melynek során "konkrét gyakorlati kifejezést kell adni az általánosabb elvont elveknek", ami "az emberi méltóság gyakorlati vonatkozásainak konkrét összefüggésekben való kidolgozását jelenti".[12]

Az emberi méltóság tartalmának specifikációja azonban még abban az esetben is kihívásokkal teli, ha meg vagyunk győződve megvalósíthatóságáról. A specifikációban rejlő potenciált hangsúlyozó Riley is kénytelen elismerni, hogy a méltóság az egyik legbizonytalanabb fogalom, azzal a jellegzetességgel, hogy egyaránt a középpontjában áll az arról szóló nagyon különböző, intuitív alapokon nyugvó elképzeléseknek, hogy mi tekinthető az ember általános vonásának.[13] Őszinteségének kulcseleme, hogy ráirányítja figyelmünket az intuíciónak az emberi méltóság megragadásában megkerülhetetlennek tűnő szerepére. A személyiséget védelmező egyéb részjogosultságokon (például a becsületen vagy a jó hírnéven) túl általában akkor fordulunk a méltóság tiszteletben tartásának követelményéhez, amikor konkrét helyzetben valami olyasmivel szembesülünk, ami érzésünk és meggyőződésünk szerint összeegyeztethetetlen az ember benső értékével vagy az "emberként kezelés" parancsával. Brownsword azonban helyesen mutat rá ezzel kapcsolatban arra, hogy "az emberi méltóság fogalmával való visszaélés az, ha vétójogként használjuk minden olyan gyakorlattal szemben, amelyet intuitív módon ellenszenvesnek tartunk".[14] Az emberi méltóság konkrét tartalmi jegyeit mások számára is belátható és igazolható, a szükséges mértékben objektivizálható kritériumok mentén kell meghatározni.[15]

Ha alaposabban szemügyre vesszük a legújabb technológiák európai szabályozását, az új rendelkezések felszíne alatt éppen az történik, amire Riley és Carozza "specifikációként" utal: az uniós rendeletek sok ponton az emberi méltóság elvont tartalmának konkrét, gyakorlati elemeit ragadják meg. Maguk az új szabályok nem neveznek meg az emberi méltóságból kiolvasztott újabb jogokat,[16] de enélkül is világos, hogy számos új rendelkezés valójában az emberi személyről annak sajátos méltósága alapján vallott meggyőződés egy-egy fontos tartalmi jellemzőjét emeli ki. A következőkben ezeket a "méltóságalapú rendelkezéseket" vesszük számba: a releváns rendeletekben megjelenő, hasonló célokat szolgáló elvárásokat aszerint rendezzük egymás mellé, hogy a legújabb technológiák által felvetett és az emberi személyre speciális kockázatokkal járó mely kihívásra igyekeznek választ adni.

III.

Az emberi méltóság új tartalmi jegyei

A digitális technológiák robbanásszerű fejlődésével új korszakába lépett az információs társadalom. Az 1970-es évektől egyre gyakrabban használt fogalom mindig is szoros kapcsolatban állt az infokommunikációs technológiák fejlődésével, és az egyre gyorsabb és összetettebb információáramlás, valamint az arra épülő társadalmi, gazdasági stb. tudás állt a középpontjában.[17] A totálissá váló digitalizáció azonban elhozta a Big Data világát, amelyben az információs társadalom korábbi állapotához képest is elképzelhetetlen mennyiségű adatot és információt rögzítenek nemcsak társadalmi szinten, hanem az egyének személyes életével kapcsolatban is. Nem túlzás azt állítani, hogy minden adattá lesz, és ez az óriási adatmennyiség és adatműveleti potenciál vált a motorjává mind az üzleti-gazdasági fejlődésnek, mind pedig a társadalmi folyamatok hatékonyabb megszervezésének.[18] Algoritmizált társadalom felé haladunk, amelyben a társadalmi alrendszerek működését az adatokat rendező algoritmusok uralják, és amely az információs társadalom jellegzetes új változatának tekinthető.[19]

Mindez egyre feszítőbb kérdéseket szül a gépek és az ember viszonyáról. Nemcsak arról van szó, hogy korább-

- 532/533 -

ról ismert kihívások új technológiai vívmányokkal összefüggésben merülnek föl, hanem arról is, hogy a gépek ma már az emberi lét olyan szféráiba is képesek behatolni, ahol eddig nem voltak jelen. Közösségi és személyes életünk folyamatait egyre szélesebb körben rögzítik, szervezik és irányítják korunk legfejlettebb gépei: az algoritmusok és a mesterséges intelligenciák. Ezzel párhuzamosan a behatolás mélysége is speciális, mivel egyre intimebb kapcsolatban állunk a minket körülvevő gépekkel.[20]

A technológia ma már valóban mindenhová beférkőzik: nap mint nap találkozunk "a bennünk vagy a közelünkben lévő, a minket mindenütt körülvevő, illetve a hozzánk nagyon hasonlatos technológiával".[21] A biotechnológiától a közösségi médián át a robotokig és a mesterséges intelligenciáig olyan gépek válnak életünk részévé, amelyek eddig ismeretlen mértékben élezik ki az emberi és a gépi szférák elválasztásának kérdését. Ez a problematika - mint az emberi mivolt meghatározásának problematikája - a jog világában az emberi méltóság fogalmának kérdéseként különös erővel jelentkezik. Az alábbiakban kiemelünk négy kihívást, amelyeket napjaink felforgató technológiái támasztottak az emberi személlyel kapcsolatban, és amelyekre az Európai Unió jogalkotása az emberi méltóság tartalmának konkretizálásával felelt. A folyamatot három rendelet: az általános adatvédelmi rendelet (GDPR),[22] a digitális szolgáltatásokról szóló rendelet (DSA),[23] valamint a mesterséges intelligenciát szabályozó rendelet (AIA)[24] alapján érzékeltetjük. Míg az elvárások tekintetében már az adatvédelmi szabályozás is meghatározó előírásokat tartalmaz, a mögöttes szempontok azonosításában a mesterséges intelligenciáról szóló szabályozás megy legmesszebb, amikor a szabályok átfogó igazoló elveként hivatkozik az emberi méltóság védelmére.

3.1. Profilalkotás

A napjainkra tömegessé vált digitális információrögzítésnek van egy egyénekre szabott, így a személyiségre nézve kiváltképpen szenzitív formája. Mi több, éppen ez az a forma, amely célját adja a totális adatrögzítések széles körének, és a Big Data-világ fő motorját jelenti: ez pedig a profilozás. A GDPR értelmében a profilalkotás "személyes adatok automatizált kezelésének bármely olyan formája, amelynek során a személyes adatokat valamely természetes személyhez fűződő bizonyos személyes jellemzők értékelésére, különösen a munkahelyi teljesítményhez, gazdasági helyzethez, egészségi állapothoz, személyes preferenciákhoz, érdeklődéshez, megbízhatósághoz, viselkedéshez, tartózkodási helyhez vagy mozgáshoz kapcsolódó jellemzők elemzésére vagy előrejelzésére használják".[25] A profilalkotás célja az érintett személyes élete vagy viselkedése bizonyos aspektusainak elemzése. A Big Data korában ép ésszel felfoghatatlan mennyiségű adatpont mentén vált digitalizálhatóvá az életünk, és ezekből az adatokból a személyiség egyes szegmenseire vagy akár jelentős részére nézve profilok rajzolhatók föl.

A profilozás ugyanakkor több okból is súlyos kockázatokat jelent az egyénre, ami miatt "a profilalkotás az egyik legnagyobb kihívást jelentő és legaggasztóbb fejlemény az internet és a Big Data használatával kapcsolatban".[26] E helyütt most nem foglalkozunk azokkal a veszélyekkel, amelyek a felhasznált adatok pontatlanságából, diszkriminatív vagy egyéb problematikus jellegéből fakadhatnak, vagy amelyek azzal a torzítással állnak összefüggésben, hogy a profilozás során "kapcsolat állítható föl olyan tényezők között, amelyekről korábban senki nem gondolta volna, hogy összefüggésbe hozhatók".[27] Ami most számunkra fontos, hogy a profilozással az említett specifikus problémák nélkül is nagyon csínján kell bánni. A profilok a konkrét személyhez kötődő információkon alapulva bizonyos mértékben valósághű képet tükröznek vagy tükrözhetnek az egyénről, ami a folyamatok személyre szabásának nagy pontosságával és hatékonyságával kecsegtet.[28] Az adatokból felépített profilokat értékelő algoritmusokat ezzel az ambícióval alkalmazzák egyre több területen a célzott reklámozástól kezdve az online vásárlá-

- 533/534 -

sok szervezésén[29] vagy a hitelkérelmek minősítésén át[30] az állásra jelentkezők kiválogatásáig[31] vagy akár a szabadságelvonás mértékének meghatározásáról döntő büntetőbíró támogatásáig.[32] Haszonelvű megközelítésben nagyon úgy tűnik, hogy az automatizált, vagyis teljes mértékben profilozáson alapuló döntés a leghatékonyabb. Áhított hatékonyság ide vagy oda, azt láthatjuk, hogy az európai jogalkotás gátat kíván szabni a folyamatoknak. Nincs szó minden körülmények közti tiltásról, de a rendeletek világos logika mentén terelik korlátok közé a profilalkotást.

Már a GDPR is túllépett az adatvédelem szűkebben vett technikai keretein, és jogot adott a kezünkbe az ellen, hogy olyan, joghatással vagy egyéb jelentős hatással járó döntés alanyai legyünk, amelyet kizárólag automatizált módon hoztak meg, ideértve a profilozási eljárásokat is. Speciális célokat szolgáló törvényi kivételektől eltekintve mindenkinek joga van ahhoz, hogy elutasítsa a vele szemben alkalmazni szándékozott automatizált döntéshozatalt és profilozást.[33] A GDPR meghatározó erejű iránymutatása mellett a profilozás elutasítása más rendelkezésekben is megjelenik az új technológiák szabályozásában. Az online platformok tevékenységét szabályozó digitális szolgáltatásokról szóló rendelet (DSA) egyrészt eleve megtiltja, hogy szenzitív adatok (például faji, etnikai hovatartozás vagy politikai vélemény) alapján profilokat állítson fel a platform szolgáltatója,[34] másrészt jogot biztosít a felhasználónak arra, hogy a platformot olyan ajánlórendszer működtetésére szorítsa vele szemben, amely nem profilozáson alapul.[35]

Mivel magyarázható a profilozással szemben oly mértékben tartózkodó hozzáállás, amely generális jogot biztosít arra, hogy megvédjük magunkat tőle? Többről van itt szó, mint a profilozási eljárás lehetséges hibáiról, hiszen azokra elég lenne speciális rendelkezésekkel reagálni. Ahogy meg is teszi ezt például a GDPR és a mesterséges intelligenciáról szóló rendelet (AIA), amikor rendelkezések egész sorával igyekeznek biztosítani a kezelt adatok pontosságát és megbízhatóságát. Vagy amikor az AIA megtiltja a "társadalmi pontrendszer" alkalmazását, akkor az elfogadhatatlan módon vagy nem belátható következményekkel összekapcsolt adatokon nyugvó profilozás egy konkrét tilalmára láthatunk példát.[36]

A szabályozásban tetten érhető, mindezeknél átfogóbb korlátozások jóval többről szólnak az adatkezelés jogszerűsége által megkövetelt technikai elvárásoknál. A rendeletek összességében azzal szemben nyújtanak védelmet, hogy - ha mi azt nem akarjuk, akkor - ne lehessen adatokból profilt rajzolni rólunk, illetve ne lehessen digitális profilunk alapján automatizált döntést hozni ügyeinkben. E mögött az alapelvi követelmény mögött az emberi méltóság olyan értelmezése sejlik föl, amely az emberi személyt léténél fogva többnek tartja múltbéli információkból összeállítható profilnál. Úgy tűnik, hogy a GDPR célja ezen a ponton "kevésbé az információs önrendelkezés biztosítása, mint inkább annak a döntési képességnek a megőrzése, hogy ne válhassunk automatizált döntés tárgyává", vagyis "az emberi méltóság védelme itt előbb jelentkezik az információs önrendelkezés védelméhez képest".[37] Az ember személyiségének digitális materializálása elleni fellépésnek tekinthető az, amikor nem fogadjuk el, hogy a Big Data korában az ember egyedisége és egyénisége a róla rögzített adatokkal teljes körűen megragadható volna. Sőt éppen a korlátlan adatolási kapacitást biztosító technológiák mellett kell különösen hangsúlyozni és körülbástyázni, hogy az ember mindig több marad adatok összességénél, mert személyisége fogalmilag mélyebb és nyitottabb az adatként megfogható, rögzíthető valóságnál.

Pontosan arról van itt szó, a legmodernebb kontextusban és a magánjogon túllépő érvénnyel, amit Balás P. Elemér - az ember személyiségének jogi védelméről értekezve a "Nagy-Szladitsban" - a személyiség "empiria-felettiségének" nevezett.[38] Balás gondolata az ember "racionális meg nem határozottságáról" a személyiségprofil 21. századi jogi problematikájának egészen korai megsejtése.[39]

3.2. Prediktív algoritmusok

Szoros összefüggésben áll a profilalkotással, de témánk szempontjából érdemes kiemelve tárgyalni a prediktív al-

- 534/535 -

goritmusok kérdését. A szoros összefüggés abban áll, hogy - amint arra a GDPR fogalommeghatározása külön utal - a profilozásnak sok esetben nem pusztán a személyiség aktuális felrajzolása és elemzése a célja, hanem az, hogy a múltbéli adatokból a jövőre nézve vonjon le következtetéseket. A profil ez esetben annak alapjául szolgál, hogy jóslásokba bocsátkozzunk az egyén jövőbeli viselkedését, viszonyait illetően. Minél több adatból minél összetettebb mintázatokat azonosít az algoritmus, a technológia ígérete szerint annál biztosabban láthatjuk előre, mi fog történni az egyén vagy akár a közösség szintjén. Mindenekelőtt a különféle mesterségesintelligencia-alkalmazások feladata az, hogy ezt az ígéretet valóra váltsák: lássanak a jövőbe, és ezzel segítsék fejlesztőik és használóik jelenkori döntéseit. Megbízható adós lesz-e a hitelkérelmet benyújtó, rendes munkaerőként viselkedik-e majd az álláspályázatra jelentkező, vagy kell-e (további) bűncselekmény elkövetésétől tartanunk a gyanúba keveredett személy részéről - ezekre a kérdésekre egyesek már a mesterséges intelligenciától várnának biztos választ.

Ezzel áll összhangban, hogy az AIA fókuszba helyezi - többek között - a prediktív algoritmusokat. Fogalommeghatározása, mely a mesterséges intelligenciát olyan gépként azonosítja, amely a bemenetekből az autonómia és az alkalmazkodóképesség bizonyos fokával a környezetét befolyásoló kimeneteket generál, e kimenetek között elsőként nevesíti az előrejelzéseket.[40] Egyfelől nem vitás, hogy "az előrejelzések javításával, a műveleteknek és az erőforrások elosztásának optimalizálásával, valamint az egyének és a szervezetek rendelkezésére álló digitális megoldások személyre szabásával az MI használata kulcsfontosságú versenyelőnyt biztosíthat a vállalkozások számára, és társadalmi és környezeti szempontból kedvező eredményeket hozhat".[41] Másfelől a személyiségi profilok felrajzolásában eleve benne rejlő veszélyeket az előrejelzés kimenete rendkívüli módon kiélezi, és további speciális kockázatokkal tetézi. Utóbbira példa, hogy a prediktív mesterséges intelligenciák körében már található olyan, amelyet kategorikusan tilt a szabályozás: tilos az olyan MI-rendszer forgalomba hozatala és használata, amely természetes személyek kockázatértékelését végzi annak érdekében, hogy - kizárólag a rájuk vonatkozó profilalkotás vagy személyiségjegyeik és tulajdonságaik értékelése alapján - felmérje vagy előre jelezze annak kockázatát, hogy egy adott természetes személy bűncselekményt követ el.[42] A szabályozás preambuluma ebben a körben maga is utal az ártatlanság vélelmének kiemelt relevanciájára,[43] ugyanakkor a szóban forgó MI-alkalmazások kategorikus, későbbi következményektől nem függő, ipso iure tilalma ismét az átfogóbb igazolás felé mutat. Ezt jelzi az is, hogy nem önmagában az adott személyt érintő előrejelzés, kockázatelemzés okoz problémát, hiszen ilyen eljárásnak még a bűnüldözésben is helye lehet például gyanús tranzakciók alapján a pénzügyi csalásokkal összefüggésben vagy ismert csempészútvonalak alapján a kábítószer-kereskedelem terén.[44]

A probléma a profilozáson nyugvó predikcióban rejlik, amely a személyiséghez köthető adatokból kikövetkeztethetőnek láttatja az egyén jövőbeni cselekvését. Shoshana Zuboff érvel amellett, hogy "a megfigyelési kapitalizmus korában jogilag meg kell fogalmazni a jövőhöz való jogot, amely elutasítja - többek között - az emberi tapasztalatok viselkedési adatként való illegitim felfogását és a jövőbeli viselkedésekkel kereskedő előrejelző termékek használatát".[45] Ha ilyen frappánsan elnevezett és ennyire átfogó erejű jogot nem is tudunk kiolvasni az AIA-ből, az a gondolat kétségkívül felsejlik a szabályokból, hogy az ember mint a cselekvés szabadságának méltóságával rendelkező személy jövőbeli magatartása fogalmilag nem olvasható ki historikus adatokból. Még ha adott esetben döntést is kell hozni a személyével összefüggő várható kockázatokról - például a bűnismétlés veszélyének megítélésekor -, ezt a döntést nem hozhatja meg a kizárólag a digitális profilból dolgozó mesterséges intelligencia. Az ember mindig több marad adatok összességénél, személyisége fogalmilag mélyebb és nyitottabb az adatként megfogható, rögzíthető valóságnál, ezért értékelése sosem bízható kizárólag gépekre. Ez a gondolat pedig már át is vezet minket a következő jogi követelményre, amelyet a szoros kapcsolat ellenére is érdemes külön pontban kiemelni.

3.3. Elgépiesedés: az emberi beavatkozás kérdése

Az előző két pontban láttuk, hogy a legújabb technológiákra vonatkozó szabályozások az emberi méltóság tartalmi jegyei mentén korlátok közé terelik a profilalkotást és az egyéb automatikus döntéshozatalokat, köztük kiemelten is a predikciót. Szűkebb körben tilalmakat állítanak fel, és általános jelleggel jogot biztosítanak az ilyen digitális eljárások elutasítására. Tilalmak vagy egyéni elutasítás hiányában ugyanakkor lehetőség van digitális profilok és automatizált folyamatok alkalmazására. Ebben a pontban azt emeljük ki, hogy a szabályozások még ez utóbbi esetben is érvényesítenek olyan határozott követelményt, amely az emberi méltóság elemeként fogható fel.

- 535/536 -

A GDPR általános követelményként rögzíti, hogy még ha jogszerűen kerül is sor automatizált döntéshozatalra vagy profilozásra, az adatkezelő akkor is köteles megfelelő intézkedéseket tenni az érintett jogainak, szabadságainak és jogos érdekeinek védelme érdekében, ideértve az érintettnek legalább azt a jogát, hogy az adatkezelő részéről emberi beavatkozást kérjen, álláspontját kifejezze, és a döntéssel szemben kifogást nyújtson be.[46] Az adatvédelmi rendeletnek ezt az általános érvényű, de kevésbé taglalt előírását az AIA komoly követelményrendszerré fejleszti az ún. nagy kockázatú mesterségesintelligencia-rendszerek vonatkozásában. Ahogy az egész AIA számára, úgy most számunkra is ezek a nagy kockázatú alkalmazások bírnak jelentőséggel, mivel ezek jelentős része - az egészségre vagy a biztonságra veszélyt jelentő egyes termékek mellett - olyan rendszereket takar, amelyek szoros kapcsolatban állnak az emberi méltósággal, mivel az alkalmazási területükön (pl. oktatás, foglalkoztatás, rendvédelem, igazságügy) az alapvető jogokra nézve kedvezőtlen hatás kockázatát hordozzák.[47] A korábban elmondottakkal összhangban kiemelendő, hogy a rendeletben felsorolt területeken az ott megjelölt feladatokat végző MI-rendszerek mindenképpen nagy kockázatúnak tekintendők akkor, ha profilalkotást végeznek.

A nagy kockázatú MI-rendszerek esetében az AIA a GDPR emberi beavatkozás biztosítására irányuló elvárását részletes követelményrendszerré fejleszti. Ezeket az alkalmazásokat úgy kell megtervezni és fejleszteni, hogy a használatuk időtartama alatt természetes személyek hatékonyan felügyelhessék őket. Az emberi felügyelettel megbízott természetes személyek számára lehetővé kell tenni, hogy (1) megfelelően megértsék a magas kockázatú MI-rendszer képességeit és korlátait, (2) tisztában legyenek azzal a lehetséges tendenciával, hogy automatikusan vagy túlzottan támaszkodhatnak az MI kimeneteire, (3) dönthessenek úgy, hogy nem veszik igénybe, figyelmen kívül hagyják vagy más módon felülbírálják a rendszert, és (4) beavatkozhassanak a rendszer működésébe, vagy megszakíthassák azt.[48] Ezekből a rendelkezésekből jól látható, hogy a szabályok valós és releváns emberi felügyeletet követelnek meg a nagy kockázatú MI-rendszerek alkalmazása során.

Adódik a kérdés: honnan ered az a jogunk, hogy ne gépek döntsenek rólunk, hanem egy másik ember értékelje az ügyünket? A döntéshozatal hatékonysága melletti érvek ezzel ellentétes irányt támogatnak: számos esetben, sőt a döntések többségénél úgy tűnhet, hogy az emberi elme által befogadhatatlan mennyiségű adat elemzésére képes digitális gépek alaposabb mérlegelés után jutnak el következtetéseikhez. Gyakorlati alapon tehát aligha igazolható az érdemi emberi beavatkozás és felügyelet követelménye. Elismerve, hogy más fontos alapelveknek is szerepük van - nyilvánvalónak tűnik például számunkra, hogy a demokrácia politikatudományi elvárásai vagy a jogi felelősségtan megközelítése is az emberi cselekvést preferálja -, azt állítjuk, hogy ebben az esetben is az emberi méltóság kikristályosodó tartalma mutatkozik meg. Az emberi személyről szóló döntéseknél ugyanis nem elégedhetünk meg az algoritmusok okosságával. Egyrészt jelentősége van a korábban már kimondott tézisnek, mely szerint az ember sosem lesz leírható digitális információk összességével. Személye léténél fogva kimeríthetetlen mégoly tömeges mennyiségű adat számára is. Másrészt ugyanerre jutunk a másik oldalról, a döntéshozó entitás felől közelítve: a bemeneti adatokba és logikákba zárt gép számára fogalmilag hozzáférhetetlen a digitális információkkal és műveleti szabályokkal le nem írható valóság.[49] "Az automatizált folyamatok alanyai matematikai és valószínűségi számítások tárgyaivá válnak."[50] Az "empiria-felettiséget" csak egy másik "empiria-feletti" létező képes befogadni, felfogni. Balás P. Elemérnek az a személyiségi jogi érvelése is szélesebb értelmet nyer, amely szerint "a személyiségi jog alkalmazása mindig azt jelenti, hogy a személyiségnek a külső világhoz tartozása elvét kell alkalmazni a külső világnak egy konkrét konfigurációjára, a lehető legkülönfélébb vonatkozásokban, melyek kimeríthetetlenek és előreláthatatlanok, a megoldást pedig rendszerint csak élő ember tudja megtalálni, aki szintén éli a maga személyiségét, amikor az esetet megvizsgálja, nemcsak racionálisan, hanem konkrét intuícióval is".[51]

Egy másik emberre van tehát szükség ahhoz, hogy a döntéshozatal fogalmilag, elvi jelleggel képes legyen értékelni, figyelembe venni a személy teljes valóságát. Ezt az emberi méltóságból következő megfontolást nem tudja lerontani az a valós praktikus probléma, hogy a konkrét esetben vajon az emberi döntéshozó mennyire akar vagy képes a digitális adatokon és a rajtuk nyugvó gépi ajánlásokon túlmutató szempontokat értékelni. Az emberi beavatkozás és felügyelet követelménye attól véd meg minket, hogy olyan döntéshozatali útra lépjünk, amely eleve elveszíti az adatokon túli világ figyelembevételének képességét, ezzel együtt az emberi méltósággal való összhang esélyét. E helyütt most csak utalunk rá, hogy van Est és Gerritsen javaslata szerint az emberi részvétel jogi elvárásának nem is csupán a konkrét következményekkel járó egyedi döntéshozatalokra kellene kiterjednie, hanem az értelmes emberi kapcsolódások jogaként társa-

- 536/537 -

dalmi, közösségi dimenziókat is, például a szociális ellátások szféráját is le kellene fednie.[52]

3.4. Manipuláció

Az egymáshoz szorosan kapcsolódó fenti három pont után röviden ki kell térnünk egy némiképp különálló, ám az emberi személy tisztelete szempontjából kulcsfontosságú kérdésre: a manipulációra. A digitalizáció a manipuláció új korszakát nyitotta meg. Bár a manipuláció szándéka és különféle eszközei mindig is jellemezték történelmünket, a legújabb technológiák az egyéni gondolkodás és véleményformálás, valamint a társadalmi folyamatok befolyásolásának korábban elképzelhetetlenül széles tárházát nyitották meg. E helyütt most ennek csak azt a vékony szeletét érintjük, amely a legszorosabb kapcsolatban áll az emberi méltóság kérdésével. Miközben jogosan állnak széleskörű viták kereszttüzében a digitális eszközökkel, különösen a mesterséges intelligenciával manipulált kommunikációs tartalmak (szövegek, képek, hanganyagok, videók), számunkra annak a jelenségnek van kiemelt súlya, amely magának az emberi gondolkodási folyamatnak a közvetlen manipulálására irányul. Napjaink gépei a korábbiaknál jóval mélyebbre képesek hatolni az emberi akaratképződés és véleményformálás terepéül szolgáló agyi működésbe.

Az AIA preambulumában pontosan azonosított veszély szerint az MI-n alapuló manipulatív technikák felhasználhatók arra, hogy nem kívánt magatartásformákra vegyék rá az embereket, vagy megtévesszék őket olyan, döntésre ösztönző módokon, amelyek aláássák és csorbítják autonómiájukat, döntéshozatalukat és szabad választásukat. "Az ilyen MI-rendszerek olyan szubliminális alkotóelemeket - például hang-, képi és videoingereket - alkalmaznak, amelyeket a személyek nem képesek észlelni, mivel az említett ingerek túlmutatnak az emberi észlelésen, vagy más olyan manipulatív vagy megtévesztő technikákat használnak, amelyek úgy ássák alá vagy csorbítják a személy autonómiáját, döntéshozatalát vagy szabad választását, hogy az említett technikáknak az emberek nincsenek tudatában, vagy ha tudatában vannak is azoknak, az embereket mégis megtéveszthetik, vagy nem képesek azokat irányítani, vagy azoknak ellenállni. Ezt elősegíthetik például a gép-agy interfészek vagy a virtuális valóság, mivel azok nagyobb fokú ellenőrzést tesznek lehetővé afelett, hogy milyen ingerek kerüljenek megjelenítésre a személyeknek, amennyiben ezek az ingerek érdemben és jelentősen káros módon torzíthatják viselkedésüket."[53]

Bublitz és Merkel azzal érvelnek, hogy az elme-agy dualizmus alapján a jog jelenleg csak egyoldalú védelmet nyújt: szisztematikusan védi a testet és az agyat, de csak töredékesen az elmét és a mentális állapotot. Mindazonáltal az elmékbe való beavatkozást és a mentális tevékenység fürkészését szolgáló új technológiák korában a jognak önálló védelmet kellene bevezetnie az emberek belső szférája számára. Mindezek alapján a szerzőpáros javaslatot tesz a szellemi szabadsághoz vagy a szellemi önrendelkezéshez való újszerű jog konstituálására.[54] A gondolatszabadság eddigi joga ugyanis nem a gondolkodási folyamatra, hanem csupán annak eredményére koncentrált, míg napjainkban maga a gondolatképződés vált fenyegetetté.[55]

Az új szabályozások ezúttal sem mennek odáig, hogy új jogot vezetnének le az emberi méltóság védelméből, de az AIA az első kulcsfontosságú lépést teszi meg, amikor nem csupán alkalmazási feltételeket támaszt, hanem egyenesen betiltja az e tekintetben legveszélyesebb alkalmazásokat. Az uniós rendelet értelmében tilos "az olyan MI-rendszerek forgalomba hozatala, üzembe helyezése vagy használata, amelyek szubliminális technikákat alkalmaznak az adott személy tudatán kívül, vagy célzottan manipulatív vagy megtévesztő technikákat alkalmaznak azzal a céllal vagy olyan hatás érdekében, hogy lényegesen torzítsák egy személy vagy személyek egy csoportjának magatartását azáltal, hogy jelentősen gyengítik a megalapozott döntéshozatalra való képességüket".[56] A szabályozás tehát reagál az új kihívásra, és az emberi méltóság új, a gondolat- és véleményszabadságon túli aspektusaként védelem alá veszi magát a gondolkodási folyamatot, egyfajta "kognitív önrendelkezést" biztosítva az érintetteknek.[57]

IV.

Befejezés

A tanulmányban azt vizsgáltuk, milyen választ adnak a legújabb technológiák által az emberi személyiséggel kapcsolatban támasztott egyes kihívásokra azok az euró-

- 537/538 -

pai uniós rendeletek, amelyek az alkotmányjog felől nézve a legmeghatározóbbnak tekinthetők a digitális eszközök szabályozásában (GDPR, DSA, AIA). Amellett érveltünk, hogy a profilalkotás, a prediktív algoritmusok alkalmazása vagy az emberi beavatkozás szabályozása mögött az emberi méltóság jogi fogalmának olyan új elemei húzódnak, amelyek nem engedik, hogy az emberi személyiséget digitális adatokkal teljes mértékben leírható valóságnak tekintsük. Szűkebb körben tilalmak, széles körben pedig erős érintetti jogosultságok jelölik ki azt a határt, amelyen belül a technológiai eszközök, kiváltképp a mesterséges intelligencia "felforgató erejét" lefékezik az emberi méltóság követelményei.

A szabályozások vizsgált elemei mögötti igazolás tisztázásának egyrészt kiemelt elvi jelentősége van: megmutatkozik benne a közös európai jogi gondolkodás, amely a racionális hatékonyságot akár jelentősen növelő technikai eszközökkel szemben meghatározó pontokon az emberi méltóság értékének ad elsőbbséget. Ez a megközelítés jelenleg nem fedezhető fel más, globálisan releváns szabályozásokban (például az Egyesült Államokban vagy Kínában), ahol látszólag a versenyképesség és a hatékonyság élvez prioritást. Másrészt a kérdésnek világos gyakorlati tétje is van: ha mindezek az új követelmények az emberi méltóság jogi fogalmából fakadnak, akkor az európai jog akkor sem engedhet belőlük, ha a globális gazdasági-pénzügyi verseny érdekei első ránézésre megengedőbb szabályozás mellett szólnak. Nem azt állítjuk, hogy az elmúlt évek felpörgetett uniós digitális jogalkotása után a gyakorlati tapasztalatok fényében ne lehetne fölvetni akár a dereguláció gondolatát is,[58] hanem azt, hogy az itt elemzett előírások nem tartozhatnak a visszanyesésre szánt körbe. Meggyőződésünk, hogy hosszabb távon a kiegyensúlyozott növekedés érdekét is szolgálja, ha az emberi méltóság alapján rendet vágunk gépek és emberek viszonyai között. ■

JEGYZETEK

[1] A TKP2021-NKTA-51 számú projekt a Kulturális és Innovációs Minisztérium Nemzeti Kutatási Fejlesztési és Innovációs Alapból nyújtott támogatásával, a TKP2021-NKTA pályázati program finanszírozásában valósult meg.

[2] II. Vatikáni Zsinat: Gaudium et Spes. In: Tomka Miklós - Goják János: Az Egyház társadalmi tanítása. Dokumentumok. Budapest, Szent István Társulat, 2005. 206.

[3] Dupré, Cathrine: Dignity, Democracy, Civilisation. Liverpool Law Review. 2012/3. sz. 263-264. https://doi.org/10.1007/s10991-012-9123-7

[4] Lásd C-36/02. sz. Omega Spielhallen ügyben hozott ítélet (2004. október 14.) CLI:EU:C:2004:614.

[5] Mattson, David - Clarke, Susan: Human dignity in concept and practice. Policy Sciences. 2011/4. sz. 303-319. https://doi.org/10.1007/s11077-010-9124-0

[6] O'Mahony, Conor: There Is No Such Thing as a Right to Dignity. International Journal of Constitutional Law. 2012/2. sz. 551. https://doi.org/10.1093/icon/mos010. O'Mahony szerint egyébként elvi, logikai probléma is van az emberi méltóság jogi természetével: "Ha elfogadjuk, hogy a méltóság minden emberi lény veleszületett minősége, amely egyenlő elbánásra és tiszteletre szólít fel, akkor nem létezhet méltósághoz való jog." Uo. 562.

[7] Bagaric, Mirko - Allen, James: The vacuous concept of dignity. Journal of Human Rights. 2006/5. sz. 257-270. https://doi.org/10.1080/14754830600653603

[8] Balázs Zoltán: Emberi méltóság. Jogelméleti Szemle. 2005/4. sz.

[9] Balogh Zsolt: Az emberi méltóság: jogi absztrakció vagy alanyi jog. Iustum, aequum, salutare. 2010/4. sz. 35.

[10] Zakariás Kinga: Az emberi méltósághoz való alapjog. Összehasonlító jogi elemzés a német és a magyar alkotmánybírósági gyakorlat tükrében. Budapest, Pázmány Press, 2019. 24. A szerző a magyar diskurzusban is azonosítja a két eltérő felfogás, vagyis az emberi méltóságot jog feletti értékként vagy alanyi jogként azonosító értelmezések megjelenését. Uo. 35.

[11] Stephen Riley: The Function of Dignity. Amsterdam Law Forum. 2013/2. sz. 106. https://doi.org/10.37974/ALF.252

[12] Carozza, Paolo G.: Human Dignity and Judicial Interpretation of Human Rights: A Reply. European Journal of International Law. 2008/5. sz. 933. https://doi.org/10.1093/ejil/chn059

[13] Riley, Stephen: Human Dignity. Comparative and Conceptual Debates. International Journal of Law in Context. 2010/2. sz. 136. https://doi.org/10.1017/S1744552310000030

[14] Beyleveld, Deryck - Brownsword, Roger: Human Dignity, Human Rights, and Human Genetics. The Modern Law Review. 1998/5. sz. 680. https://doi.org/10.1111/1468-2230.00172

[15] Győrfi Tamás a magyar alkotmánybírósági gyakorlat első tizenöt éve alapján abban látja az emberi méltóság alkalmazásának dogmatikai nehézségét, hogy az Alkotmánybíróságnak nincs mércéje arra vonatkozóan, hogy az emberi méltóságból kiolvasztott jogok közül melyek és miért érdemesek erős jogi védelemre. Győrfi Tamás: Az emberi méltósághoz való jog dogmatikai problémái. Fundamentum. 2003/1. sz. 143.

[16] Ahogy például a magyar Alkotmánybíróság az emberi méltóságból levezethető önálló jogként nevesítette a névjogot az 58/2001. (XII. 7.) AB határozatban.

[17] Itt most nem mélyülünk el a tudományos diskurzusban sokat elemzett és sokféle definíciós kísérlettel körüljárt fogalomban, lásd erre Webster, Frank: Theories of the Information Society. Abingdon-New York, Routledge, 1995. https://doi.org/10.4324/9780203991367

[18] Ahogy többen is megfogalmazták: "az adat az új olaj". Lásd például Balkin, Jack M.: Free Speech in the Algorithmic Society. Big Data, Private Governance, and New School Speech Regulation. UC Davis Law Review. 2018/3. sz. 1154. https://doi.org/10.2139/ssrn.3038939

[19] Simoncini, Andrea - Longo, Erik: Fundamental Rights and the Rule of Law in the Algorithmic Society. In: Micklitz, Hans-W. et al. (ed.): Constitutional Challenges in the Algorithmic Society. Cambridge-New York, Cambridge University Press, 2022. https://doi.org/10.1017/9781108914857.003

[20] Van Est, Rinie: Intimate technology. The battle for our body and behaviour. https://www.rathenau.nl/en/digitalisering/intimate-technology (2025.04.07.).

[21] Van Est, Rinie - Gerritsen, Joost: Human rights in the robot age. Challenges arising from the use of robotics, artificial intelligence, and virtual and augmented reality. The Hague, Rathenau Instituut, 2017. https://www.rathenau.nl/sites/default/files/2018-02/Human%20Rights%20in%20the%20Robot%20Age-Rathenau%20Instituut-2017.pdf (2025.04.07.). 14.

[22] Az Európai Parlament és a Tanács (EU) 2016/679 rendelete (2016. április 27.) a természetes személyeknek a személyes adatok kezelése tekintetében történő védelméről és az ilyen adatok szabad áramlásáról, valamint a 95/46/EK rendelet hatályon kívül helyezéséről (általános adatvédelmi rendelet).

[23] Az Európai Parlament és a Tanács (EU) 2022/2065 rendelete (2022. október 19.) a digitális szolgáltatások egységes piacáról és a 2000/31/EK irányelv módosításáról (digitális szolgáltatásokról szóló rendelet).

[24] Az Európai Parlament és a Tanács (EU) 2024/1689 rendelete (2024. június 13.) a mesterséges intelligenciára vonatkozó harmonizált szabályok megállapításáról, valamint a 300/2008/EK, a 167/2013/EU, a 168/2013/EU, az (EU) 2018/858, az (EU) 2018/1139 és az (EU) 2019/2144 rendelet, továbbá a 2014/90/EU, az (EU) 2016/797 és az (EU) 2020/1828 irányelv módosításáról (a mesterséges intelligenciáról szóló rendelet).

[25] GDPR 4. cikk 4. pont.

[26] Korff, Douwe - Browne, Ian: The use of the Internet & related services, private life & data protection: trends, technologies, threats and implications. (Council of Europe, T-PD(2013)07) 6. https://ssrn.com/abstract=2356797 (2025.04.07.).

[27] Uo.

[28] Anélkül, hogy a mélyére ásnánk az ezt illető vitának, egy erős érvelés ezzel az uralkodó állásponttal szemben: Devins, Caryn - Felin, Teppo - Kauffman, Stuart - Koppl, Roger: The Law and Big Data. Cornell Journal of Law and Public Policy. 2018/2. sz. 357.

[29] Metz, Cade: Now Anyone Can Tap the Al Behind Amazon's Recommendations. http://www.wired.com/2015/04/now-anyone-can-tap-ai-behind-amazons-recommendations/ (2025.04.07.).

[30] Keats Citron, Danielle - Pasquale, Frank: The Scored Society. Due Process for Automated Predictions. Washington Law Review. 2014/1. sz. 1.; Hurley, Mikella - Julius Adebayo: Credit Scoring in the Era of Big Data. The Yale Journal of Law and Technology. 2016/18. sz. 148.

[31] Bertrand, Marianne - Mullainathan, Sendhil: Are Emily and Greg more employable than Lakisha and Jamal? A field experiment on labor market discrimination. NBER Working Paper Series. Working Paper No. 9873.

[32] State v. Loomis, 881 N.W.2d 749 (Wis. 2016); Stevenson, Megan T. - Slobogin, Christopher: Algorithmic Risk Assessments and the Double-Edged Sword of Youth. Washington University Law Review. 2018/3. sz. 681. https://doi.org/10.2139/ssrn.3225350

[33] GDPR 22. cikk (1) bekezdés.

[34] DSA 26. cikk (3) bekezdés.

[35] DSA 38. cikk.

[36] AIA 5. cikk (1) bekezdés c) pont.

[37] Dreyer, Stephan - Shultz, Wolfgang: The General Data Protection Regulation and Automated Decision-making: Will it deliver? (Gütersloh, Bertelsmann Stiftung, 2019) 23. https://www.bertelsmann-stiftung.de/en/publications/publication/did/the-general-data-protection-regulation-and-automated-decision-making-will-it-deliver (2025.09.10.).

[38] Balás P. Elemér: Személyiségi jog. In: Szladits Károly (szerk.): Magyar magánjog. Budapest, Grill Károly Könyvkiadóvállalata, 1941. 637.

[39] Majtényi László: A méltóság, a szabadság meg a Sólyom-életmű. Élet és irodalom. 2024/51-52. sz. 2024. december 19.

[40] AIA 3. cikk 1. pont.

[41] AIA Preambulum (4) bekezdés.

[42] AIA 5. cikk (1) bekezdés d) pont.

[43] AIA Preambulum (42) bekezdés.

[44] AIA Preambulum (42) bekezdés.

[45] Zuboff, Shoshana: The Age of Surveillance Capitalism. The Fight for a Human Future at the New Frontier of Power. New York, Public Affairs, 2019. 332-345.

[46] GDPR 22. cikk (3) bekezdés.

[47] AIA 7. cikk.

[48] AIA 14. cikk.

[49] Ződi Zsolt részletesen igazolja, hogy a gépi "kimenetek" még a legfejlettebb LLM rendszerek esetében sem feleltethetők meg fogalmilag az emberi "döntések" kritériumainak. Ződi Zsolt: A chatbotok használatának szempontjai és korlátai a jogászi munkában (kézirat).

[50] Dreyer-Shultz: i. m. 29.

[51] Balás: i. m. 637.

[52] Van Est-Gerritsen: i. m. 45. Az általuk hivatkozott Zeynep Tufekci úgy fogalmaz, hogy "nem szervezhetjük ki a kötelességeinket gépeknek". Tufekci, Zeynep: Machine intelligence makes human morals more important. https://www.ted.com/talks/zeynep_tufekci_we_can_t_control_what_our_intelligent_machines_are_learning (2025.04.07.).

[53] AIA Preambulum (29) bekezdés.

[54] Bublitz, Jan Christoph - Merkel, Reinhard: Crime against minds: on mental manipulations, harms and a human right to mental self-determination. Criminal Law and Philosophy. 2014/1. sz. 51. https://doi.org/10.1007/s11572-012-9172-y

[55] Bublitz, Jan Christoph: Freedom of Thought in the Age of Neuroscience: A Plea and a Proposal for the Renaissance of a Forgotten Fundamental Right. Archives for Philosophy of Law and Social Philosophy. 2014/1. sz. 1-25. https://doi.org/10.25162/arsp-2014-0001

[56] AIA 5. cikk (1) bekezdés a) pont.

[57] Valcke, Peggy - Clifford, Damian - Dessers, Vilte Kristina: Constitutional Challenges in the Emotional AI Era. In: Micklitz, Hans-W. et al: i. m. 73. https://doi.org/10.1017/9781108914857.005

[58] Vö. O'Regan, Ellen: Europe's GDPR privacy law is headed for red tape bonfire within 'weeks'. Politico. April 3, 2025. https://www.politico.eu/article/eu-gdpr-privacy-law-europe-president-ursula-von-der-leyen/ (2025.04.08.).

Lábjegyzetek:

[1] A szerző egyetemi docens, NKE Információs Társadalom Kutatóintézet.

Tartalomjegyzék

Visszaugrás

Ugrás az oldal tetejére