Megrendelés
Európai Jog

Fizessen elő az Európai Jogra!

Előfizetés

Bagjos Csaba[1] - Bors Szilvia[2]: A mesterséges intelligencia megjelenése az európai munkajogban (EJ, 2024/4., 22-29. o.)

"A modern technológia [...] folyamatosan elrejti önmagát a használó elől, így egyre kevesebb esélyünk van megérteni a működését. Ha változtatni akarunk azon, ahogy magával a változással megküzdünk, el kell fogadnunk a haladást, és ebben az esetben már nem a technológia természetén, hanem az átláthatóságán kell alakítani."

Ian Douglas

1. AZ MI alkalmazásának hatása az alapjogokra

Az MI alkalmazása során sokan csak arra gondolnak, hogy van egy technológia, mely gépekből és adatbázisokból áll, mely a mindennapi életünkre, munkánkra technikailag van kihatással. Ugyanakkor abba már jóval kevesebben gondolnak bele, hogy az MI használata, működése és működtetése az emberek alapvető jogait mennyiben érinti, segíti vagy éppen korlátozza, sérti azokat.

Ezzel összefüggésben fontos hangsúlyozni az Európai Unió Alapjogi Chartájában foglalt jogok jelentőségét, azok védelmét. Az Alapjogi Charta 2009-től ugyanolyan érvényességgel és hatállyal bír, mint bármelyik uniós szerződés, és összefoglalóan tartalmazza a polgári, politikai, gazdasági és szociális jogokat. Az 51. cikk (1) bekezdése alapján nemcsak az Unió intézményeinek, szerveinek, hivatalainak és ügynökségeinek kell az Alapjogi Chartában foglalt összes jogot tiszteletben tartaniuk, de az uniós tagállamoknak is. Ebből következően ez a szabályozás irányadó az MI-re is.

Az MI-kutatás jelenlegi fázisában megállapítható, hogy nem csak egyfajta MI van. Ezeket a rendszereket külön-külön fejlesztik, és a különböző rendszerek eltérő szinteken állnak akár az automatizálást vagy az összetettséget tekintve, mint ahogy méretükben is eltérőek. Mindebből az is fakad, hogy eltérő mértékű potenciális hatást gyakorolnak az emberekre és az őket megillető alapvető jogokra is. Mint arra az Európai Unió Alapjogi Ügynöksége (továbbiakban: FRA) rámutatott, az MI használata esetén a jogok szélesebb körét kell figyelembe venni, a technológia és a felhasználási terület függvényében. A magánélethez és az adatvédelemhez kapcsolódó jogok mellett foglalkozni lehet az egyenlőséggel, a megkülönböztetésmentességgel, az igazságszolgáltatáshoz való joggal és egyéb jogokkal. Ilyenek például az emberi méltóság, a társadalombiztosításhoz és szociális ellátáshoz való jog, a megfelelő ügyintézéshez való jog (különösen a közszektorban) és a fogyasztóvédelemhez való jog (különösen üzleti vállalkozások esetében). Az MI használatának kontextusától függően bármely más, a Charta által védett jogot figyelembe kell venni.[1]

Ezzel összefüggésben ugyanakkor már az Európai Bizottság, az MI-vel összefüggésben 2020-ban kiadott Fehér Könyvében[2] felhívta a figyelmet az alapvető jogok védelmére,[3] és a már részben azonosított kockázatokra[4] is. Ez utóbbiak között kifejezetten nevesítette az adatvédelmet, a magánélet védelmét és a megkülönböztetésmentességet érintő kockázatokat. A továbbiakban ezen jogok és az MI kapcsolatát fogjuk elemezni.

1.1. Személyes adatok védelméhez való jog

Az alapvető jogok közül a leginkább érintett a személyes adatok védelméhez való jog, hiszen az MI alapvetően adatbázisokból, illetve emberek által feltöltött adatokból szerzi a működéséhez, tanulásához szükséges információkat. Az MI egyik legnagyobb előnyének, pozitív tulajdonságának tartják azt, hogy hatalmas adatbázisokat, adathalmazokat képes jobban felhasználni, ezáltal is racionalizálja, optimalizálja a gazdasági folyamatokat, termékeket. Ugyanakkor az MI nemcsak vagyonteremtésre, hanem konkrét problémák megoldására is felhasználható.[5] Ez utóbbiak keretében például segíti a diagnózis felállítását, az oktatás hatékonyságát, a közlekedés szervezettségét. Mindezt a rendelkezésére bocsátott adatok feldolgozásával, értelmezésével.

Az MI működésének tehát egyik alapja, hogy megfelelő, sok, jó minőségű adat álljon a rendelkezésére, melyet megtanul az alkalmazott algoritmusok segítségével, majd a megtanult adatokat egy beprogramozott mintázathoz rendezi, és ezen minták alapján hozza meg a döntését. A rendszer jó működéséhez jogszerűen beszerzett adatokra van szükség.

- 22/23 -

A tanulási fázisban a személyes adatok tekintetében az adatvédelmi rendelet[6] szerinti adatkezelés történik, hiszen automatizált műveletek összességével dolgozza fel azokat az MI. Ezzel összefüggésben az a személy vagy szerv, aki/amely a személyes adatok kezelésének céljait és eszközeit ennek során meghatározza, adatkezelőnek minősül. A tanulási fázist követő felhasználási fázisban a GDPR szerinti profilalkotásra, illetve automatizált döntéshozatalra kerülhet sor. Ezek közül különösen a profilalkotás, ami jelentőséggel bír a személyes adatok tekintetében, mert ennek során a személyes adatok automatizált kezelése valósul meg, mely alapján a személyes adatokat valamely természetes személyhez fűződő bizonyos személyes jellemzők értékelésére vagy előrejelzésére használják. Ez kiterjedhet akár a munkahelyi teljesítményre, gazdasági helyzetre, egészségi állapotra, személyes preferenciákra, érdeklődésre, megbízhatóságra, viselkedésre. A profilalkotás eredményeképpen pedig akár emberi beavatkozással, de akár anélkül is - ún. automatizált döntéshozatallal - végső döntés születhet. Az automatizált döntéshozatal az a képesség, hogy technológiai eszközök segítségével, emberi beavatkozás nélkül hoznak döntéseket.[7]

Könnyen belátható, hogy az adatok kezelése során számtalan esetben találkozhat az adatkezelő személyes adatokkal, melyek között számos, kifejezetten érzékeny is lehet, mint például az adott személy neme, életkora, egészségi állapota, fajhoz, nemzetiséghez tartozása. Ezt a problémát az Európai Unió már a GDPR-ban is igyekezett kezelni. A GDPR 5. cikkében meghatározza a személyes adatok kezelésére vonatkozó elveket, mint például jogszerűség, tisztességes eljárás és átláthatóság, célhoz kötöttség, adattakarékosság elvei, míg a 6. cikkében az adatkezelés jogszerűségének feltételrendszerét. A GDPR 12. cikke - mint a GDPR egyik legfontosabb cikke - általánosságban rendelkezik az átlátható tájékoztatásról, kommunikációról és az érintett jogainak gyakorlására vonatkozó intézkedésekről. Ehhez képest a GDPR 13. cikke az érintettől, míg a 14. cikke pedig a nem érintettől szerzett adatokra vonatkozó rendelkezéseket tartalmazza akként, hogy az adatkezelőnek milyen tájékoztatási kötelezettségei vannak ilyen esetekben. Az MI működésével összefüggésben éppen ezért különösen nagy jelentősége van annak, hogy ezen elvek, jogok és kötelezettségek a gyakorlatban miként valósulnak meg.

Főszabály szerint a GDPR 22. cikke alapján a személyes adattal érintett jogosult arra, hogy ne terjedjen ki rá az olyan, kizárólag automatizált adatkezelésen - ideértve a profilalkotást is - alapuló döntés hatálya, amely rá nézve joghatással járna vagy őt hasonlóképpen jelentős mértékben érintené. Míg az automatizált döntésekre vonatkozó speciális szabályok alapján az MI akkor használható jogszerűen, ha arra szerződés, jogszabály vagy kifejezett hozzájárulás megfelelő jogalapot szolgáltat, illetve, ha az érintett kérésére lehetőséget biztosítanak az emberi beavatkozással hozott döntésre is.[8]

Az adatvédelem területén, mint már korábban hivatkozásra került, alapvető elvárás az átláthatóság (GDPR 5. cikk). Ez azt jelenti, hogy az adatkezeléssel érintett természetes személy számára az adatkezelésnek átláthatónak kell lennie. Az átláthatósággal összefüggésben merül fel az ún. fekete doboz problematikája, mely az MI esetében azt jelenti, hogyan lehet úgy a gépi tanulást használó rendszert létrehozni, hogy az az adatkezeléssel érintett számára kellően átláthatóan működjön az általa produkált eredmények tekintetében és eközben a kezelt személyes adatok tekintetében megfeleljen az átláthatóság követelményének. Ezt vizsgálta a Norvég Adatvédelmi Hatóság, mely megállapította, hogy az átláthatóság szempontjából fontos szerepe van annak, hogy a használt gépi tanuló rendszer milyen működési elvet használ. Két működési elvet vizsgáltak. Az egyik az ún. döntési fa modell, a másik pedig a neurális hálózat modell volt. A döntési fa a különböző döntési lehetőségeket ábrázolja és matematikailag gráfoknak minősülnek. A neurális hálózat ehhez képest az idegrendszerhez hasonló alapú döntésszimuláció. A neurális hálózatok rendszerint legalább három funkcionálisan és strukturálisan is jól elkülöníthető részből állnak: bemeneti réteg, rejtett rétegek és kimeneti réteg. A rejtett rétegek a bemenet és a kimenet között helyezkednek el, feladatuk az információ transzformációja, kódolása, illetve absztrakciók, köztes reprezentációk létrehozása. Számuk, típusuk, egymáshoz való kapcsolódásuk sorrendje és a bennük lévő neuronok száma változtatható paraméterei a hálózatnak. Mindkét típusú hálózat mérete és az egyes rétegek közötti kapcsolat olyan bonyolulttá teheti az adatkezelési folyamatokat, amelyeket megfelelő eszközök nélkül lehetetlen lenne az ember számára érthetően leírni, ezáltal az átláthatóságuk is kétségessé válik,[9] azaz más szóval sérül vagy sérülhet az átláthatóság elve.

1.2. Diszkrimináció tilalma

Ezen alapvető jog is szorosan kapcsolódik az adatokhoz. Fontos, hogy az MI a betáplált adatok alapján az adatkezeléssel érintett személyek tekintetében se hozzon olyan döntést, mely az adott egyénre hátrányos megkülönböztetéssel járna. Az esélyegyenlőség sérelme és a diszkrimináció tipikusan két esetben szokott előfordulni az MI rendszerekben. Egyrészt az MI által alkalmazott, illetve az MI betanításában alkalmazott adatkészlet hiányossága, hibája, diszkriminatív jellege, másrészt a rendszerben rejlő elfogultság miatt. Amennyiben a rendszer eleve diszkriminatív adatokból tanul, akkor az előítéletes MI működéséhez nem szükséges szándékosság vagy emberi tudatosság sem.[10]

A diszkrimináció nemcsak egyénekkel, de bizonyos csoportokkal szemben is megjelenhetnek, például nem vagy etnikai származás alapján. Ilyenkor egy adott csoport esetében az eredmény szisztematikusan eltér a többi csoporttól, és ezért az egyik csoportot következetesen másként kezelik, mint a többit. Ennek az alapja többféle ok lehet, egyrészt az algoritmus tanításához használt adatok védett tulajdonságokra (pl. nem, etnikai hovatartozás, vallás stb.) vonatkozó információkat tartalmaznak, másrészt az adatokban néha ún. "helyettesítő információk" is szerepelnek, harmadrészt a felhasználásra szánt adatok sem semlegesek, negyedrészt a rosszul kiválasztott adatok is okozhatnak ilyen anomáliát.

- 23/24 -

Az első eset elég egyértelmű, hiszen akkor egyértelmű védett tulajdonságot tartalmaz az adathalmaz, mint például valamely kisebbséghez való tartozás. A második esetben a helyettesítő információ lehet akár irányítószám is, ami a származás helyére utal egy szegregált területen. A harmadik esetre példa, amikor például a megszületett gyermekek esetében a fehér szülőkéit babaként, míg az afroamerikai szülők gyerekeit "fekete babaként" határozták meg az adatbázisban. A rossz adatbázis tipikus példája pedig, amikor nem reprezentatív mintából származó adatokat használnak fel.

Összefoglalva kijelenthető, hogy a rossz minőségű bevitt adat önmagában is rossz minőségű eredményt (előrejelzést) fog eredményezni. Ezért az algoritmusok (továbbra is) hátrányos helyzetbe hozhatják a történelmileg hátrányos helyzetű csoportokat, ha negatív és megalapozatlan feltételezéseken alapulnak.[11] Ezért különösen fontos, hogy az MI alapjául szolgáló algoritmus programozása során is törekedni kell a diszkriminációmentességre.

A fentiekre példák a következő esetek. Egy egyesült államokbeli kórház a tüdőgyulladásban szenvedő betegekre jelentett kockázatokat kívánta kategorizálni egy erre a célra írt algoritmussal. A teszt során az a meglepő eredmény született, hogy a gyógyulás szempontjából legalacsonyabb kockázati besorolást a rendszer azokra a páciensekre osztotta ki, akik a tüdőgyulladás mellett asztmában is szenvedtek. Ez annak volt köszönhető, hogy az ilyen betegek jellemzően sokkal gyorsabb és alaposabb ellátást kaptak, mint a többiek, ezért gyorsabban fel is épültek. Jól látható, hogy a nem megfelelően kiválasztott, vagy csak félinformációkat tartalmazó adatok felhasználása megtévesztő eredményeket produkálhat, mely adott esetben a betegek egészségügyi kockázati besorolására is kihatással lehet.[12] Annak ellenére, hogy nyilvánvalóan egy tüdőgyulladásban szenvedő asztmás beteg valójában magasabb kockázatú, a hibás adathalmaz miatt mégis hátrányba kerülhet egy valójában alacsonyabb kockázatú beteghez képest.

Még élesebben megjelent a diszkrimináció, amikor maguk a tanító adatok diszkriminatív emberi döntéseket tartalmaztak, mint amilyenek az 1980-as években az Egyesült Királyság egyik orvosi karán voltak. Az egyetemre sokkal több jelentkező érkezett, mint amennyi hallgatót felvehettek, ezért kifejlesztettek egy olyan számítógépes programot, amely segített a kiválasztásban. A számítógépes program tanító adatai a korábbi évek felvételi adatlapjai voltak, amelynek keretében emberek választották ki, hogy mely jelentkezők kerülhettek be az orvosi egyetemre. Kiderült, hogy a program diszkriminálta a nőket és a bevándorlókat, mert azokban az években, amelyek a tanító adatokat szolgáltatták, a hallgatókat kiválasztó emberek diszkriminatív döntést hoztak a felvétel kapcsán a nőkkel és a bevándorló hátterű jelentkezőkkel szemben. A program nem új diszkriminatív gyakorlatot teremtett meg, hanem csupán a rendszerbe táplált kiválasztási feltételek már a korábban meglévő előítéletet tükrözték.[13]

A diszkriminatív hatású MI-rendszer hírhedt példája a "Correctional Offender Management Profiling for Alternative Sanctions" (COMPAS) néven ismert rendszer. A COMPAS rendszert az Egyesült Államok egyes részein a büntető bíróságok arra használják, hogy előre jelezzék annak a valószínűségét, hogy a terheltek újra elkövetnek-e majd bűncselekményt, illetve a tárgyalás előtti szabadon bocsátás kockázatát; a visszaesési és az erőszakos visszaesési együtthatót. Elméletileg a COMPAS nem tartalmaz kifejezetten faji tényezőt, azonban a programozásának és az adatbázisának köszönhetően mégis egyértelműen kimutatható, hogy a terhelt etnikai hátterét figyelembe veszi. Egy 2016-os kutatás szerint a COMPAS rendszer általi kockázati besorolás előítéletet tükröz a fekete bőrű terheltekkel szemben. Az esetek 61 százalékában ugyanis helyesen jelzi előre a visszaesést, a fekete bőrű terhelteknél azonban majdnem kétszer nagyobb valószínűséggel a magasabb kockázatú besorolást eredményezi, mint a fehér bőrű terhelteknél, míg fordítva éppen ellenkezőleg, a fehér elkövetőket nagyobb valószínűséggel minősíti alacsonyabb kockázatúnak.[14]

1.3. Magánélethez való jog

Ezen alapvető jog egyészt megjelenik közvetett módon az Európai Unió Alapjogi Chartájának 8. cikkében,[15] másrészt az Alaptörvény VI. cikkében,[16] mely utóbbi külön is védendő értékként nevesíti. Mindemellett szorosan kapcsolódik az adatokhoz. Elég csak abba belegondolni, hogy a mindennapi internetezés során mennyi helyen, mennyi módon adunk meg magunkról személyes adatokat, így név, születési idő, lakcím, bankkártyaadatokat, sőt biometrikus adatokat is, melyeket egyébként gyakran meg is jegyeztetünk a gépeinkkel, így azok ismételt felhasználása során már bele sem gondolunk, hogy milyen adatokat is adunk ki magunkról. A nagy internetes szolgáltatók, mint például az Amazon, a Facebook, a Google napi szinten soha nem látott mennyiségű adatot gyűjtenek be felhasználóiktól. Az adatokat ráadásul nemcsak maguk az internetet használó felhasználók, hanem az általuk használt és internetre csatlakoztatott okoseszközök is folyamatosan szolgáltatják. Ezeknek a kényelmi szolgáltatásoknak a használata során ritkán gondolunk bele, hogy milyen adatokat adunk ki, illetve gyűjtenek rólunk a különböző programok, cégek. Pedig ezen adatok lehetővé teszik az egyéni szintű azonosításunkat, illetve populációszintű adatokon alapuló profilozást is. A magánélet mellett a munkahelyek egy része is törekszik arra, hogy a munkavállalóik mozgását, működését nyomon kövesse, a teljesítményük és munkájuk ellenőrzése érdekében. Azonban nemegyszer fordul elő, hogy az ellenőrzés és nyomon követés a magánéletre is kihatással van.

Mindezek mellett megjelent a "megfigyelő állam" (surveillance state) is. A közterületeken az elmúlt évtizedben megsokszorozódott a térfigyelő kamerák, az arc- és járműfelismerő eszközök, a forgalomfigyelő technológiák száma. A tömeges megfigyelésnek, a kommunikáció tömeges lehallgatásának fontos szerepe van nemzetbiztonsági szempontból, különösen a terrorizmus és más súlyos bűncselekmények (kiberbűnözés,

- 24/25 -

kábítószer-kereskedelem, embercsempészet stb.) elleni harcban, vagy éppen egy pandémia leküzdésében.

A magánéletre is kiható, és a megfigyelésre használt egyik leggyorsabban fejlődő MI-technológia a biometrikus arcfelismerés, amely az arcvonások automatizált összehasonlítását teszi lehetővé a gyanúsítottak azonosítása érdekében. Ezt a technológiát az Egyesült Királyság, az Egyesült Államok és Ausztrália nemzetközi repülőtereken és határellenőrző rendszerekben használja. Az útlevelekből, jogosítványokból, de akár a közösségi médiából is gyűjtött arcképeket egy központi adatbázisba integrálják, amelyhez a bűnüldöző és más kormányzati szervek férhetnek hozzá. A rendszerek képesek a biometrikus információkat összekapcsolni az egyéb adatbázisokból nyert adatokkal (internetes keresési előzmények, pénzügyi, egészségügyi és adózási nyilvántartások stb.). A személyes adatok gyűjtésének és felhasználásának köre folyamatosan bővül ("data creep"), ami egyértelműen ellentétes az adatkezelés célhoz kötöttségének elvével. Ez a tendencia nemcsak a magánélethez való jogot sérti közvetlenül, de alapvetően veszélyezteti a demokratikus társadalom lényegét. Az autonóm, méltósággal rendelkező egyén beleegyezésével végzett rendészeti tevékenység lassan átadja helyét a tekintélyelvű felügyelet kultúrájának. Ennek legismertebb példája Kína,[17] ahol egy olyan szociális kreditrendszert hoztak létre, amely a társadalmi normák betartása alapján jutalmazza és bünteti az állampolgárokat, a normakövetést pedig egy kiterjedt biometrikus megfigyelőhálózat ellenőrzi.[18]

2. Új kihívások

Az MI olyan algoritmussal rendelkezik, amely alapján döntési kompetenciával és cselekvési autonómiával bír. E két fogalom jelenti a klasszikus munkajogviszony alapjait. Ezek mellett megtalálható a bizalmi elv, amely még ma is a személyességen nyugszik. Az MI tényleges alkalmazása miatt az etikai válaszokat (például elfogadható-e, hogy MI döntsön emberi sorsokról) követően a jognak is tudnia kell választ adni olyan kérdésekre, hogyan határozható meg az MI jogalanyisága, a munkáltatóijogkör-gyakorlás átadható-e egy olyan entitásnak, amely ember alkotta program?[19] Kit tekinthetünk munkavállalónak, egy HR-pozíciót betölthet-e egy MI? Milyen munkajogi jogok[20] és kötelezettségek módosulnak, változnak? Miként alakul a felelősségvállalás, ezek a jelenségek és változások milyen kihatással vannak a munkajogi garanciákra?

Az MI alkalmazásának a terepe a munkáltatói döntés támogatásában és a magasabb kvalitásokat igénylő munkakörök kiváltásában jelentős szerepet fog játszani, például az Amazon már megpróbálta automatizálni a munkáltatói döntésfolyamatok egy részét, amikor egy HR-robot kifejlesztésével kísérletezett 2015-2017 között.[21] A foglalkoztatási viszonyok elsődlegesen a jogviszony tartalma kapcsán fognak átalakulni. A változások alapja a bizalmi jelleg eltűnése,[22] a big data problémája és a munkahelyek dematerializációja lesz.

2.1. A mesterséges intelligencia jogalanyisága

Az MI megítélése kapcsán a jogtudományok területén három állásfoglalás alakult ki: az MI mint szoftver, mint jogalany, mint dolog. Az MI jogi értelmezése szükségszerű feladat, hiszen a technológia már mindennapjaink részévé vált, s nemzetközi szinten is az érdeklődés középpontjába került.[23]

A jogalanyiság azt jelenti, hogy az elektronikus személynek jogai és kötelezettségei lehetnek, így akár az általuk okozott kárért való felelősség tekintetében helytállási kötelezettségük keletkezik.[24] Az uniós joganyag azt mutatja, hogy erre sor kerülhet.[25] Ennek a kérdésnek a megválaszolása kapcsán a szerzők két csoportra oszthatóak. Egyesek kifejezetten szeretnék, hogy az MI valamilyen formában önálló jogalanyiságot, jogi személyiséget nyerjen, míg mások ezt ellenzik, sőt a technológia tekintetében óvatosságra intenek (utóbbiak az ún. alarmisták).[26] Az első csoport az MI-t azért akarja jogalanyisággal felruházni, mert várhatóan el fog érni egy, az emberéhez hasonló fejlettségi szintet, amely akár a munkavégzést is segíti az alábbiak értelmében.

Az MI alkalmazásának súlyos következményei is vannak. Pl. 1979. január 25-én a Ford Motor Company öntőüzemében egy 25 éves férfinak fel kellett másznia egy polcrendszerre, hogy megszámolja az alkatrészek tényleges mennyiséget. Mellette dolgozott egy robotkar, amelynek feladata az alkatrészek visszatétele volt a polcra. Az éppen felfelé mászó munkavállalót a robotkar fejbe vágta, a férfi pedig azonnal meghalt. A robot ráadásul tovább dolgozott, és a fiatal férfi 30 percig holtan feküdt, mire a munkatársak megtalálták a holttestét. A család a robot gyártóját perelte be, 10 millió dollár kártérítést kaptak a haláleset miatt. A gyilkosság persze nem volt szándékos. A robot célja nem az volt, hogy megölje a férfit, csak befejezte a számára előírt munkát. A bíróság azt állapította meg, hogy a tervezés során nem fordítottak kellő figyelmet a védelemre, nem volt megfelelő biztonsági intézkedés, nem volt riasztás, amely figyelmeztette volna a munkavállalót a közeledő robotkarra és a robot sem tudott megfelelően reagálni az ember jelenlétére. Ez nem egyedi eset. 1981-ben Japánban például egy robotkar véletlenül a halálba lökte a munkavállalót. A robotkar nem érzékelte, hogy a férfi a közelében van. Dél-Koreában egy 40 év körüli férfi, aki egy robotikai cég alkalmazottja, a robot működését ellenőrizte. A robotkar, mivel összetévesztette a férfit egy zöldségekkel teli dobozzal, megragadta őt, és a testét a szállítószalaghoz nyomta, összezúzva az arcát és a mellkasát. A férfit kórházba szállították, de később meghalt. A robot eredeti feladata a paprikás dobozok felemelése és raklapokra való átrakása volt. 2023 márciusában egy ötvenes éveiben járó dél-koreai férfi súlyos sérüléseket szenvedett, miután egy autóalkatrészeket gyártó üzemben végzett munkája során egy robot csapdába ejtette.

A munka világában az algoritmus vagy robot nemcsak mint az emberi munkavállalót pótló munkaerő, hanem mint önállóan cselekvő, önállóan döntést hozó is megjelenik, amely akár munkaügyi perben releváns, vizsgálandó körülmény is lehet.

- 25/26 -

A munkaviszonyokban fő szabály szerint a munkáltató és a munkáltatói jogkör gyakorlójának[27] személye elkülönül.[28] A hatályos magyar szabályozás azonban nem tekinti külön jogalanyisággal bíró entitásoknak (jogi személynek) a mesterséges intelligenciákat.[29]

Amennyiben követjük az első csoport álláspontját, akkor megállapíthatjuk, hogy számos kérdés merül fel az MI jogalanyisága esetén. Az MI-jogalanyiság határai függnek az MI autonómiájának szintjétől, létrehozóival, illetve működtetőivel való kapcsolatától.[30]

Miért merülhet fel az MI jogalanyiságának kérdése? Mert a jogi személyek jogalanyisága puszta jogi realitás, keletkezéséhez és megszűnéséhez is jogi aktusra (jellemzően polgári és közjogi aktusok sorára) van szükség. A polgári jog akkor ismeri el a jogalanyiságot, így az MI jogalanyiságát, ha az de facto cselekvőképes, jogszabályi felhatalmazás keretei között polgári jogi jogügyletet képes létrehozni. Ahhoz, hogy az MI jogalany legyen, a tételes jog kifejezett elismerésére van szükség.

Attól függetlenül, hogy az MI cselekvőképes (robotok), utasítást adhat, feladatot jelöl ki, pályázók közül munkavállalót választ ki, azaz a munkáltatói jogkör egyes elemeit gyakorolni tudja, aggályos az MI-t tudattal rendelkező entitásként kezelni. Álláspontunk szerint a jelenlegi jogszabályi környezetben az MI a megítélés során és a szabályozottság hiányából fakadóan nem tekinthető jogalanynak sem polgári jogi, sem pedig munkajogi szempontból. Mindennapjaink során azonban kétségkívül egyre inkább jelentkezik az igény a humán készségek és képességek technológiai vívmányok segítségével történő kiegészítésére, illetve kiváltására, mindez a jövőre vonatkozóan előrevetíti a jogalanyiság aktualizált kérdését az MI vonatkozásában.

2.2. Jogok és kötelezettségek

Prognosztizálható, hogy a munkajogviszony jellege átalakul, a jogviszony alanyainak személyes kontaktusa háttérbe szorul, a perszonális viszonyt a munkavállaló és a digitalizált környezet kapcsolata váltja fel.[31] A jogviszony tartalma körében a munkavégzés kötöttségének (elsősorban helyének és idejének) lazulása figyelhető majd meg.[32] Nem kell messzire mennünk, elég, ha csak a platformalapú munkavégzésre gondolunk. Bárki találkozhat MI-alapú ügyintézővel Magyarországon is, aki által szerződés köthető pl. a biztosítás területén, információ kapható pl. a banki ügyintézés során, vagy éppen futárként az alkalmazáson keresztül történik a feladatkiosztás pl. Foodora, Volt.

A munkaviszonyokban a munkáltató legtöbb esetben jogi személy, aki nem rendelkezik emberi tulajdonságokkal, ezért a munkaviszonnyal kapcsolatos jogait és kötelezettségeit nem saját személyében teljesíti. A munkáltatói jogkör gyakorlásának mértékét a munkáltató határozza meg, így azt, hogy kire delegálja a joggyakorlást,[33] akár olyanra, aki nem áll a munkáltatóval munkaviszonyban.[34] Erre példa a teljesítményértékelés körében az, amikor a platformon és applikáción keresztül történő munkavégzés esetén az algoritmus végzi a munkavállaló teljesítményértékelését,[35] amely befolyásolja a munkáltató döntését és megvalósít egy döntési kompetenciát. A munkáltatói jogkör gyakorlásának automatizálása a fogyasztói (szolgáltatást igénybe vevők) döntések alapján az algoritmus döntésének a jóváhagyása történik. Ennek mentén bizonyos munkáltatói jogkörök ellátása akár MI-re is delegálható, ugyanúgy, mint a korábban említett feladatkiosztás, utasításijog-gyakorlás. Ebből is láthatjuk, hogy léteznek olyan, az applikáció által generált döntések, melyek mögött nincs emberi jelenlét.[36] Ilyenkor a munkavállaló kommunikációja alapján értékel és az adott helyzetnek megfelelő utasítást ad. E két példából is megállapíthatjuk, hogy a HR-feladatok ellátása biztos, hogy a munkáltatói jogkört gyakorló MI legfőbb terepe lesz.[37] Azonban emellett az az álláspont is igaz, hogy az MI nem (jogi) személy,[38] így a HR-feladatokat sem láthatja el.

Az MI a munkáltatói jogkörbe tartozó döntési kompetencián túl, a szerződésekkel kapcsolatosan is tud önállóan cselekedni, azaz szerződést kötni emberi beavatkozás nélkül. tehát bizonyos jogokkal rendelkezik és ezeket az interakciókat közvetlen irányítás nélkül is megteszik, ha erre vannak tanítva.[39] Kötelezettsége is van - mint az emberi munkavállalónak -, hogy a munkát elvégezze, és rendelkezésre álljon. Ez nem is lehetne másképp, mert csak előre programozott algoritmusok alapján tud viselkedni, így nincs arra lehetőség, hogy esetleg a robot mint munkavállaló ne jelenlen meg a munkahelyén, vagy esetleg ittas, bódult állapotban jelenjen meg.

Munkavállalói kötelezettség a rendelkezésre állás és munkavégzés mellett, hogy a munkáját a legnagyobb gondossággal és a tőle telhető legnagyobb szakértelemmel végezze. Ez az MI számára szintén nem akadály, rendkívül kevés az esély arra, hogy megfelelő beállítás mellett hibázik.

A munkavállalónak az utasítás teljesítése során joga, illetve kötelessége megtagadni a munka elvégzését, ha az más, vagy saját testi épségét veszélyeztetné. Az MI-nek ez a joga korlátozott, hiszen nem annyira intelligens, hogy érzékelje, ha egy emberi kollégájának a testi épségét veszélyezteti (amíg erre nincs tanítva), azt viszont képes felmérni, ha hiba csúszik egy munkafolyamatba, ezáltal jelezve a hibát "megtagadja" az utasítást.

Álláspontunk szerint azonban, figyelemmel arra, hogy az MI nem jogalany, így nem lehetnek sem jogai, sem kötelezettségei, ezért egy (jogi vagy természetes) személynek kell vállalnia érte a felelősséget, ha kárt vagy sérelmet okoz. Mindezeken túl azonban azt is meg kell említeni, hogy van elektronikus személy fogalom.[40] (E-személy már létezik. Sophia, aki a Hanson Robotics legfejlettebb emberszerű robotja. Először 2016. február 14-én aktiválták, 2017-ben megkapta a szaúd-arábiai állampolgárságot, Magyarországon 2018-ban járt.)

2.3. MI a munkajogviszony szakaszaiban

A diszkriminatív MI a magánszektorban is megjelenhet. Erre példa a munkaerő-felvétellel kapcsolatos automatikus döntéshozatal. Például amikor az új munkavállaló felvételét egy olyan elemző szoftverre bízzák, amely importálja és átalakítja az önéletrajzokat, és automatikusan kivonja, tárolja, elemzi, rendszerezi és átnézi a benyújtott információkat, esetleg más adatfor-

- 26/27 -

rásokat is felhasználva, például a pályázó közösségimédia-fiókjait, majd automatikus döntéseket hoz. Amennyiben egy ilyen program tanító adatbázisában valamely nem tekintetében torzított - korábbi, az egyik nem javára eltérő - felvételi gyakorlat, információk vannak, akkor ez az új munkavállalók felvétele során is érvényesülni fog.[41]

Az MI a munkajogviszonyt megelőzően a pályázók közül munkavállalót választhat ki. Itt a döntéstámogató vagy döntéshozó szerepet gyakorolja. Mi történik, ha a reménybeli munkavállalóval azért nem köt a munkáltató munkaszerződést, mert a munkáltató által használt algoritmus, mesterséges intelligencia rendszere diszkriminál. A felelősség a munkáltatóé. Mi történik akkor, ha öntanuló rendszerről van szó és a munkáltató nem ismeri az MI teljes palettáját. Tesztet tölt ki a munkavállaló, amelyben a munkáltató a kedvező válaszok megjelölésével egy rangsort készít, azonban az MI további összefüggéseket kutat és ebből következtetéseket von le. Hivatkozhat a munkáltató az Ebktv. 19. §-a alapján arra, hogy a jogsérelmet szenvedett fél által valószínűsített körülmények nem álltak fenn?

A munkajogviszony fennállása alatt adhat utasítást az MI a munkavállalónak? Ki felel azért, hogy az adott utasítás megfelel a jogszabályoknak? Mi történik, ha az utasítás sérülést okoz a munkavállalónak? Meddig terjed a felelősség? Mondhatja-e a munkáltató, hogy habár a kárfelelősség alól nem mentesül, de felelősségcsökkentő, illetve -korlátozó kifogása az Mt. 167. § (1) bekezdése alapján az előreláthatóság láncolatának megszakadása? Az önfejlesztő MI általa nem ismert további utasítást adott a tapasztalata révén. Elvárható-e a munkáltatótól, hogy az MI minden lépésről előre tudjon, azt ismerje. Hivatkozhat-e mentesülésre a munkáltató az Mt. 166. § (2) bekezdés b) pontja alapján, ha a sérült munkavállaló programozta vagy adta a károkozó parancsot akként, hogy erről a munkáltatót előzetesen nem tájékoztatta? Ez kizárólagos és elháríthatatlan magatartás, mint az alkoholos befolyásoltság alatti munkavégzés, illetve "fusi" munka, vagy olyan, mint az eltitkolt betegség miatti foglalkozási megbetegedés, amely csak felelősségkorlátozó tényező?

A munkaviszonyokban a munkáltató legtöbb esetben jogi személy, aki nem rendelkezik emberi tulajdonságokkal, ezért a munkaviszonnyal kapcsolatos jogait és kötelezettségeit nem saját személyében teljesíti, hanem a munkáltatóijogkör-gyakorló személyen keresztül. A jogkörgyakorlás mértékét a munkáltató határozza meg, így azt, hogy kire delegálja a joggyakorlást, akár olyanra, aki nem áll a munkáltatóval munkaviszonyban. Erre példa a teljesítményértékelés körében az, amikor a platformon és applikáción keresztül történő munkavégzés esetén az algoritmus végzi a munkavállaló teljesítményértékelését. Ez lehet csak döntéstámogatás, de lehet döntéshozatal is. Vagyis az MI megvalósít egy döntési kompetenciát.

A munkáltatói jogkör gyakorlásának automatizálása a fogyasztói (szolgáltatást igénybe vevők) döntések alapján az algoritmus döntésének a jóváhagyása történik. Ennek mentén bizonyos munkáltatói jogkörök ellátása akár MI-re is delegálható, ugyanúgy, mint a korábban említett feladatkiosztás, utasításijog-gyakorlás. Ebből is láthatjuk, hogy léteznek olyan, az applikáció által generált döntések, melyek mögött nincs emberi jelenlét. Ilyenkor a munkavállaló kommunikációja alapján értékel és az adott helyzetnek megfelelő utasítást ad. E két példából is megállapíthatjuk, hogy a HR-feladatok ellátása biztos, hogy a munkáltatói jogkört gyakorló MI legfőbb terepe lesz. Azonban emellett az az álláspont is igaz, hogy az MI nem (jogi) személy, így a HR-feladatokat sem láthat el.

Az MI a munkáltatói jogkörbe tartozó döntési kompetencián túl, a szerződésekkel kapcsolatosan is tud önállóan cselekedni, azaz szerződést kötni emberi beavatkozás nélkül. Tehát ha bizonyos jogokkal rendelkezik, akkor ezeket az interakciókat közvetlen irányítás nélkül is megteszik, ha erre vannak tanítva.

A munkajogviszony megszüntetése körében az MI szintén döntési jogkörrel bírhat. Elismerhető egy ilyen entitás olyan személynek, aki a munkáltató jóváhagyása alapján jogosult a jogviszonyt megszüntetni, a nyilatkozata jognyilatkozatnak minősül, méghozzá a munkáltatótól származó jognyilatkozatnak? Ha a munkavállaló felmondást tartalmazó e-mailt kap vagy ChatGPT útján generált jognyilatkozatot.

2.4. Felelősségvállalás

A fentiek mellett vizsgálandó az a kérdés is, hogy ki tehető felelőssé az MI jogsértése esetén. A civilisztikában el kell határolnunk a kérdés megválaszolása során a kontraktuális és a deliktuális felelősséget. Ehhez azt kell megvizsgálnunk, hogy a hatályos magyar szabályozás alapján, miként is határozhatjuk meg az MI-t. Az MI szerzői jogi védelemben részesül, ahogy az irodalmi, tudományos és művészeti alkotások. A szerzői jogról szóló 1999. évi LXXVI. törvény 1. § (2) bekezdés c) pontja szerint szerzői jogi védelem alá tartozik a számítógépi programalkotás és a hozzá tartozó dokumentáció (a továbbiakban: szoftver) akár forráskódban, akár tárgykódban vagy bármilyen más formában rögzített minden fajtája, ideértve a felhasználói programot és az operációs rendszert is.

Az MI a jelenlegi törvényi szabályozás tekintetében tehát szoftvernek minősül. A hatályos szabályozás talán legnagyobb kritikája az lehet, hogy egyáltalán nem állapít meg semmilyen különbséget a korábban felvázolt mesterséges intelligenciák között, azonban a felelősségi kérdések tisztázása érdekében elengedhetetlen ezek jogi kategorizálása. Így az, hogy mennyire is önálló egy gép, illetve mennyire képes kvázi önálló döntéseket hozni. A korábban kifejtett jogalanyisági tükrében, tehát meg kell határozni az MI-vel kapcsolatos polgári és munkajogi felelősséget érintő fogalmakat.

Az MI-t nem tekinthetjük semmilyen formában jogalanynak, így felelősség sem terhelheti, helyette a felhasználók, gyártók, és egyéb szereplők a kötelezettek, akik kihatással lehetnek az MI döntéshozatalára. Ez azt jelenti, hogy a munkaviszonyokban a munkáltató, esetleg (ha a munkavállaló saját algoritmus vagy robot igénybevételével végzi munkafeladatait) a munkavállaló felelősségét is vizsgálnunk kell.

- 27/28 -

A felelősségi kört a szerződéses felelősségi rendszerben két részre kell bontanunk. Egyrészt program vagy szoftver vásárlása esetén felhasználási szerződést kötünk, melyben a szabályokat a szerző határozza meg. A szerződésnek tartalmaznia kell a felelősség kérdéskörét, így például azt, hogy a felhasználó által, vagy harmadik személynek kiadásával kapcsolatban keletkező károkért a felhasználó felel. Ha a szoftver már a kiadás pillanatában hibásan kerül a piacra, ebben az esetben a szerző vonható felelősségre. Ezt mondja ki a hatályos jogszabály, amely szerint a szerződés megkötése esetén a hibás termékre kellékszavatosságból a Ptk. 6:163. § (2) bekezdésében leírtak értelmében, a termék átvételétől számított 2 éven belül érvényesíthető szavatossági igény.[42]

Másrészt, ha az MI fizikailag van jelen mint robotizált "munkavállaló", akkor az okozott károkért az üzembentartó felel. A polgári jogban csak akkor mentesül a felelősség alól az üzembentartó, ha a kárt olyan elháríthatatlan ok idézte elő, amely a fokozott veszéllyel járó tevékenység körén kívül esik a Ptk. szabályai szerint. A munkajogban pedig akkor mentesül a munkáltató, ha külső vis maior esete vagy a munkavállaló kizárólagos és elháríthatatlan magatartása merül fel.

A nem szerződéses viszonyokban a veszélyes üzemi felelősséget lehet megállapítani, amely egy objektív felelősséget takar, ennek értelmében a fenntartót akkor is terheli a felelősség, ha vétkessége nem áll fenn. A munkaviszonyokban, ha az MI nem a munkavállalónak (és ennek révén munkavállalói hozzátartozóknak), hanem harmadik személynek (nem szerződéses viszonyban állónak) okoz kárt, akkor a munkáltató a polgári szabályok alapján felel a fentiek szerint. Ez a felelősség az MI jelenlegi kiszámíthatatlanságában rejlik.

A deliktuális felelősségi forma körében, amennyiben a robot bűncselekményben vesz részt vagy általa bűncselekmény megvalósulása történik, akkor a büntetőjogi felelősség vizsgálandó. A felelősség akkor állapítható meg, ha a szoftver magatartása tényállásszerű és azzal okozati összefüggésben az üzembentartó vagy harmadik személy részéről a szándékos, vagy adott esetben gondatlan elkövetés ténye megállapítható. Ezekben az esetekben tehát az eset körülményeitől függ, hogy az üzembentartó vagy a harmadik személy felel.

A jogtudomány is vizsgálta a felelősség problematikáját. Eszteri Dániel egyrészről vizsgálta a szerződéses viszonyban létrejövő, másrészről pedig a nem szerződéses viszonybeli károkozásokat. Álláspontja szerint a szerződéses viszonyokban a hibás teljesítésről, és a kellékszavatosságról van szó. Ezeken kívül említi még a felhasználó felelősségét, amely függ a felhasználói szerződéstől, illetve a rendeltetésszerű használattól. Álláspontja szerint hibás teljesítés akkor áll be, ha a kötelezett a teljesítés időpontjában nem a szerződésben vagy jogszabályban megállapítottak szerint teljesít. Idetartozik még a kellékszavatosság is, amelynek értelmében a jogosult, hibásan megírt szoftver esetében, kérhet frissítést, hibajavítást, esetleg a szerződéstől való elállást is. A felhasználót terheli a felelősség azonban, ha nem a szerződésben megállapítottak szerint használja a szoftvert. Az MI által okozott kárfelelősség a következőképpen foglalható össze: ha nem rendeltetésszerű használat történik, a felhasználó felel, ha hibás a szoftver, akkor a gyártót vagy a fejlesztőt terheli a felelősség, amennyiben ez fennáll, akkor a felhasználó jogosult a hiba javítását kérni.[43]

A fentiek alapján összefoglalva, a polgári felelősség körében a szerződéses viszonyokban a rendeltetésszerűen működő szoftver által okozott kárért a felhasználó lesz a felelős, ennek hiányában a szerző. A munkaviszonyokban a munkáltató objektív alapon felel a munkavállalónak okozott kárért, míg, ha a munkavállaló okoz saját ezközével (algoritmus, robot) kárt a munkáltatónak, akkor a felelőssége (a szándékos és súlyos gondatlan vétkességi foktól eltekintve) szubjektív, azaz felróhatósági alapú. A nem szerződéses jogviszonyokban pedig az üzembentartó vagy a harmadik személy.

Probléma ezzel a felfogással az, hogy (1) vannak és lesznek is olyan mesterséges intelligenciák, amelyek képesek fejlődni. Ez azt jelenti, hogy akként hajtanak végre egy műveletet, hogy ebbe a következő lépéshez már nem szükséges az emberi tényező. Ekkor azonban már nem elvárható, és nem is méltányos a felelősséget kizárólag a felhasználóra telepíteni. Probléma az is, hogy (2) a gyártói vagy forgalmazói oldal az általános szerződési feltételek között rögzíti: a felhasználó által önmagának vagy harmadik személynek a szoftver használatával összefüggésben okozott károkért nem a szerző (vagy forgalmazó), hanem a felhasználó felel.

Mindezek tükrében talán érdemes Giovanni Sartor deliktuális felelősség körében kifejtett téziseit alapul venni. Első tézise szerint a jogalany csak az olyan károkért válhat felelőssé, amelyek alapján legalább gondatlanság terheli, ezért mentesül a felelősség alól, ha az intelligens szoftver magatartása nem volt neki felróható. Hivatkozunk itt ismételten arra, ha a jogalanytól nem elvárható, hogy a mesterséges intelligencia minden lépésével tisztában legyen. Sartor másik tézise szerint, az érintett mindig viseli a kárfelelősséget az MI viselkedése miatt, függetlenül az elvárhatóság elvétől és így a felróhatóságtól, azaz a jogalany felel a károkozásért, mert az MI az ő érdekében hajt végre műveleteket. Álláspontunk szerint ezeket a téziseket a munkaviszonyokban is eredményesen alkalmazhatjuk.[44]

3. Záró gondolatok

Az MI kifejezést, egyik chatbotját, a ChatGPT-t egyre gyakrabban hallhatjuk a mindennapjaink során. A legtöbb esetben elsőként a technológiai és műszaki fejlesztések jutnak eszünkbe, azonban, ha jobban megvizsgáljuk az említett témát, akkor arra a megállapításra jutunk, hogy a fogalom jelentése sokkal több annál.

Jelen tanulmányban az Európai Unió mesterséges intelligenciával kapcsolatos stratégiáinak és szabályozási dokumentumainak jelentősebb mérföldköveit, a személyiségi jogokra gyakorolt hatását és a munkajogviszonyokban megjelenését tettük a vizsgálat tárgyává, a tanulmány terjedelmére tekintettel csak ízelítőt adva belőle.

A különböző szakirodalmi munkák és a gyakorlati tapasztalatok alapján megállapítható, hogy az MI roha-

- 28/29 -

mos tempóban alakítja át a minket körülvevő világot. Túl azon, hogy megváltoztatja a mindennapokat, megfigyelhetjük, hogy ez az átalakulás egyre gyorsuló, exponenciális ütemben halad. Az emberek és az intelligens gépek között erősödő kapcsolat jelentős kihívást jelent az államok működése és a jogi szabályozás szempontjából is az Európai Unió és a tagállamok szintjén egyaránt.

Összességében megállapítható, hogy az Európai Unió egyik lényeges célja - az Alapjogi Chartára épülő etikai és társadalmi értékeken alapuló - a megbízható MI fejlesztése. Az embereknek nemcsak bízniuk kell az MI-ben, hanem előnyükre kell fordítaniuk azt. Az Unió egy innovációbarát ökoszisztéma kialakítására törekszik, ahol a gazdasági szereplők megtalálják a mesterséges intelligenciába való befektetéshez és annak elterjesztéséhez szükséges infrastruktúrát, kutatási létesítményeket, tesztelési környezetet, pénzügyi eszközöket, jogi keretet és a megfelelő szakképzettségű embereket. A fő célkitűzés az, hogy Európa a világ vezető régiójává váljon a korszerű, etikus és biztonságos mesterséges intelligencia fejlesztése és alkalmazása terén egy emberközpontú megközelítés előmozdítása által.

Olyan fogalmak jogi transzportálására lenne szükség, mint maga az MI, a hozzá kapcsolódó alapjogok és felelősségi rendszerek. Meg kell határozni az MI jogi státuszát, jogalanyiságának és cselekvőképességnek értelmezésén keresztül, illetve az általa generált cselekmények jogi értékelését. Ezáltal lenne fenntartható a társadalom jogba vetett bizalma és a jog későbbi legitimációja is. Álláspontunk szerint az emberen fog múlni az MI jövője és nem csak jogi szempontból nézve. Szükség lesz az MI-re, hiszen számtalan előnye van, azonban társadalomtudományi oldalról nézve sok konfliktus alapját képezheti. Mindezek ellenére egyszerűbbé teheti az életünket, hiszen ami "gépies" feladat, azt elvégezheti helyettünk időt, energiát és pénzt megtakarítva ezzel. ■

JEGYZETEK

[1] Hogyan alakítsuk jól a jövőt? - Mesterséges Intelligencia és alapvető jogok - Összefoglaló; Európai Unió Alapjogi Ügynöksége; 2021.; http://fra.europa.eu/sites/default/files/fra_uploads/fra-2021-artificial-intelligence-summary_hu.pdf.

[2] Európai Bizottság: Fehér könyv a mesterséges intelligenciáról: a kiválóság és a bizalom európai megközelítése, Brüsszel, 2020.2.19. COM(2020) 65 final; https://commission.europa.eu/system/files/2020-03/commission-white-paper-artificial-intelligence-feb2020_hu.pdf

[3] Fehér Könyv 3.

[4] Fehér Könyv 13.

[5] Bernd Carsten Stahl - Rowena Rodrigues - Nicole Santiago - Kevin Macnish: A European Agency for Artificial Intelligence: Protecting fundamental rights and ethical values; Computer Law & Security Review; https://www.sciencedirect.com/science/article/pii/S0267364922000097

[6] Az Európai Parlament és a Tanács (EU) 2016/679 rendelete (2016. április 27.) a természetes személyeknek a személyes adatok kezelése tekintetében történő védelméről és az ilyen adatok szabad áramlásáról, valamint a 95/46/EK rendelet hatályon kívül helyezéséről (általános adatvédelmi rendelet)

[7] Szalai Anita: A ChatGPT és a mesterséges intelligencia legfontosabb adatvédelmi jogi kérdései. https://www.szalailegal.hu/a-mesterseges-intelligencia-legfontosabb-adatvedelmi-kerdesei/

[8] Szalai Anita i. m.

[9] Eszteri Dániel: Hogyan tanítsuk jogszerűen a mesterséges intelligenciánkat? http://real.mtak.hu/137825/1/eszteri.daniel.AI.adatvedelem.final.pdf.

[10] Mezei Kitti: Diszkrimináció az algoritmusok korában. Magyar Jog, 2022/6. 331-338.

[11] Uo.

[12] The Royal Society: Machine learning: the power and promise computers that learn by example. 2017. 93. https://royalsociety.org/~/media/policy/projects/machine-learning/publications/machine-learning-report.pdf [2019. 04. 07.].

[13] Mezei i. m.

[14] Uo.

[15] Az Európai Unió Alapjogi Chartája; 2012/C 326/02, OJ C 326, 26.10.2012. 391-407.

[16] Magyarország Alaptörvénye (2011. április 25.).

[17] Huszák Dániel: Az internet népe sikítva röhög Kína horrorisztikus megfigyelőrendszerén. https://www.portfolio.hu/global/20211024/az-internet-nepe-sikitva-rohog-kina-horrorisztikus-megfigyelorendszeren-506276

[18] Nagy Noémi: A Rubiconon túl: a mesterséges intelligencia emberi jogi kockázatai. https://www.ludovika.hu/blogok/kormblog/2023/02/03/a-rubiconon-tul-a-mesterseges-intelligencia-emberi-jogi-kockazatai/

[19] Mélypataki Gábor: A mesterséges intelligencia munkajogi és munkaerőpiaci hatásai. Lehet-e a mesterséges intelligencia főnök? IJ, 2019/2. 14.

[20] Vö: Mélypataki Gábor: A munkavállaló fogalma a magyar és a német jogban a munkáltató szempontjából, Publicationes Universitatis Miskolcinensis Series Juridica et Politica, XXX/2. 521-540.

[21] Dastin, Jeffry: Amazon scraps secret AI recruiting tool that showed bias against women, in: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G.

[22] Lőrincz György: Kommentár a munka törvénykönyvéről szóló 2032. évi I. törvényhez. Munkajogi sci-fi MJO, 2018/4. 15.

[23] Atabekov A. - Yastrebov, O.: Legal Status of Artificial Intelligence Across Countries. Legislation on the Move European Research Studies Journal, 2018/4. 773-782.

[24] A robotikára vonatkozó polgári jogi szabályok. P8_TA(2017)0051, 59. pont f. http://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_HU.pdf.

[25] Stefán Ibolya: A mesterséges intelligencia fogalmának polgári jogi értelmezése. Pro Futuro 2020/1. 28-41.

[26] Z. Karvalics László: Mesterséges intelligencia - a diskurzusok újratervezésének kora. Információs Társadalom, 2015/4, 7-41.

[27] Mt. 20. §.

[28] Természetes személy munkáltató esetében a két szerepkör egybeeshet.

[29] Eszteri Dániel: A mesterséges intelligencia fejlesztésének és üzemeltetésének egyes felelősségi kérdései, Infojog, 2015/62-63. 47-57.

[30] Péntek esti interdiszciplináris vita a robotok jogairól: a mesterséges intelligenciák jogalanyisága különböző jogágak szempontjából. https://jog.tk.hu/blog/2021/03/pentek-esti-interdiszciplinaris-vita-a-robotok-jogairol

[31] Lőrincz György: i. m. 1-15.

[32] Uo. 16.

[33] Mt. 20. § (2) bekezdés.

[34] Prugberger Tamás - Nádas György: Európai és magyar összehasonlító munka- és közszolgálati jog. Complex Kiadó, 2016, 12.

[35] Rácz Ildikó: Teljesítményértékelés - kiszervezve?. In: Pál Lajos - Petrovics Zoltán (szerk.): Visegrád 15.0 - A XV. Magyar Munkajogi Konferencia szerkesztett előadásai, Wolters Kluwer, 2018, 417-426.

[36] A kutatásról részletesen lásd: Ivanova, Mirela - Bronowicka, Joana - Kocher, Eva - Degner, Anne: The App as Boss? - Control and Autonomy in Application-Based Management. Europa Universität Viadriana, http://www.labourlawresearch.net/sites/default/files/papers/ArbeitGrenzeFlussVol02.pdf 7-8.

[37] Bögel György: Mesterséges intelligencia a humánpolitikai munkában, Opus et Educatio, 2018/3, http://opuseteducatio.hu/index.php/opusHU/article/view/272/470; Őrsi Balázs: A mesterséges munkatársakról - Gondolati előretekintés, Munkaügyi Szemle, 2019/5 46-51; Kun Attila: Munkajog és digitalizáció - rendszerszintű kihívások és kezdetleges európai uniós reakciók. in: Pál Lajos - Petrovics Zoltán (szerk.): Visegrád 15.0 - A XV. Magyar Munkajogi Konferencia szerkesztett előadásai, Wolters Kluwer, 2018, 389-416.

[38] A társadalmi innováció ebben a kontextusban egy jelentős mértékű dogmatikai változással is járna együtt.

[39] Andrade, Francisco - Novais, Paulo - Machado, José - Neves, José: Contracting Agents: Legal Personality and Representation. Artificial Intelligence and Law, Vol. 15. 2007. 357.

[40] Udvary Sándor. A non-humán ágensek (intelligens rendszerek) jogi szabályozása - robotok, dedikált rendszerek (önvezető autók). In: A digitalizáció hatása az egyes jogterületeken. Károli Gáspár Református Egyetem Állam- és Jogtudományi Kar, Budapest, 2020, 246-248.

[41] Mezei Kitti: i. m.

[42] Eszteri Dániel: i. m. 8-10.

[43] Uo. 11-12.

[44] Sartor, Giovanni: Cognitive Automata and the Law. Artificial Intelligence and Law, Vol. 17, EUI Working Papers Law No. 2006/35.

Lábjegyzetek:

[1] A szerző tanácselnök, Miskolci Törvényszék.

[2] A szerző bíró, Győri Törvényszék.

Tartalomjegyzék

Visszaugrás

Ugrás az oldal tetejére