Jelen tanulmányban a mesterséges intelligencia[1] (a továbbiakban: MI)[2] jogi szabályozása témakörében folytatott féléves kutatásunk eredményeit kívánjuk röviden ismertetni. Ennélfogva az AI-hoz kapcsolódó egyes etikai kérdésekre koncentrálunk, valamint a technológia jogi szabályozása vonatkozásában annak lehetséges jogi megítélésére. Tesszük mindezt az MI felhasználásával harmadik személyeknek okozott károkért való felelősség kérdéseinek szem előtt tartásával.[3]
A korábban leginkább csak szórakoztató irodalomból ismert mesterséges intelligencia fejlődése, s annak széleskörű felhasználása egyre jelentősebbé válik, ez pedig számos -adatvédelmi, felelősségi és etikai kérdést vet fel. Az AI-ban rejlő lehetőségek kiaknázása, a versenyképesség előmozdítása, s az állampolgárok jogainak védelme érdekében
- 184/185 -
szükségszerű a megfelelő szabályozási környezet kialakítása. A jogi szabályozással kapcsolatos elvárás kettős: szolgálnia kell az állampolgárokat és a technológiát egyaránt, hiszen a szabályozás nem megfelelő volta különböző jogsértésekhez vezethet, illetve a jövőbeli fejlődés gátja is lehet.
Az MI kapcsán kiemelkedően fontos a technológia specifikus erkölcsi-etikai iránymutatások kidolgozása, s azok figyelembevétele mind az AI tervezési létszakában, mind pedig annak gyakorlati alkalmazása során. Előbbi szakasz igen meghatározó az MI szempontjából, hiszen ekkor történik a programozás, a technológia megalapozása, s ekkor nyílik lehetőség különböző erkölcsi-etikai értékek beépítésére, melyek a felelősségi kérdések tisztázása kapcsán is relevánssá vállhatnak. A téma szignifikáns jelentőségét felismerve, az Európai Bizottság létrehozta a magas szintű független szakértői csoportot 2018-ban. A szakértői testület 'Megbízható mesterséges intelligenciára vonatkozó etikai iránymutatás' (a továbbiakban: Etikai iránymutatás) című dokumentumát 2019 áprilisában adta ki. Az Európai Unió legfőbb törekvése az emberközpontú AI - erkölcsi-etikai értékekre, alapvető jogokra, emberi méltóságra tekintettel létrehozott és alkalmazott AI[4] - megalkotása, melynek fontos tényezője a technológia megbízhatósága, sőt a 2020-ban kiadott Fehér könyvben már célkitűzésként jelenik meg a bizalmi ökoszisztéma kiépítése.[5] A megbízhatóság tehát kardinális kérdés, hiszen egy olyan új, ismeretlen technológiáról beszélünk, mely folyamatosan változik, annak meghatározó jellemzője, s legnagyobb problémája az átláthatatlanság, kiszámíthatatlanság.[6] Az etikai iránymutatás a megbízható AI három elemét nevesíti, melyeknek együttesen kell érvényesülniük a cél - a megbízhatóság - megvalósítása érdekében, ennélfogva a technológiának jogszerűnek, etikusnak és stabilnak kell lennie, az alábbiak szerint:
1. Jogszerű MI: a technológia kialakítása és alkalmazása során egyaránt figyelemmel kell lenni a nemzeti jogszabályokra, az uniós jogi normákra, illetve más nemzetközi dokumentumokra.
2. Etikus MI: biztosítani kell a technológia összhangját a különböző etikai elvekkel, erkölcsi normákkal.
3. Stabil MI: a megfelelő működés, a stabilitás műszaki és társadalmi szempontból is elengedhetetlen a technológiával szembeni bizalom megteremtéséhez.
Az etikai iránymutatás nem szól részletesen a jogszerű MI-ről, helyette az etikus és stabil AI-ra koncentrál, azok vonatkozásában fogalmaz meg útmutatást. A megbízható AI alapját az Európai Unió Alapjogi Chartájában, az uniós szerződésekben és más nemzetközi dokumentumokban biztosított alapjogok, alapelvek - többek között emberi méltóság;
- 185/186 -
demokrácia; igazságosság; egyenlőség - adják, melyekből négy erkölcsi-etikai elv került levezetésre:
1. Az emberi autonómia tiszteletben tartásának elve: az MI rendszereknek tiszteletben kell tartaniuk az alapjogokat, azokat szükségtelenül nem korlátozhatják.[7]
2. A kár megelőzésének elve: az "... AI-rendszerek soha nem okozhatnak kárt, illetve nem súlyosbíthatják azt, és egyébként sem lehetnek hátrányos hatással az emberi lényekre. "[8]
3. A méltányosság elve: a technológiához kapcsolódó anyagi és eljárásjogi dimenzió egyaránt lényeges az etikai iránymutatásban.
4. A megmagyarázhatóság elve: ez az Mi-rendszerek működésének, döntéseinek átláthatóságát jelenti az érintett személyek vonatkozásában.[9]
A megbízható AI megvalósítása és végrehajtása vonatkozásában is határoz meg követelményeket az uniós dokumentum, melyek kapcsán elvárás, hogy azok a technológia teljes 'életútja' során érvényesüljenek, tehát a tervezéstől egészen az alkalmazásig:
1. Az emberi cselekvőképesség[10] támogatása és emberi felügyelet;
2. Műszaki stabilitás és biztonság;
3. Adatvédelem és adatkezelés;
4. Átláthatóság;
5. Sokféleség, megkülönböztethetőség és méltányosság;
6. Társadalmi és környezeti jólét;
7. Elszámoltathatóság.[11]
A korábban említett követelmények megvalósítása érdekében alkalmazhatóak műszaki és nem műszaki jellegű módszerek. Előbbiek közül kiemelendő az ún. beépített etika - ethics-by-design -, melynek lényege az erkölcsi értékek, etikai elvek technológiába implementálása, ezzel kapcsolatot létrehozva az alkalmazandó elvek és a konkrét döntések között. A nem műszaki jellegű módszerek körébe tartoznak többek között a magatartási kódexek, a felelősségi vagy termékbiztonsági szabályok.[12] Ahogy arra már korábban kitértünk az etikai iránymutatás nem szól a jogszerű Ml-ről, annak szabályozásáról. Az etikai iránymutatásban szereplő alapelveknek és követelményeknek az AI programozása és alkalmazása során kell megjelenniük. Továbbá úgy véljük, hogy az etikai elveknek a várható jogi szabályozásban is értékelést kell nyerniük valamilyen formában - például a jogszabályokban gyakran megjelenő alapelvek szintjén -, ezzel elősegítve a felmerülő jogviták rendezését, a felelősségi kérdések tisztázását.
A szabályozást illető etikai elvek kapcsán érdemes szólnunk Virginia Dignum 'Responsible Artificial Intelligence' című művéről, melyben a felelős, megbízható mesterséges intelligencia témáját vizsgálja.[13] Ennek keretében számos nemzeti és nemzetközi kezdeményezést figyelmemmel kísért, dokumentumot vizsgált - például a már említett magas szintű független szakértői csoport; a Villamos- és Elektronikai Mérnökök Intézete[14] vagy a Lordok
- 186/187 -
Háza Mesterséges Intelligenciát vizsgáló Különbizottsága által kiadott iránymutatások -, ezeket összevetette és meghatározta az egyes területek legjelentősebb értékeit, melyek a felelős, megbízható AI szempontjából elengedhetetlenek. A területek központi eleme, az elérendő cél az emberi jólét, melyhez kapcsolódóan négy csoportot alakított ki, s azok etikai elveit határozta meg az alábbiak szerint:
1. Általános: elszámoltathatóság, felelősségteljesség, átláthatóság;[15]
2. Technikai: tesztelés és jóváhagyás, adat eredetiség, megbízhatóság, megmagyarázhatóság;
3. Társadalmi: demokrácia, közösségi jólét, méltányosság, adatvédelem, biztonság;
4. Jogi: ellenőrizhetőség, jogorvoslat, jogszabályoknak megfeleltethetőség - jogszerűség, katonai felhasználás tilalmazása.
Dignum álláspontja szerint a technológia szabályozásának fókuszát nehéz meghatározni az egységes AI fogalmának hiányában. Ennélfogva a megoldást inkább a technológia használatának szabályozásában látja a meghatározott területeken, mint például az egészségügy. Dignum problémafelvetése elvezet minket a kutatásunk másik fontos kérdésköréhez az MI jogi definiálásához.
Álláspontunk szerint a technológia jogi értékelése fontos feladat, mely által előmozdítható a jogi szabályozás kialakítása, illetve a felelősségi kérdések rendezése. Kutatásunk során az MI jogi megítélését illetően három irányzatot vizsgáltunk: az AI szoftver,[16] dologi, illetve jogalanyi minőségét, a továbbiakban ezeket kívánjuk áttekinteni a felelősségi kérdésekre fókuszálva.
Az algoritmusokból és forráskódokból felépülő MI programra, szoftverként[17] a szerzői jogról szóló 1999. évi LXXVI. törvény rendelkezéseit kell alkalmazni,[18] ám a szoftver alkalmazásával történő károkozás, s az ahhoz kapcsolódó felelősségi kérdéseket nem rendezi a jogszabály. A technológia szoftverként történő megítélésének legnagyobb problémája annak sajátos jellegéből fakad - jelentős mennyiségű adatfeldolgozása, döntéshozatal -, melynél fogva meghaladja a korábban ismert, átlagos szoftvereket. A szellemi termékek körébe tartozó szoftverek kapcsán kutatásunk során vizsgáltuk azok vagyontárgyként, illetve dologként való szabályozásának lehetőségét. Ennek keretében arra a megállapításra jutottunk, hogy az AI - mint, szoftver - akár vagyontárgyként is jogi
- 187/188 -
értékelést nyerhet[19] az egységes uniós adatpiactér létrehozására[20] tekintettel. Ezen túlmenően a szellemi termékek, szoftverek dologi minőségét is tanulmányoztuk, ami különös lehet annak tükrében, hogy az MI nem rendelkezik fizikai kiterjedéssel. A hatályos magyar szabályozás pedig a dolgot birtokba vehető testi tárgyként határozza meg.[21] A dolog fogalmának szellemi termékekre történő kiterjesztése nem újkeletű, az elgondolás már megjelent Almási Antal 'A dologi jog kézikönyve' című művében is. Almási a dologi jogosultság tárgyainak tartotta szellemi termékeket, s ilyen jogtárgyak közé sorolta a zeneműveket és a mozgó fényképészeti műveket is.[22]
Kutatásunk fókuszát módosítva, kifejezetten a Polgári Törvénykönyv rendelkezéseire koncentrálva a dolog, valamint a jogalanyiság fogalmát, s annak szabályozását vizsgáltuk. A technológia dologi minőségének vizsgálata kapcsán a testetlen dolgok és a rendhagyó dolgok körének kiterjeszthetőségét tanulmányoztuk. Ahogyan arról már korábban szóltunk a Ptk.-ban szereplő meghatározás alapján fizikai kiterjedéssel kell rendelkeznie a dolognak. Az MI és a dolog törvényi definíciójának összevetését követően megállapítható, hogy a technológia szűkebb értelemben vett dologként nem, inkább testetlen dologként értékelhető, melyet azonban a hazai szabályozás nem ismer el, így az tulajdonjog tárgya sem lehet.[23] Fontos azonban megjegyeznünk, hogy a szoftver, számítógépes program önmagában nem működik, feltételez bizonyos fizikai eszközt - hardvert -, mely a működés szempontjából elengedhetetlen,[24] így akár a dolog fogalmának technológiára történő kiterjesztésére is sor kerülhet.[25] Ennek kapcsán röviden szólnunk kell a rendhagyó dolgok körébe tartozó, dolog módjára hasznosítható természeti erőkről is, melyekre szintén a dologra vonatkozó szabályokat kell alkalmazni.[26] Az emberi uralom alá hajtható természeti erők jellemzője - éppúgy, mint a korábban említett AI esetében - a fizikai kiterjedés hiánya, annak hasznosításához mégis 'testi tárgyak' szükségesek, hiszen céljukat önmagukban nem tudják megvalósítani. "Az elektromos áram dologi jellege is áramkörön, vezetékeken való jelenléttel valósulhat meg, önmagában nem."[27] Az emberi uralom alá hajtható természeti erők ezen szabályozását a korabeli technológiai fejlődés, illetve a gazdasági-társadalmi változások hívták életre, amire korábban nem volt példa.[28] Az összehasonlítás eredményeként megállapítható, hogy az emberi uralom alá hajtható természeti erőkre tekintettel, az MI dologi jellegének megítélése kapcsán akár felmerülhet az analógia alkalmazásának lehetősége. Ugyanakkor a felelősségi kérdések rendezése ebben az esetben
- 188/189 -
is problémás, hiszen erre vonatkozó szabályozást nem ismer a hazai jog.[29] Ehhez kapcsolódóan harmadik személyeknek okozott károkért való felelősség - kapcsán meg kell említenünk a francia jogban létező felelősségi tényállást,[30] mely alapján a dolgok által okozott károkért annak őrzője felel.[31] Ennélfogva, a technológia dologi megítélése esetén a már meglévő felelősségi tényállások módosítása jelenthetne megoldást a deliktuális károkért való felelősség kérdéseinek tisztázása tekintetében.
A kutatási időszak során az AI jogi definiálása kapcsán tanulmányoztuk a technológia, valamint az intelligens robotok[32] jogalanyisággal történő felruházásának kérdéseit is. A technológiához kapcsolódó jogalanyiság vonatkozásában számos elmélet,[33] irányzat található a szakirodalomban, ezek közül kettőt kívánunk kiemelni. Az egyik irányzat a felelősségi kérdésekhez kapcsolódó problémák megoldását az elektronikus személyiség kidolgozásában látja, ami a jogszerzést és a kötelezettségvállalást is lehetővé tenné az entitásoknak.[34] Ezzel szemben a másik irányzat az MI és a robotok jogi személyként[35]
- 189/190 -
történő elismerését szorgalmazza. Ehhez kapcsolódóan fontos szólnunk a Shawn Bayern nevéhez fűződő 'mesterségesen intelligens gazdasági társaságok' elméletéről, mely szerint a szerződő felek által alapított gazdasági társaság az AI által meghatározott - létesítő okiratba foglalt -feladatokat hajtja végre, mely később - jogképességet nyerve - az alapító tagok kilépésével megszerzi a társaság feletti hatalmat.[36] A jogalanyiság magyar szabályozási környezetét vizsgálva egyértelmű, hogy a természetes, illetve jogi személyek jogalanyisága nem terjeszthető ki a nevezett technológiára. A hatályos szabályozáshoz ugyan nem kapcsolódik szervesen a jogi személy elméletek tanulmányozása, ám erre a jogalanyiság kérdéskörének vizsgálata vonatkozásában kitértünk, s arra jutottunk, hogy a nevezett entitások jogalanyisággal történő felruházására jogi fikció útján[37] kerülhetne sor. A vizsgált témakör kapcsán érdemes megemlítenünk a részleges jogképesség intézményét, melynek az AI részét képező intelligens ágensek vonatkozásában történő vizsgálata Jan-Erik Schirmer nevéhez fűződik. A kifejezés a német jogrendszerben megtalálható, a személyek és a tárgyak között 'félúton' elhelyezkedő jogintézményt jelöli.[38] Az említett jogintézmény "...személyekre vagy személyek társulására alkalmazandó, akik jogképességgel csak meghatározott szabályok szerint rendelkeznek, ettől eltekintve nincsenek jogaik és kötelezettségeik."[39] Schirmer szerint ennek eredménye, hogy a technológia a gazdája, felhasználója érdekében cselekszik. Ennélfogva az MI, az alkalmazása során okozott károkért való felelősség alól menetesül, azért a felhasználónak kell felelnie, ezzel pedig megoldja a felelősségi kérdések rendezéséből eredő problémákat. Mindent egybevetve megállapíthatjuk, hogy a jogalanyiság megoldást jelenthet a felelősségi kérdések rendezésére, mégis úgy véljük, hogy annak alkalmazása az AI - és robotok - tekintetében nem szükségszerű, s helyette a már létező hazai - esetlegesen külföldi - jogintézményekből kell kiindulnunk.
A mesterséges intelligencia jogi szabályozásának kialakítása meglehetősen bonyolult, ám szükségszerű feladat, hiszen elengedhetetlen, hogy a jog lépést tartson a fejlődéssel. Az MIt jellemző átláthatatlanság okán fontos a technológiával szembeni bizalom megteremtése, melynek fontos építőkövei az etikusság és jogszerűség. A jogszerűség maga előfeltételezi az etikusságot, így elengedhetetlen, hogy az AI kidolgozása és alkalmazása során érvényesüljenek az általános etikai elvek és erkölcsi értékek, sőt azoknak a jogi szabályozás kapcsán is értékelést kell nyerniük.
- 190/191 -
A technológia jogi értelmezése, meghatározása idegen és elhagyható lehet sokak számára, mégis fontos látnunk azt, hogy a technológiai fejlődés és annak különböző a mindennapi életben is megjelenő vívmányai fokozatosan alakítják át a klasszikus jogi fogalmainkat. Ennélfogva a megfelelő jogszabályi környezet megteremtését előmozdíthatja az AI jogi definiálása az érintett jogterületeken. Ezen túlmenően megoldás lehet a szektorális, tehát adott jogterületekre koncentráló szabályozás kidolgozása is, mely képes arra, hogy kifejezetten az adott terület sajátos problémáira reagáljon. Mindent egybevetve elmondható, hogy a mesterséges intelligencia jogi szabályozásának kialakítása olyan fontos, sürgető feladat, melynek megoldásában a jogászokon túl más tudományterületek képviselőinek - programozóknak, mérnököknek - is részt kell venniük. ■
JEGYZETEK
* A kutatást az ΕFΟΡ-3.6.2-16-2017-00007 azonosító számú, Az intelligens, fenntartható és inkluzív társadalom fejlesztésének aspektusai: társadalmi, technológia, innovációs hálózatok a foglalkoztatásban és a digitális gazdaságban című projekt támogatta. A projekt az Európai Unió támogatásával, az Európai Szociális Alap és Magyarország költségvetése társfinanszírozásában valósul meg.
[1] "A mesterséges intelligencián (Artificial intelligence - AI) alapuló rendszerek olyan, emberek által megtervezett78 szoftverrendszerek (és lehetőség szerint hardverrendszerek), amelyek összetett céljukra tekintettel a fizikai vagy a digitális dimenzióban úgy működnek, hogy a környezetüket adatszerzés révén észlelik, értelmezik a gyűjtött strukturált és nem strukturált adatokat, ismereteik alapján érvelnek vagy ezekből az adatokból származó információkat dolgoznak fel, valamint eldöntik, hogy az adott cél eléréséhez melyek a leghatékonyabb intézkedések. Az AI-rendszerek használhatnak szimbolikus szabályokat vagy numerikus modellt is betanulhatnak, és a magatartásukat is megváltoztathatják annak elemzése révén, hogy a korábbi intézkedések hogyan hatottak a környezetre. "
Mesterséges intelligenciával foglalkozó magas szintű szakértői csoport: Etikai iránymutatás a megbízható mesterséges intelligenciára vonatkozóan. Brüsszel, 2019. április 8., 47.: https://op.europa.eu/en/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1/language-hu/format-PDF (Letöltés ideje: 2020. 08. 26.)
[2] A továbbiakban a mesterséges intelligencia - angolul artificial intelligence, röviden: AI - vonatkozásában az MI és AI a rövidítéseket egyaránt alkalmazzuk.
[3] Fontos megjegyeznünk, hogy a mesterséges intelligencia alkalmazásával történő károkozás esetében beszélhetünk deliktuális és kontraktuális károkról egyaránt, ám a tanulmányunk alapját képező kutatási időszakban utóbbiakat nem tanulmányoztuk, ezért arra jelen írásunkban sem térünk ki.
[4] Etikai iránymutatás: 48.
[5] Fehér könyv a mesterséges intelligenciáról: a kiválóság és a bizalom európai megközelítése. COM(2020) 65 final, Európai Bizottság, Brüsszel, 2020. 02. 19., 3.: https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_hu.pdf (Letöltés ideje: 2020. 08. 26.)
[6] Az átláthatatlanságot, kiszámíthatatlanságot eredményező fekete doboz effektus esetén az MI által hozott döntés, cselekvés mögötti érvelés nem világos a kutatók, fejlesztők számára. Independent High-Level Expert Group on Artificial Intelligence: A definition of AI: Main Capabilities and Disciplines., European Commission, Brussels, 8th of April 2019, 5.: https://ec.europa.eu/digital-single-market/en/news/definition-artificial-intelligence-main-capabilities-and-scientific-disciplines (Letöltés ideje: 2020. 08. 26.)
[7] Etikai iránymutatás: 7-15.
[8] Etikai iránymutatás:15.
[9] Etikai iránymutatás: 15-16.
[10] Pusztahelyi Réka álláspontja szerint a cselekvőképesség inkább cselekvési-döntési képesség. Lásd: Pusztahelyi Réka: Bizalmunkra méltó MI - A mesterséges intelligencia fejlesztésének és alkalmazásának erkölcsi-etikai vonatkozásairól, (megjelenés alatt: Publicationes Universitatis Miskolcinensis, Sectio Juridica et Politica, 2019/2.)
[11] Etikai iránymutatás:17-18.
[12] Etikai iránymutatás: 24-28.
[13] Dignum, Virginia: Responsible Artificial Intelligence - How to Develope and Use AI in a Responsible Way, Switzerland, Springer Nature 2019, 95-97.
[14] Angol nyelven: Institute of Electrical and Electronics Engineers (IEEE), mely az Amerikai Villamos- és Elektronikai Mérnökök Intézetének - American Institute of Electrical Engineers -, valamint a Rádiómérnökök Intézetének - Institute of Radio Engineers - 1963-as összeolvadásával jött létre. https://www.ieee.org/about/ieee-history.html (Letöltés ideje: 2020. 08. 29.)
[15] Mindent egybevetve - a különböző iránymutatásokat és Dignum álláspontját is figyelembe véve -megállapítható, hogy a technológia átláthatósága, tehát a különböző döntési; cselekvési folyamatok megértése; megmagyarázhatósága, valamint az ehhez kapcsolódó elszámoltathatóság; ellenőrizhetőség szoros kapcsolatban állnak egymással. Az átláthatóság és elszámoltathatóság - egymást kiegészítve - kiemelkedő jelentőséggel bírnak, hiszen megvalósulásuk vélhetően elősegíti a felelősségi kérdések tisztázását, s végső soron a technológiába vetett bizalmat.
[16] Lásd: Mesterséges intelligencia Európa számára - A Bizottság közleménye az Európai Parlamentnek, az Európai Tanácsnak, a Tanácsnak, az Európai Gazdasági és Szociális Bizottságnak és a Régiók Bizottságának. COM(2018) 237 final/2. Brüsszel, 2018. 06. 26., 1.: https://ec.europa.eu/transparency/regdoc/rep/1/2018/HU/COM-2018-237-F2-HU-MAIN-PART-1.PDF (Letöltés ideje: 2020. 08. 26.)
[17] Barzó Tímea: A szoftverek szerzői jogi védelmének határai, in: Quaerendo et Creando: Ünnepi kötet Tattay Levente 70. születésnapja alkalmából (szerk.: Pogácsás Anett), Budapest, Szent István Társulat, 2014, 46.: http://www.mek.oszk.hu/18500/18583/18583.pdf (Letöltés ideje: 2020. 08. 26.)
[18] 1999. évi LXXVI. törvény a szerzői jogról 1. § (2) bek. c) pont
[19] 2000. évi C. törvény a számvitelről, 1. számú melléklet, A mérleg előírt tagolása - A; B változat; illetve (7) bekezdés b) alapján.
[20] A közös európai adattér kialakítása felé - A Bizottság közleménye az Európai Parlamentnek, a Tanácsnak, a Tanácsnak, az Európai Gazdasági és Szociális Bizottságnak és a Régiók Bizottságának. COM(2018) 232 final, Brüsszel, 2018. 04. 25.: https://eur-lex.europa.eu/legal-content/HU/TXT/PDF/?uri=CELEX:52018DC0232&from=HU (Letöltés ideje: 2020. 08. 26.)
[21] 2013. évi V. törvény a Polgári Törvénykönyvről (a továbbiakban: Ptk.) 5:14. § (1) bek.
[22] Almási Antal: A dologi jog kézikönyve, (I. kötet) Budapest, Tébe Könyvtár, 1928, 76-77.
[23] Ptk. 5:14. §
[24] PC Fórum Szótár - Szoftver: https://pcforum.hu/szotar/szoftver (Letöltés ideje: 2020. 08. 12.)
[25] Ehhez szorosan kapcsolódik az Osztrák Polgári Törvénykönyv, mely a dolog fogalmát szélesebb körben értelmezi, a testetlen dolgok fogalmát is ismeri, s azok körébe sorolja az elektromos áramot és a szoftvereket is. Binder, Martin: Sachenrecht - Theorie und systematisch aufbereitete OGH-Fälle, Wien, Verlag Österreich, 2003, 34.
[27] Stefán Ibolya: A mesterséges intelligencia fogalmának polgári jogi értelmezése, Pro Futuro, 10/1, 2020.: https://ojs.lib.unideb.hu/profuturo/article/view/7551/7264 (Letöltés ideje: 2020. 08. 12.)
[28] A villamosáram megjelenését követően megnövekedett annak jogosulatlan használata is, ám szabályozás hiányában nem volt szankcionálható, ezért azt a dolog fogalmának körébe vonták, ezáltal pedig megnyílt a lehetőség a lopás büntetőjogi tényállásának alkalmazására. Lásd: Almási: i.m. 72.
[29] A dologi minőség kapcsán felmerülhet ugyan a termékfelelősségi szabályok vizsgálata, s azok kiterjesztése az MI-re, erre azonban kutatásunk során nem vállalkoztuk a technológia specifikus iránymutatás hiányában, melynek kidolgozását az EU célként tűzte ki.
[30] A magyar Polgári Törvénykönyvben azonos rendelkezés nem ismert, hasonló a fokozott veszéllyel járó tevékenyégért való felelősség tényállása. A mesterséges intelligencia és a veszélyes üzemi tevékenyég kapcsán lásd: Pusztahelyi Réka: A veszélyes üzemi felelősség tényállása a mesterséges intelligencia fejlődésének tükrében, in: Innovatív magánjogi megoldások a társadalmi-gazdasági haladás szolgálatában (szerk.: Certicky, Mário), Szeged, Magánjogot Oktatók Egyesülete, 2020, 61-74.: http://www.maganjog.hu/wp-content/uploads/2020/02/MOE_Innovat%C3%ADv-mag%C3%A1njogi-megold%C3%A1sok.-Tanulm%C3%A1nyk%C3%B6tet..pdf (Letöltés ideje: 2020. 08. 13.)
[31] Pusztahelyi, Réka: A veszélyes üzemi felelősség szabályozási környezete, Budapest, Nemzeti Közszolgálati Egyetem, 2019, 32.: https://nkerepo.uni-nke.hu/xmlui/bitstream/handle/123456789/12954/Pusztahelyi_A%20veszelyes_uzemi_felelosseg_szabalyozasi_kornyezete_2018.pdf;jsessionid=1r-CD18B83D19196CD99448C293B68CB9?sequence=1 (Letöltés ideje: 2020. 08. 13.)
[32] A jogalanyiság kérdéskörének vizsgálata leggyakrabban az intelligens robotok - AI által vezérelt; okos; fejlett; autonóm eszközök - vonatkozásában merül fel, így azt is vizsgálódásunk körébe vontuk. Ugyanakkor azt is látni kell, hogy a jogalanyiság lehetősége nem kizárólag az intelligens robotokhoz kapcsolódhat, hanem általánosságban a fejlett, akár önálló döntéshozatalra is képes technológiához. Ezt támasztják alá az ún. testetlen robotok is, melyek fizikai kiterjedés nélküli AI által vezérelt robotok, létrejöttük az MI és a robotok fogalmak összemosódásának eredménye. A testetlen robotokról lásd bővebben: Ződi Zsolt: Platformok, robotok és a jog - Új szabályozási kihívások az információs társadalomban, Budapest, Gondolat Kiadó, 2018, 62-63.
[33] A jogalanyiság vonatkozásában fontos megemlítenünk azt az igen népszerű szakirodalmi álláspontot, mely a robotokat párhuzamba állítja a rabszolgákkal, ám a terjedelmi korlátokra tekintettel erről nem kívánunk részletesen szólni, a témában lásd: Bryson, Joanna J.: Robots Should Be Slaves, in: Close engagements with artificial companions - Key social, psychological, ethical and design issues (ed.: Yorick Wilks), Amsterdam, John Benjamins Publishing Company, 2010, 63-74.: http://www.cs.bath.ac.uk/~jjb/ftp/Bryson-Slaves-Book09.html (Letöltés ideje: 2020. 08. 30.) Pagallo, Ugo: The Laws of Robots. Crimes, Contracts and Torts, Netherlands, Springer, 2013, 102106.
[34] P8_TA(2017)0051 A robotikára vonatkozó polgári jogi szabályok. Az Európai Parlament 2017. február 16-i állásfoglalása a Bizottságnak szóló ajánlásokkal a robotikára vonatkozó polgári jogi szabályokról (2015/2103(INL)), 59. f. pontja: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_HU.html (Letöltés ideje: 2020. 08. 26.)
Lásd még: Burri, Thomas: Free movement of algorithms: artificially intelligent persons conquer European Union' internal market, in: Research Handbook on the Law of Artificial Intelligence (eds.: Woodrow Barfield - Ugo Pagallo), Cheltenham, Edward Elgar Publishing Limited, 2018, 541-542.
[35] A mesterséges intelligencia jogi személyként történő elismerése kapcsán felmerül az alapítvány jogintézményének alkalmazási lehetősége is, lásd: Koops, Bert-Jaap - Hildebrandt, Mireille - Jaquet - Chiffelle, David-Olivier: Bridging the Accountability Gap. Rights for New Entities in the Information Society? Minnesota Journal of Law, Science & Technology, Vol. 11. No. 2. 2010, 519-524.: https://www.researchgate.net/publication/45523421_Bridging_the_Accountability_Gap_Rights_for_New_Entities_in_the_Information_Society (Letöltés ideje: 2020. 08. 30.)
Solum, Lawrence B.: Legal Personhood for Artificial Intelligences, North Carolina Law Review, Vol. 70. Issue 4. (1992), 1240-1255.: https://scholarship.law.unc.edu/cgi/viewcontent.cgi?article=3447&context=nclr (Letöltés ideje: 2020. 08. 30.)
[36] Burri: i.m. 539-540.
[37] Moór Gyula: A jogi személyek elmélete, MTA Jogtudományi Bizottság kiadványai 2., Budapest, 1931, 103 -137.
[38] Schirmer, Jan-Erik: Artificial Intelligence and Legal Personality: Introducing "Teilrechtsfähigkeit": A Partial Legal Status Made in Germany, in: Regulating Artificial Intelligence. (eds. Wischmeyer, Thomas - Rademacher, Timo), Cham, Springer International Publishing, 2020, 133.
[39] "... Teilrechtsfähigkeit to be the status applicable to a human or an association of humans having legal capacity only according to specific legal rules, but otherwise not bearing duties and having rights. " Schirmer: i.m. 134.
Lábjegyzetek:
[1] A szerző PhD-hallgató, Deák Ferenc Állam- és Jogtudományi Doktori Iskola, Miskolci Egyetem Állam- és Jogtudományi Kar, Polgári Jogi Tanszék.
Visszaugrás