Az embert a történelem során mindig is foglalkoztatta a saját maga által létrehozott tárgyak életre keltésének gondolata. A XXI. századra elért technológiai fejlődés a mesterséges intelligenciának köszönhetően legalábbis elvi közelségbe hozta az autonóm módon eljáró robotokat, amely miatt az ezzel kapcsolatos jogi gondolkodás már nem tartozik a sci-fi világába.
Mint minden technológiai vívmánynak, a robotoknak is csak annyiban van értelmük, amennyiben az emberiség javát szolgálják. Ezek következik a technológiai fejlődést is az emberi méltóság alá helyező megközelítésből. A robotok esetében ez konkrétan az emberi képességek kiterjesztését jelenti. Jelen tanulmányukban a robotok bűnüldözési és védelmi célú olyan felhasználását vesszük górcső alá, amely magában hordozhatja az emberi élet szándékolt kioltását is. Az robotok ilyen célú felhasználását is általában a robotok emberénél gyorsabb és precízebb eljárásával szokták indokolni. Tanulmányukban azt vizsgáljuk, hogy ez a jogi elvárások fényében is tartható indoka-e a robotok emberi élet kioltására is alkalmas felhasználásának.
A robot fogalmának az alábbi megragadható elemei vannak:[1]
• autonómia elérése érzékelők révén és/vagy a környezettel folytatott adatcsere, illetve ezen adatok elemzése révén;
• önálló tanulás, tapasztalás és interakció útján (opcionális kritérium);
• fizikai megjelenés;
• magatartása és cselekedetei környezethez történő igazítása;
- 201/202 -
A robotok biztonságosabbá tehetik a közlekedést (önvezető autók), javíthatják az egészségügyi ellátás (sebészi robotok) vagy az idősgondozás (ápoló robotok) hatékonyságát és minőségét. Vannak azonban kockázatok is, amelyek a robotokat működtető algoritmusok adott esetben nem világos döntéshozatali folyamatából, az esetleges diszkriminációból vagy az illetéktelen kezekbe kerülés miatti fenyegetettségből fakadnak. Az algoritmusok ráadásul hozhatnak téves döntéseket is, kibertámadás célpontjaivá válhatnak. Ezen túl számolni kell az emberek nyugaton meglévő robotokkal kapcsolatos előítéleteivel, amelyeket az ember kreálmánya feletti hatalom elvesztésétől való félelem táplál.[2] Emiatt beszél Tranter a Frankenstein-mítoszról, amely mögött a társadalmi kontextust nem ismerő, saját találmánya iránt mélyen elfogult tudós képe húzódik meg.[3]
Abban, hogy a robotok az emberiség javát szolgálják, nem csak a jognak van szerepe (szakemberképzés, kutatások és beruházások támogatása), de a jognak meghatározó szerepe van abban, hogy a technológia társadalmi elfogadottságát annak megbízhatóságának növelésén keresztül elősegítse. A megbízhatóság erősítése tehát jogi feladat, egyúttal a félelmet keltő ugyanakkor emberiség javára fordítható technológiák (például a nukleáris energia hasznosítása) szabályozási vezérelve is, amelynek kulcsa egy olyan alapállás, amely a kockázatokat nem pusztán feltételezi, hanem azok létéről tudományos alapon meggyőződik (precaution principle).[4] Az elővigyázatosság elvének lényegét egyfajta kockázat értékelő szabályozási hozzáállás jelenti, amelynél fogva az adott technológia meg is tiltható, ha a tudományos szempontok szerint azonosított magas kockázat szabályozási eszközzel megnyugtatóan (biztonságosan) nem küszöbölhető ki. Másként, a technológia tiltható, ha a vele tudományosan azonosított kockázatok szabályozási elvárásokkal nem szoríthatók le egy még vállalható szintre. A kockázatokat
- 202/203 -
szektorális szempontok (pl. egészségügy, közlekedés, energetika, közigazgatás, rendészet és rendvédelem) és a szándékolt használat alapján felmerülő kockázatok (pl. biztonság, fogyasztói jogok, alapvető jogok) alapján lehetne felmérni és a magas kockázatú robotok esetében előzetes megfelelőség ellenőrzést lehetne előirányozni már a fejlesztés fázisában az algoritmusra és adatokra is kiterjedően.[5] Ez a megoldás biztosítaná, hogy az államok kontroll gyakorolhassanak afölött, hogy valóban csak az emberiség javát, az ember képességeinek kiterjesztését szolgáló robotok kerüljenek forgalomba, amely etikai követelmény is.
A kockázatok felmérése és szabályozási kezelése szempontjából meghatározó szerepe van az etikai elveknek. Az etikai elveket az emberi méltóság támasztja alá, ráadásul egyfajta iránytűként a jogi keretrendszer finomhangolását is segíthetik újszerű szabályozási kérdésekben és megmutatják, hogy adott esetben milyen irányba kell a szabályozást kialakítani.[6] Az Európai Parlament is hangsúlyozza, hogy mindennemű robotetika központi elemének a sérthetetlen emberi méltóságnak kell lennie.[7] Asimov robot törvényeinek középpontjában is az ember védelme áll, nevezetesen, hogy a robot nem okozhat kárt az emberiségnek és az egyes embernek. Úgyszintén a robotnak tiszteletben kell tartania az ember döntéshozatali szabadságát, amely az emberi méltóság sérthetetlenségéből fakad.[8]
Meg kell jegyezni, hogy meg kell különböztetni a robotetikát a gépek etikájától vagy másként robotjogtól:[9] előbbi a robotok tervezőire, gyártóira, működtetőire vonatkozik utóbbi pedig magukra a robotokra.[10] Miután még az autonóm robotok sem képesek morális döntésekre, így a gépi etika
- 203/204 -
(robotjog) hipotetikus. Asimov törvényei a robotokra vonatkoznak, de erre figyelemmel azokat a robotok tervezőire, gyártóira, működtetőire, üzembe helyezőire kell vonatkoztatni.
A robotetika fentiek szerinti legfontosabb következménye, hogy a robot nem irányulhat ember ellen. Emberi méltóság a Polgári és Politikai Jogok Nemzetközi Egyezségokmánya szerint az emberi jogok forrása az emberi méltóság,[11] amely az Emberi Jogok Egyetemes Nyilatkozata szerint minden ember elhidegíthetetlen joga.[12] Mivel a robotnak se érzelmi se pedig erkölcsisége nincsen, ezért sem az emberi élet értékét, sem annak veszteségét nem tudja felmérni. A robot erkölcsiségének és halálának értelmezhetetlensége miatt emberekkel szembeni alkalmazása alábbiak szerint felveti az ember elidegeníthetetlen, vele született méltóságának fogalmi semmibevételét, értékének fogalmi devalválódását, amely miatt robot ember felett nem lehet élet-halál ura.
Az autonóm robotok bűnüldözésben és harcászatban való felhasználása meghaladja a távolról irányított drónokat, mert ez esetben a robot már emberi közreműködés nélkül látja el a feladatát. A robotok ilyen célú felhasználása melletti érv szokott lenni, hogy ezzel meg lehet kímélni a katonák és rendőrök életét, másfelől a robot - a beépített algoritmusának köszönhetően - hatékonyabban képes az ártatlan áldozatok megóvására. E helyen utalunk arra, hogy jelen tanulmányunkban a robotok kifejezetten emberi élet kioltására alkalmas felhasználását vizsgáljuk. A robotok bűnüldözésben, harcászatban történő felderítési, információ szerzési és egyéb olyan célú felhasználása, amelyre ugyan emberekkel szemben kerül sor, de amely nem foglalja magába emberi élet szándékolt kioltását, legalább fogalmilag nem ellentétes a robotetika emberi képesség (jelen esetben közérdeket, közbiztonságot, nemzetbiztonságot) növelését és kiterjesztését - emberi méltóságból következő -kívánalmával. A fogalmi ütközés ellenére ettől még a robotok ilyen célú felhasználásnak is vannak robotetika, emberi méltóságból fakadó követelményei, így nem tévesztheti meg az embert (az embernek mindenkor tudnia kell, hogy robottal áll szemben, vö. GDPR
- 204/205 -
13. cikk (2) bek. f) pont) és csak akkor terjedhet ki emberre a robot döntése, ha ahhoz az ember kifejezetten hozzájárult (vö. GDPR 22. cikk). Továbbá, mint mindennemű félelmet ébresztő technológiák kapcsán, úgy a felderítő, információszerző robotok esetében is kívánalom a megbízhatóság biztosítása, az adat-és kibervédelem megteremtése és a robottal okozott károk megtérítése felelősségi szabályainak meghatározása.
Visszatérve arra, hogy a robot adott esetben embernél precízebb működése lehet-e érv a robot olyan harcászati vagy bűnüldözési felhasználására, amely adott esetben az emberi élet kioltását is eredményezheti: ezzel kapcsolatban fel kell hívni a figyelmet, hogy az emberi élet kioltása minden esetben súlyos erkölcsi kérdés, amely tekintetében az ember legalább tud az erkölcsiségére és az érzelmeire támaszkodni, amely egy robot esetében teljesen és fogalmilag hiányzik. Ezen kívül az emberi érzelmeknek lehet szerepe az áldozatoknak az elkövető megbüntetéséhez fűződő érdeke kapcsán is.
Nem csak azért, mert lehetetlen minden élethelyzetet előre a robot algoritmusába táplálni, de azért is mert az emberölés súlyos morális dilemma, felmerül, hogy az emberi élet morális mérlegelésre képtelen robot általi kioltása önkényes lesz, amely ellentétes a Polgári és Politikai Jogok Nemzetközi Egyezségokmányával (6. cikk (1) bekezdés). Természetesen ez nem jelenti, hogy az emberek általi ölés minden esetben nélkülözni tudja az önkényességet. Sőt, akár azt is lehet mondani, hogy az emberi élet kioltásával kapcsolatos objektív mérlegelés terén egy robot még akár nagyobb megbízhatóságot is nyújthat az emberhez képest (pl. lehet egy robot az emberi testbeszédet, a szándékot jobban meg tudja ítélni a belé táplált objektív ismérvek alapján, mint egy ember). Ugyanakkor tény, hogy olyan helyzetekben, amikor emberi életet kell kioltani, akkor legalább az embernek az érzelmei és a morális mérlegelési képessége segítséget tud nyújtani. Az sem segít, ha ilyen helyzetben a robot legalább nem tesz semmit, mert lehet éppen ezzel veszélyezteti az emberi életet.
Embert ölni (i) szükség esetén, (ii) végső esetben és (iii) arányosan alkalmazva lehet.[13] Nemzetközi ajánlások szerint a rendőr fegyverhasználata akkor szükséges, ha önmagát vagy más életét védi közvetlen halállal
- 205/206 -
vagy súlyos sérüléssel járó helyzetben, ha súlyos bűncselekmény elkövetését akadályozza meg vagy ilyen veszélyt jelentő személyt kell letartóztatni vagy elszökését megakadályozni.[14] Más nemzetközi ajánlás hangsúlyozza, hogy fegyvert olyan esetben lehet használni, mikor más eszköz nem lenne hatásos vagy célravezető, ezért ajánlott nem csak élet kioltására alkalmas önvédelmi eszközzel felruházni a rendőrt.[15] Ennek során adott esetben a célszemély felszólítása is elvárt lehet a lövés leadása előtt. Harmadrészt az alkalmazott erőnek arányban kell állnia a fenyegető helyzettel. Ebben az arányossági mérlegelési körben lehet jelentősége az érzelmeknek, az együttérzésnek, amely egy emberi döntést az arányos beavatkozásra késztetheti. Az arányosság mást jelent a humanitárius és az emberi jogokban. Fegyveres konfliktusban az önkényes emberölés a humanitárius jogba ütközik, civilekkel szemben pedig háborús bűntett. A civilek védelme érdekében a humanitárius jog megköveteli a megkülönböztetést és az arányosságot. Előbbi előírja a civilek és harcosok megkülönböztetését annak érdekében, hogy ne lehessen olyan háborús eszközöket vagy módszereket alkalmazni, amelyek ugyan katonai célpontokra irányulnak, de hatásuk azon túlterjedhet és ezáltal ún. válogatás nélkülinek minősül. Míg az emberi jogban az arányosság válaszerő szintjének helyes megválasztását jelenti, addig a humanitárius jogban az arányosság a támadó és védekező katonai akciók közötti választást megfelelőségét, amelynek során szintén szerepe van az emberi érzelmeknek és morális mérlegelésnek.[16]
A polgári és politikai jogok nemzetközi egyezségokmánya 2. cikk (3) bekezdés a) pontja, de az Emberi Jogok Európai Egyezmény 13. cikke is előírja, hogy akinek a jogai sérültek, az kérhesse a jogsérelme hatékony orvoslását. Mindez az egyén elszámoltathatóságát jelenti az emberi jogok (mind
- 206/207 -
fegyveres konfliktusban mind bűnüldözés körében való) megsértése esetén, amelynek elmulasztása szintén nemzetközi emberi jogi egyezményekbe ütközik.[17] A 4. Genfi Egyezmény is előírja, hogy az államok lépjenek fel azok ellen, akik tudatosan civilek életére törnek háborús konfliktusban vagy aránytalan támadást indítanak.[18] A hatékony jogorvoslat nem csak büntetőjogi következmények alkalmazását írja elő, hanem kártérítést, elégtételt, rehabilitációt és az ismétlődés veszélyének elkerülésére vonatkozó garanciákat.[19] Az áldozatok elkövetők megbüntetéséhez fűződő érdekét sértheti, hogy magát a robotot nem lesz értelme megbüntetni a szenvedésre képtelensége miatt. Ez persze nem azt jelenti, hogy a robot által okozott érdeksérelem miatt ne lehetne felelősségre vonást eszközölni.
A hatékony jogorvoslat nem csak elégtételt ad az áldozatnak, hanem el is rettent a jövőbeli jogsértéstől. Bár a robotot nem lesz értelme a szenvedésre képtelensége miatt megbüntetni, ettől még lesz olyan ember vagy emberi közösség, akik érdekében a robot működik és akiknek a felelőssége megállapítható lehet. Ehhez azonban ilyen tartalmú szabályozást kell kidolgozni, hasonlóan az önvezető autókhoz, objektív és nem vétkességi alapon. Az USA-ban ugyanis például a fegyvergyártók felelőssége kizárt a fegyverrel elkövetett jogsértésekért.[20] Nemzetközi ajánlások szerint pedig a parancsnok nem felelős az alárendelt autonóm döntéséért, csak ha tudott róla vagy tudnia kellett volna arról, hogy erőszakhoz és lőfegyverek jogellenes használatához folyamodtak és nem tett meg mindent, hogy megelőzze, vagy jelentse.[21] Ettől azonban még lesz valaki, aki döntést hoz az autonóm fegyver konkrét felhasználásáról, végső soron lesz olyan, aki érdekében működni fog és aki felelősségre lenne vonható. Ehhez meg kell teremteni az
- 207/208 -
objektív felelősség alapjait pusztán azon az alapon, hogy valaki kockázatos eszközt helyezett működésbe. Ilyenkor a felelősség a működtető személyé. A károsultnak ezért csak azt kellene bizonyítania, hogy a robot okozta a kárt, anélkül, hogy azt kellene alátámasztania, hogy ez pontosan mire is volt visszavezethető.
Az Európai Parlament is fontos követelményként rögzíti a felelősség kizárásának a tilalmát, vagyis azt a szabályozási elvárást, miszerint jövőbeni jogalkotási aktus semmilyen körülmények között nem korlátozhatja a megtéríthető károk típusát és mértékét, illetve nem korlátozhatja a károsultnak felkínálható kártérítés formáit pusztán azon az alapon, hogy a kárt nem emberi lény okozta."[22]
A robotok ember elleni felhasználása során tehát elvileg nem kizárt a humán felelősségre vonás, még ha ennek jogi alapjai most hiányoznak is. Ettől még a robot szenvedésének hiánya miatt sérülhet az áldozatok megbüntetéshez fűződő érdeke, de az elrettentés még megvalósulhat a robotot működésbe helyező szintjén. Mindezek alapján a robot emberek elleni felhasználása kapcsán nem feltétlenül a felelősség kérdése az, amely iránymutatóul szolgál a robotok ilyen irányú felhasználásának jövőbeli tilalmazásához. Ugyanakkor fentiek alapján látható volt, hogy ehhez kellő érvet szolgálat az emberi méltóság talaján álló robotetika, amely fogalmilag teszi elfogadhatatlanná, hogy robot ember felett legyen élet halál ura. Az emberi élethez való jog biztosítása körében megkövetelt arányosság elve ugyanis adott helyzetben olyan emberi érzelmi, illetve erkölcsi mérlegelést igényelhet, amely robotok esetében kizárt.
Mint minden technológiai vívmánynak a robotoknak is csak úgy van értelmük, ha az emberiség javát, az emberi képességek kiterjesztését szolgálják. Ez következik a technológia haladásnak az emberi méltósághoz képest alávetett helyzetéből is, amelyet a robotetika is magáénak vall. A robotok fentiek szerinti hasznosulása ugyan nem csak jogi feladat, de a jognak meghatározó szerepe lehet a robotokkal kapcsolatos előítéletek és félelmek eloszlatásában. Ez a jogalkotó részéről egy kockázatértékelési alapállás felvételét feltételezi. Azokon a területeken, ahol szabályozási eszközökkel sem
- 208/209 -
szorítható le egy társadalmilag még elfogadható szintre a technológia jelentette kockázat, ott a technológia tiltásának van helye. A robotok emberi élet kioltására is alkalmas felhasználása kapcsán arra jutottunk, hogy az emberi élet kioltásával járó erkölcsi dilemma a robotot nem terheli. Ilyen helyzetekben az ember számára rendelkezésre áll az érzelmi és morális mérlegelés lehetősége. Robot ezért nem kerülhet emberrel szemben olyan helyzetbe, hogy élet-halál felett döntsön. Ennek oka, hogy a robot fogalmilag híján van együttérzésnek és bármilyen más érzelmi és erkölcsi megfontolásnak, amely az olyan helyzetekben, amikor emberi élet kioltásáról van szó, az arányosság kapcsán szükségképpen felmerül, így az emberi élet kioltása önkényesnek bizonyulhat. ■
JEGYZETEK
[1] European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)) European Civil Law Rules in Robotics - Study, 8. (a továbbiakban: EP Study) http://www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/IPOL_STU(2016)571379_EN.pdf (2021. 11. 01.)
[2] EP Study, 6.
[3] Tranter, Kieran: Nomology, Ontology and Phenomenology of Law and Technology. Minnesota Journal of Law, Science & Technology, 2007, 8(2), 449.
[4] Az EU környezetvédelmi politikája a Rio-i Nyilatkozatra való hivatkozással szentesítette ezt az elvet, eszerint amikor komoly és visszafordíthatatlan károkozás veszélye áll fenn, akkor a teljes tudományos bizonyosság hiánya nem lehet az oka a környezetszennyezést megakadályozó költséghatékony intézkedések alkalmazásának. Versluis, Esther - van Asselt, Marjolein - Fox, Tessa - Hommels, Anique: Calculable Risks? An Analysis of the European Seveso Regime. In: Goodwin, Morag - Koops, Bert-Jaap - Leenes, Ronald (eds.): Dimension of technology Regulations. [s. l.] Wolf Legal Publishers, 2010. 264.
[5] Lsd. az EU Bizottság hasonló javaslatát a mesterséges intelligencia kapcsán: European Commission: White Paper on Artificial Intelligence - A European approach to excellence and trust, Brussels, 19.2.2020 C0M(2020)65 final.
[6] Az Európai Bizottság által 2018 júniusában létrehozott, mesterséges intelligenciával foglalkozó magas szintű független szakértői csoport megbízható mesterséges intelligenciára vonatkozó etikai iránymutatása. Brüsszel, 2019. április. 14. https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60429 (2020. 11. 01.)
[7] EP Study, 20.
[8] EP Study, 21.
[9] Petit, Nicolas: Law and Regulation of Artificial Intelligence and Robots - Conceptual Framework and Normative Implications (March 9, 2017) 3. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2931339 (2020. 11. 01.)
[10] EP Study, 20.
[11] Az Egyesült Nemzetek Közgyűlése XXI. ülésszakán, 1966. december 16-án elfogadott Polgári és Politikai Jogok Nemzetközi Egyezségokmánya, 2. preambulum bekezdés.
[12] Universal Declaration of Human Rights (UDHR), adopted December 10, 1948, G.A. Res. 217A(III), U.N. Doc. A/810 at 71 (1948), 1. preambulum bekezdés.
[13] International Committee of the Red Cross: Violence and the Use of Force, July 2011, http://www.icrc.org/eng/assets/tiles/other/icrc_002_0943.pdf (2020. 11. 01.) 17.
[14] United Nations Code of Conduct for Law Enforcement Officials, adopted December 17, 1979, G.A. res. 34/169, annex, 34 U.N. GAOR Supp. (No. 46) at 186, U.N. Doc. A/34/46 (1979)
[15] Basic Principles on the Use of Force and Firearms by Law Enforcement Officials, adopted by the Eighth United Nations Congress on the Prevention of Crime and the Treatment of Offenders (1990 Basic Principles), Havana, August 27 to September 7, 1990, U.N. Doc. A/CONF.144/28/Rev.1 at 112 (1990)
[16] The Human Rights Implications of Killer Robots. https://www.hrw.org/report/2014/05/12/shaking-foundations/human-rights-implications-killer-robots (2020. 11. 01.)
[17] Basic Principles and Guidelines on the Right to a Remedy and Reparation for Victims of Gross Violations of International Human Rights Law and Serious Violations of International Humanitarian Law (2005 Basic Principles and Guidelines), UN General Assembly, Resolution 60/47, December 16, 2005, 4. cikk (a továbbiakban: 2005 Basic Principles and Guidelines)
[18] Geneva Convention relative to the Protection of Civilian Persons in Time of War (Fourth Geneva Convention), adopted August 12, 1949, 75 U.N.T.S. 287, entered into force October 21, 1950, art. 146; Protocol I, 86. cikk
[19] 2005 Basic Principles and Guidelines, 4. cikk
[20] The Human Rights Implications of Killer Robots: https://www.hrw.org/report/2014/05/12/shaking-foundations/human-rights-implications-killer-robots (2020. 11. 01.)
[21] 1990 Basic Principles, 24. cikk.
[22] Az Európai Parlament 2017. február 16-i állásfoglalása a Bizottságnak szóló ajánlásokkal a robotikára vonatkozó polgári jogi szabályokról. 52. pont. http://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_HU.html?redirect (2020. 11. 01.)
Lábjegyzetek:
[1] A szerző egyetemi docens, KRE-ÁJK.
Visszaugrás