Fizessen elő az Európai Jogra!
ElőfizetésMindennapi életünkben egyre több robot vesz körül minket. Mindeddig azonban egyszerű gépekként vagy szoftverekként tekintettünk rájuk, még akkor is, ha tudtuk, hogy immáron nemcsak előre programozott utasításokat végrehajtó automatákról van szó, hanem környezetüket felismerni, és ahhoz alkalmazkodni képes intelligens robotokról. A technológiai fejlődés olyan gyors, hogy a jogi szabályozás világszerte lépéshátrányban van. Az Európai Parlament jogi bizottsága 2015-ben munkacsoportot hozott létre a robotikához és mesterséges intelligenciához kapcsolódó jogi kérdések vizsgálatára.[1] Ebben a rövid cikkben a hazai olvasókkal szeretném megismertetni a bizottság ülésein felmerülő, robotikára vonatkozó polgári jogi kérdéseket. Azt nem ígérem, hogy a kedves olvasó válaszokat is kap, ha végigolvassa e cikket, de azt igen, hogy bepillantást nyerhet napjaink legizgalmasabb jogi kérdéseiről zajló európai műhelyvitába és még időben csatlakozhat az eszmecseréhez, amely az idei év legfontosabb és talán legnagyobb hatású témája lesz az Európai Parlamentben.
Arról, hogy mit tekintünk robotnak, különböző álláspontok léteznek, de a definíciók a tudomány fejlődéséhez igazodva napjainkban igen gyorsan változnak. A klasszikus értelmezés megkívánta például, hogy a robot emberhez hasonló formájú legyen, ez azonban már éppúgy meghaladott, mint az az álláspont, amely szerint a robotnak képesnek kell lennie mozgásra vagy helyváltoztatásra, vagy az, amely szerint ismétlődő parancsokat kell végrehajtania. A szakirodalom jelenleg inkább katalógusszerűen felsorolja azokat az ismérveket, amelyek egy robotra - jelenlegi ismereteink szerint - leginkább jellemzőek, mint például a robot megjelenési formája (pl.: fizikai formában létező vagy virtuális), a robot-ember interakció, a környezet felismerésének, illetve az autonóm döntéshozatalnak a képessége.[2] A francia CERNA[3] (információkommunikációs technológiák etikai kérdéseivel foglalkozó tanácsadó bizottság) definíciója ennél is tovább lép és számításba veszi azt is, hogy a robot saját tapasztalatai felhasználásával magát is képes módosítani a tanultak alapján.[4]
Vezető nélküli metrószerelvények már Budapesten is futnak, autóink kamerákkal pásztázzák a környezetüket és segítenek a sofőrnek biztonságosan közlekedni, drónok készítenek légi felvételeket[5]. Lakásainkban robot porszívó gondoskodik a tisztaságról, telefonunknak szóban adhatunk utasításokat, amelyeket az végrehajt, gyermekeink olyan Barbie babával játszanak, amely az internetre kapcsolódva ad választ kérdéseikre. És ezek csak azok a robotok, amelyekkel a mindennapokban találkozhatunk. Bár ipari[6] és mezőgazdasági[7] felhasználásuk is ugrásszerűen megnőtt, a robotokra többé mégsem gondolhatunk úgy, mint amelyeknek a helye a hatalmas összeszerelő műhelyekben van. Már nem csupán azt a munkát végzik el, ami az embernek fizikailag túl nehéz, veszélyes, vagy túlságosan monoton lenne, mint például azok a 24 órán át üzemelő hatalmas vezető nélküli teherautók, amelyek forró ausztrál bányákban dolgoznak, mégpedig úgy, hogy működésüket csaknem 1500 km-es távolságból ugyancsak robotok felügyelik.[8] Egyre több olyan feladatot is ellátnak - önállóan, vagy emberekkel együttműködve -, amelyet korábban kizárólag emberek végeztek, például idősek vagy betegek ápolását.[9] De orvosainkat is hatalmas online adatbázis támogatja a diagnosztikában, a sebészek precíziós munkáját pedig szintén robotok segítik[10]. Robotok, amelyek működés közben tanulnak is: környezetükről folyamatosan információt gyűjtenek[11] és erre alapozva önálló döntéseket hozva alkalmazkodnak az új, vagy megváltozott körülményekhez is. Egy autonóm robot - legyen az sofőr nélküli autó vagy tőzsdei ügyleteket kötő algoritmus - külső kontroll vagy beavatkozás nélkül is képes környezetét felmérve és elemezve döntést hozni, majd döntésének megfelelően cselekedni (vagy éppen attól tartózkodni). Adott esetben pedig képes akár kárt is okozni. De ki lesz a felelős az okozott kárért?
A felelősség kérdése annál nehezebb, minél nagyobb autonómiát élvez a robot, hiszen minél inkább képes önállóságra, annál kevésbe tekinthető egyszerű eszköznek egy ember kezében. Ha minden rendben működik, akkor a jognak nem sok tennivalója van ezen a téren. Ha azonban a robot tanulási folyamata révén olyan
- 1/2 -
önálló döntést hoz, amelynek végrehajtásával akár szerződésen kívül, akár egy szerződés keretein belül - hiszen már ma is képesek arra, hogy ügynökként eljárva megbízóik nevében és javára kötelezettséget vállaljanak[12] - kárt okoz, a jogászok feladata lesz a kártérítésről dönteni. Csakhogy a klasszikus felelősségi szabályok nem alkalmazhatóak a tanulásra és önálló döntésre képes robotokra sem polgári jogi, sem pedig - jelen írás keretei között nem vizsgált - büntetőjogi szempontból.
A termékbiztonság, termékfelelősség és a termékszavatosság jól ismert szabályai[13] nem adnak megfelelő választ arra, ki felelős egy, a forgalomba hozatalkor biztonságosnak tekintett, magas fokú autonómiával rendelkező robot által okozott kárért, ha az környezetét elemezve olyan döntést hozott, amelyre nem lehetett számítani és ezzel sérelmet okozott. Vajon a robot kárt okozó döntése a termék hibájának minősül-e? És ha hibának tekintjük - az emberi mércével mérve - helytelen döntést (amely a sokkal több egyidejűleg rendelkezésre álló információval bíró és nem szubjektív alapon ítélő robot szempontjából helyes is lehetett), ennek bekövetkezése a tudomány és technika állása szerint vajon felismerhető volt-e már a robot forgalomba hozatalakor? Az utóbbi kérdésre a válasz minden valószínűség szerint annál inkább nemleges, minél fejlettebb a robot, hiszen az új generációs, tanulásra képes robot eredeti programozása nemcsak, hogy hibátlan lehet, de valószínűleg akkor működik majd az elvárásoknak megfelelően, ha képes tanulni és saját programját bővíteni. Ha azonban a gyártó vagy programozó felelőssége a jelenlegi szabályok szerint inkább csak kivételesen lesz megállapítható azt követően, hogy a robot forgalomba kerül, mert annak rendeltetésszerű működése magában hordoz egyfajta kiszámíthatatlanságot is, vagy a gyártó a fegyvergyártókhoz hasonlóan egyenesen immunitást fog élvezni[14], akkor egyértelmű, hogy új szabályokra van szükség, amely elvezethet akár oda is, hogy a robot - részben vagy egészben[15] - maga lesz felelős tetteiért vagy mulasztásaiért. Merész, de napjainkban már egyáltalán nem a tudományos-fantasztikus irodalom témakörébe tartozó felvetés, vegyük hát számba lépésről lépésre, mi is lenne ennek előfeltétele.
Az első kérdés, amely a jelenlegi szabályaink mentén gondolkodva felmerül, hogy ha a robot külső beavatkozás nélkül is képes ügyeinek, illetve tulajdonosa ügyeinek vitelére, mondhatjuk-e akkor, hogy belátási képességgel bír, tekinthetjük-e cselekvőképesnek? Ha igen, teljes vagy korlátozott mértékben? Eljuthatunk-e oda, hogy egy robot cselekvőképessége meghaladja egy - esetleg fogyatékossággal élő - emberét? Tekintsük az önálló döntéshozatalra képes robotot esetleg úgy, mint egy gyermeket, akinek tetteiért gondozója a felelős? Ha ezen az úton indulunk el, azt is mindjárt el kell döntenünk, ki a robot gondozója? A tulajdonosa, aki épp olyan kevés ismerettel bír arról, milyen algoritmusok alapján döntött a robot, mint amilyen kevesen értik a zsebükben lapuló okostelefon működésének titkait is? A programozója, aki tanulásra képesnek tervezte és éppoly természetes, hogy nem láthatta előre a számítógép által egy szituációra adott összes lehetséges választ és annak következményét, mint ahogyan egyikünk sem látja előre a jövőt? Esetleg a gyártója, aki forgalomba hozatalakor még biztonságosnak vélte? (Utóbbi esetek visszakanyarodnak a termékfelelősség irányába.) Vagy lesz egy központ, ahonnan a gyártó felügyeli a saját robotjait és vészhelyzet esetén be tud avatkozni azok programjába, vállalva ezzel a felelősséget is? (Feltéve, ha ebben a központban még emberi kontroll is működik.) Természetesen más gondolatmenetet is követhetünk, vizsgálódhatunk az állattartói vagy a fokozott veszéllyel járó tevékenységért való felelősség mentén is. Mindkét esetben a robot tulajdonosa vagy üzemben tartója viselné a felelősséget, ami - látva a rohanó technikai fejlődést - egyáltalán nem ad megnyugtató választ, sőt olyan nem kívánt következményekkel járna, mint a technikai fejlődés visszafogása (technology chilling effect).
A Jogkódex-előfizetéséhez tartozó felhasználónévvel és jelszóval is be tud jelentkezni.
Az ORAC Kiadó előfizetéses folyóiratainak „valós idejű” (a nyomtatott lapszámok megjelenésével egyidejű) eléréséhez kérjen ajánlatot a Szakcikk Adatbázis Plusz-ra!
Visszaugrás