1. A jogi szabályozás gyakran csak kullog az újítások mögött, ritkán proaktív azok tekintetében. Nem volt ez másként az iparosodás idején sem, amikor a veszélyes üzemi felelősség csupán követte azokat a társadalmi-gazdasági jelenségeket, amelyek kikényszeríttették az általános felelősségi szabályok szigorítását.[2] Hasonló a helyzet az atomkárért való felelősséggel, ami a találmány ipari hasznosítása nélkül nyilvánvalóan nem létezne. De a termékfelelősség is reakció, a gazdasági realitás változására. A sort folytatni lehetne más területekkel, például a munkajog polgári jogból való kiválása eleve egy ilyen változás következménye.
Ma is a határán vagyunk egy olyan technológiai ugrásnak, ami vélhetően hasonló változásokat fog indukálni a jogrendszerben. Bár nehéz a jövőbe látni,[3] különösen technológiai kérdésekben,[4] az már a mai trendek alapján is látszik, hogy a közeljövőben milyen újdonságok körvonalazódnak és hogy azoknak számtalan jogi kivetülése is lesz. A számtalan ilyen újdonság (géntechnológia, biomechanika stb.) közül a robotika az, amivel jelen írásunkban foglalkozunk. S bár nem tudhatjuk, hogy a robotika milyen kihívásokkal fog szembenézni akár csak tíz év múlva, azt tudjuk, hogy ahhoz képest, amit évszázadokkal, akár évezredekkel korábban gondoltunk az ember mechanikus segítőjéről, azok lehetséges működéséről - az bizonyosan nem a korábban gondoltak szerint valósul meg.
- 51/52 -
Kultúrkörünket leginkább a félelmek határozzák meg a területtel kapcsolatosan, amelynek egyik eklatáns példája Mary Shelley Frankensteinének szörnye, vagy a prágai Gólem. Nem félelmetes, de vélhetően csalás volt a magyar vonatkozású sakkgép: Kempelen Farkas gépe valójában egy embert rejtett - hogy valóban így volt-e, teljes bizonyossággal nem fogjuk megtudni. Arra persze ez utóbbi is jó példa, hogy az ember keresi annak módját, hogy a maga képére teremtsen segítőt. Erre viszont kevés a mechanika fejlődése, mert az csak az egyes részcselekmények automatizálására ad módot - bár arra kiváló. A minőségi újdonságot a mesterséges intelligencia technológiai forradalma hozza/hozta el: az egyes folyamatok algoritmizálása mind teljesebb mélységben, a big data-n alapuló tapasztalati alapú tanulásra képes mesterséges intelligencia kifejlesztése eljuttatott minket annak a határára, hogy a mechanikus szerkezeteket, amelyek korábban is alkalmasak voltak meghatározott tevékenység (jellemzően egy folyamat részcselekményének) elvégzésére, azokat immár valamilyen tudatszerű állapottal ruházzuk fel. Ez az irányító kapacitás az, ami felülemelkedik azon a korai korláton, amit a programozás korlátozottsága jelentett és bizonyos területeken nagyfokú autonómiával lesz képes a társadalmi-gazdasági helyzeteket kezelni. Hogy ez mennyire nem a jövő, elég arra utalni, hogy a tőzsdei kereskedések jelentős részét ma már algoritmusok végzik.
Hadd utaljak arra, hogy az irodalom[5] nagyon sokat foglalkozott a kérdéskörrel, akkor még futurisztikus utópiaként. Nem lehet kikerülni egy híres tudományos-fantasztikus szerzőt, Isaac Asimovot; kevésbé azért, mert e sorok szerzőjének olvasmányélményei közé is tartozik, inkább mert az Európai Parlamentnek a Bizottságnak szóló ajánlásokkal a robotikára vonatkozó polgári jogi szabályokról szóló 2015/2103(INL) állásfoglalása[6] is hivatkozik a munkásságára. A szerző, túl azon, hogy törvényeket[7] adott a robotoknak, olyan törvényeket, amelyek az embert állították a középpontba és a védelmüket szolgálták, azt a kérdéskört is vizsgálta, hogy hogyan fog reagálni a társada-
- 52/53 -
lom a robotizációra.[8] A jogász számára szembeötlő, hogy még az irodalom is törvények közé kívánja szorítani a jelenséget: a jelenkor feladata, hogy ténylegesen megalkossuk, ha nem is a robotika törvényeit, de azt a jogszabályi környezetet, amiben ezek a mesterséges lények a gazdasági és társadalmi rendszerünkbe fognak betagozódni.
2. A következőkben azt vizsgáljuk, hogy mi volna a leendő szabályozás tárgya, már ha valódi szabályozási igény és szükség mutatható ki az adott területen. A robotról számtalan kép él az emberek, illetve a szűkebb szakmai közönség fejében, de maguk a robotikával foglalkozó szakemberek is vitát folytatnak a működő (értsd: használható) definícióról. Mégis, egy működőképes meghatározás szerint a robot olyan mechanikus, pontosabban biológiai értelemben véve nem élő szerkezet, amelyek szenzorok révén autonóm, adatot gyűjt és közöl a környezetéről, s - opcionális jellemzőként - öntanuló képességgel rendelkezik.
Lényegében hasonló szabályozási javaslatot tesz a Bizottság felé az Európai Parlament is, amikor "felszólítja a Bizottságot, hogy tegyen javaslatot a kiberfizikai rendszerek, az autonóm rendszerek, az intelligens autonóm robotok és alkategóriáik közös uniós fogalommeghatározásaira, az intelligens robotok alábbi jellemzőinek figyelembevételével:
a) autonómia elérése érzékelők révén és/vagy a környezettel folytatott adatcsere (összekapcsolhatóság), illetve ezen adatok cseréje és elemzése révén;
b) önálló tanulás, tapasztalás és interakció útján (opcionális kritérium);
c) legalább kisméretű fizikai megjelenés;
d) magatartása és cselekedetei környezethez történő igazítása;
e) a biológiai értelemben vett élet hiánya.[9]
A fizikai megjelenés fontos elem, mert ez határolja el a robotot a botoktól, azoktól a mesterséges intelligencián alapuló programoktól, amelyek algoritmusként számítógépes infrastruktúrába épülve látnak el komplex feladatokat, ugyanakkor saját fizikai külsővel nem rendelkeznek, bár működésük számtalan esetben nyilvánulhat meg általuk irányított eszközök mozgatásában, tevékenységében. A robotok adaptálódnak, alkalmazkodnak a környezetükhöz, képesek az interakcióra, levonni a környezet változásából egyes következte-
- 53/54 -
téseket. Még egyszer hangsúlyozandó ugyanakkor, hogy biológiai értelemben véve élő lények kizártak a fogalomból, bárha a kiborgok (ember-gép fúziója, elég csak a ma már reális, gondolati úton irányított művégtagokra gondolni) elmossák ezeket a határokat.
Ezek a robotok számtalan formában már ma is közöttünk vannak. Használatuk a hétköznapi üzemi logisztikai céloktól a pincéreken keresztül olyan extremitásokig terjednek, mint a szexuális célokra használt eszközök. Egyértelmű tehát, hogy a robotizációnak - az 1969-ben elkezdett harmadik ipari forradalom újabb, negyedikként folytatódó forradalmi hullámának - gazdasági jelentősége hihetetlenül nagy. A robotikai iparág kétszámjegyű növekedést produkál, ami évről-évre újabb és újabb dollármilliárdos piacokat fog megnyitni. Az egyik leginkább érintett szegmens a munkaerőpiac lesz, amelyet a félelmek szerint összeomlás fenyeget, de valójában enyhébb következmények várhatók. Az a munkaerőhiány, amely bizonyos területeken ma jelentkezik a munkafolyamatok teljes körűbb automatizálásával valószínűleg el fog tűnni és az embernek a robot-tól (mint megerőltető munkától - a fogalom eredeti jelentése!)[10] való szabadságát fogja elhozni. Meg fogja változtatni, elvesz és kreál új munkahelyeket, a korábbi mechanikus munkafolyamatok helyett a robottal együttműködő, azt programozó, irányító munkás lesz inkább keresett a modern üzemekben és munkahelyeken. Persze, ha az alacsony képzettséget igénylő munkákat kiváltja a mechanikus munkaerő, akkor azt követnie kell a képzési rendszernek, oktatásnak, s várhatóan az alacsonyan képzett munkaerőnél átmenetileg munkanélküliséget is jelenthet ez. A folyamatot a szociális hálónak is követnie kell, aminek távoli, jelzésértékű nyoma például a Finnországban kísérletként bevezetett alapjövedelem, ami munka nélkül is járhat a polgároknak. Ha széles tömegben lesz képtelen az alulképzett polgároknak munkát biztosítani a gazdasági rendszer, mert a hatékonyság jegyében korábbi munkájukat robotok végzik, s átképzésük sem sikeres, akkor a kieső jövedelmet a társadalmi feszültség elkerülése érdekében pótolni kell. Ezt a szűkülő személyi jövedelemadó éppen a csökkenő adóbázis miatt nem biztos, hogy meg tudja majd teremteni, így nem kizárt, hogy a robotok által végzett hasznos munka válik majd az adóztatás célpontjává. Sok területen kell tehát nemzeti és globális szinten is átgondolni a ma adottnak vélt társadalmi rendszereket.
- 54/55 -
3. Persze, az egész fentebbi gondolat-kísérletnek feltétele, hogy megvalósuljon az a technológiai ugrás, ami egyszerű mechanikus gépekből tudattal - mesterséges intelligenciával - rendelkező géppé transzformálja ezeket az apró, változatos formában megjelenő kis eszközöket. Bizonyos szempontból a mesterséges intelligencia már ma is jobb nálunk bizonyos területeken. Jó példa erre a sakk és a go, mindkettő stratégiai játék, amelyben az AI (artificial intelligence) már lekörözni látszik az emberi elmét. Fontos ugyanakkor kiemelni, hogy ezek dedikált programok dedikált céllal, vagyis még csak egy szűken meghatározott szabályrendszeren belül, bár ott számítási kapacitásuk emberit meghaladó volta miatt képesek jobban teljesíteni az embernél. A társadalom totalitásában azonban az ember még mindig teljesebb készségekkel rendelkezik, a roboti intelligencia még nem haladta meg a humán intelligenciát - s közismert módon mi magunk sem használjuk ki kapacitásainkat. Mivel azonban ezek a gépek valamilyen speciális célra vannak optimalizálva, s ott akár az emberinél jobb teljesítményt is el tudnak érni, talán éppen ez gátolja "őket" abban, hogy univerzálisak legyenek. Szenzorális képességeik így az embernél akár jobbak is (pl. nem csak a látható fénytartományban, 360 fokban látnak), ehhez nem kapcsolódik magától, programozás nélkül döntési képesség. A programozott helyzetekben determinált döntést hoznak, de emberi jellegű kezdeményezőkészséggel - még - nem rendelkeznek, talán sose fognak. Tapasztalati úton tanulnak, akár "műalkotásokat" is létrehoznak, de az emberi kreativitásra nem képesek.
Bár a mesterséges intelligencia által irányított egységek még nem tudnak olyan döntéseket hozni, nem tudnak feltétlenül még úgy tanulni, ahogy az ember, de ennek a határán vagyunk. Miért fontos ez? Mert most van az a pillanat, amikor a jogi szabályozás időben tud reagálni, annak érdekében, hogy a jelenség irányítható mederben folyjon le. Az irodalmi előkép - Asimov nulladik és további három törvénye, ami az embert sérthetetlenné teszi - csak marginális a tényleges fejlődés tükrében, bár az maradandó célkitűzés, hogy a tényleges fejlődésnek sem szabad mást szolgálnia, mint az emberi jólétet. Azonban a ma megalkotandó szabályozás inkább arra kell, hogy irányuljon, hogy miként lesz a technológiát a piacra bevezetve, különösen is fogyasztóvédelmi szempontból; hogyan lesz az szabványosítva, engedélyeztetve, milyen szerződési, szavatossági kellékeknek kell megfelelnie. Ez nyilvánvalóan nagyban függ az adott területtől, ahol az egység működik, mert egy logisztikai raktárban működő automata szállító rendszernek egészen mást kell tudnia, mint az idősek otthonában működő felügyeletet és például gyógyszerelést ellátó robotnak, csakúgy, mint az önvezető teherautóknak és személyautóknak, mint dedikált robotoknak.
- 55/56 -
4. A szabályozás egyik célterülete tehát az ipar, amelyre standardokat kell majd megállapítani. Ezek nyilvánvalóan termékbiztonságot is jelentenek persze a másik oldalról. A szabályozás másik célja pedig a fogyasztók védelme, s a két szabályozási cél nyilvánvalóan összefügg. Meggyőződésem, hogy a kurrens európai és világszintű trendekkel összhangban a fogyasztói érdekek védelme prioritást kell, hogy élvezzen - már csak a korábban említett "törvények" miatt is. Ennek különös jelentőséget az kölcsönöz, hogy ezek a robotok (egységek) cselekményeket fognak végezni. A szóhasználat itt jelentős: nem magatartást tanúsítanak, hanem roboti cselekményeket végeznek a fogyasztókkal - velünk, emberekkel - szemben; mégpedig kontraktuális keretben.
E cselekmények számtalan célra irányulhatnak, kiváltva az ott megjelenő emberi magatartást. Mégis, értelmezésemben a mesterséges entitás ilyen aktusai nem érhetik el az emberi magatartás szintjét, mert hiányzik az azt átfogó tudatállapot. Bár a mai programozás - a tapasztalati öntanulás, a neurális hálózatok kapcsolódása révén - messze meghaladta a lineáris programozás kereteit, az AI autonómiája és az ember - felelősséggel együtt járó - szabad akarata közé nem tehető egyenlőségjel. A roboti autonóm egység által kezdeményezett tevést végső soron mindig kényszer - mégpedig a program keretei által behatárolt kényszer - alatt tett cselekménynek kell tekinteni, véleményem szerint. Persze az emberi magatartás is behatárolt, normák által kötött, de amíg az embernek szabadságában áll azokkal ellentétben cselekedni, felvállalva a jogi következményeket, addig a mesterséges intelligencia számára ezt a szabadságot álláspontom szerint nem szabad megadni.[11] Csak bízni tudok abban, hogy technikailag sem lesz adott ez a lehetőség, de hogy jogilag szigorúan gátat kell annak szabni, az egyértelmű álláspontom. Az antropomorfizálás eleve nem célja a robotikai szakembereknek sem, hanem éppen meghatározott célokra alkalmas eszközöket készítenek, a jognak még inkább el kell kerülnie ezt a csúszós lejtőt.[12]
Ezek a cselekmények, amelyeket a robotok értünk, adott esetben velünk szemben végezni fognak valójában belehelyezhetők, sőt belehelyezendők a mai jogszabályi keretek közé. Ezek - a magánjogon belül gondolkodva - vagy
- 56/57 -
kontraktuális cselekmények egy szerződés teljesítése érdekében, vagy pedig non-kontraktuális (deliktuális?) cselekmények.
5. Mind a kontraktuális, mind a deliktuális keret szempontjából jelentős kérdés a cselekvő személye. Jogunk egyik alapvető tétele, hogy minden embert jogképesnek tekint, ami az egyik oldalról jogosít, de a másik oldalról kötelezettségek alanyává válását is lehetővé teszi. Vajon elképzelhető-e ilyen státusz a mesterséges intelligencia által hajtott robotok esetében is? A kérdésnek különös időszerűséget ad, hogy az EP állásfoglalás 59. pont f) pontja "felszólítja a Bizottságot, hogy jövőbeni jogi aktusának hatásvizsgálata keretében tárja fel, elemezze és vizsgálja meg az összes lehetséges jogi megoldás vonzatait, például: (...) a robotok külön specifikus jogalanyiságának létrehozatala hosszú távon, oly módon, hogy legalább a legkifinomultabb autonóm robotokat sajátos jogokkal és kötelezettségekkel - többek között az általuk esetlegesen okozott kár jóvátételére vonatkozó kötelezettségekkel - rendelkező elektronikus személynek lehessen minősíteni, lehetőleg az elektronikus személyiséget azokban az esetekben alkalmazva, amikor a robotok önálló döntéseket hoznak, vagy más módon, önállóan kerülnek kölcsönös kapcsolatba harmadik felekkel".
Már korábban utaltam arra, hogy az ilyen kiterjesztő értelmezés álláspontom szerint nem támogatható,[13] s személyként jogalanyiságot kizárólag az embernek[14] kell fenntartani - nyugati, görög-keresztyén, humanizmussal átitatott kultúránk nem adhat más választ a robot státuszára, mintsem hogy az az emberével egyenlőtlen. Ezt az álláspontot Klein Tamás támogatja[15] és bővebben ki is fejti. Egyetértek nézetével, amely szerint a bevett jogalanyi
- 57/58 -
formák - természetes személy és jogi személy, mint személy- vagy vagyonösszesség - egyike sem kölcsönözhető a roboti egységnek, ami egyszerűen egy ingó dolog.[16] Ahogy Moór Gyulát a jogi személy analógiája kapcsán idézve[17] rámutat, a roboti cselekvést végső soron embernek kell betudni.[18]
Vajon változtat ezen a robotok öntanuló képessége? Az, hogy elszakadni látszanak a lineáris programozástól és tapasztalati úton tanulnak felismerést? Ződi Zsolt cáfolja azt a közkeletű nézetet, hogy a roboti cselekvési autonómia - amit esetleg az öntanulás képességén keresztül szerez - indeterminálttá teszi a cselekményeiket (s nem viselkedésüket!).[19] Annak ellenére, hogy a felületes szemlélő nem lát közvetlen, esetleg rövid oksági kapcsolatot a kiváltó ok és a robot cselekménye között, ettől az még nem válik szabad akaraton alapulóvá. Éppen ellenkezőleg: a rendszer komplexitása nem fedheti el azt a tényt, hogy a roboti cselekvés végső soron attól vált lehetővé, hogy azt az egység üzembe helyezésével, eredeti programozásával, az öntanulási képesség megadásával korábban lehetővé tették. Ződi Zsolt és Klein Tamás álláspontjához azzal csatlakozom, hogy hangsúlyozom ennek a conditio sine qua non-nak a fontosságát: a roboti intelligencia alkotója nem vetheti le a felelősségét egy önálló személyiség kreálásával, mert alkotó tevékenysége nélkül nem jött volna létre az a termék, amely beépülve gazdasági társadalmi rendünkbe, cselekményeket végez. Ezek a cselekmények nem történnének meg, ha azok gazdasági előnye érdekében nem állították volna elő a robotot és nem ruházták volna fel a megfelelő programmal.
Az e-personality, vagy saját szójátékommal: r-sonality egy érdekes kivetülésének tekinthető Sophia, a humanoid mesterséges intelligencia, emberszerű fémtestben, amely 2017-ben az első robot lett, ami állampolgárságot kapott. Szaúd-Arábia e gesztusa legalábbis különösnek tűnik. Egyetértve Klein Tamás kritikájával,[20] hadd utaljak erre, mint közjogi nonszenszre, amelyet a magyar Alaptörvény bizonnyal kizárna. Ellenkező - vagyis a roboti állampolgárságot megengedő - álláspont olyan extremitásokig vezethetne, mint a szavazati jog, a közéletben való részvétel, akár választhatóság megadása, hiszen az állampolgárság alapvetően nem ismer belső rétegződést. Ahogy az r-sonality megadását sem tartjuk elfogadhatónak, még kevésbé támogatható egy olyan elképzelés,
- 58/59 -
ami szerint korlátlanul gyártható egységek vegyenek részt a demokratikus folyamatokban: abszurd módon a robotok irányítóinak, gazdáinak termelne állampolgárokat, szavazatokat. Egy többségi, plurális demokrácia már csak ezért sem engedheti meg ezt a lépést. Arról persze már kevesebb információval rendelkezünk, hogy Sophia - ha nőnemű, akkor - hordja-e a hidzsábot, továbbá a nőket terhelő vagyoni és személyi korlátozások rá is vonatkoznak-e...
Végső soron rá kell mutatni, hogy a roboti független jogalanyiság nem más, mint a köldökzsinór gyártótól-üzemeltetőtől való elvágása, ami a felelősségük elenyészését eredményezné. Másként megfogalmazva: ha ennek a meglehetősen lazán definiált termékcsoportnak r-sonality-t kreálunk, azzal a cselekményeikért való felelősséget elvágjuk az őket előállító-üzemeltető ipartól: nem meglepő, hogy az említett szereplők támogatják ezeket az elképzeléseket. Álláspontom éppen ellenkező: ezt a felelősségi viszonyt kristálytisztán láttatni kell, akár olyan lentebb részletezendő kárveszélytelepítési módszerrel, ami egyszerűbbé teszi a felelősség visszavezetését a gyártóra-üzemeltetőre. Ez már csak fogyasztók védelme érdekében is indokolt. Végső soron tehát álláspontom szerint a robot jogalanyisága nem indokolható.
6. A sokakat foglalkoztató, talán leginkább égető kérdés a felelősség kérdése, a robotok által végzett cselekményekért való felelősség. A non-human ágens elektronikus személyiségének bevezetését, s ezzel együtt a felelősségi kérdés rendezését az EU Parlamentje célul tűzte ki, fentebb az első ellen érveltünk. Álláspontunk azonban nem jelentheti azt, hogy a roboti cselekményekért való felelősséget elvetnénk: éppen ellenkezőleg, azt kardinálisnak tartjuk. Éppen csak nem tartjuk azt elfogadhatónak, hogy ember mintájára viseljenek felelősséget. Ha viszont nem így, akkor ki és milyen módon áll helyt ezekért?
Az EP állásfoglalás komoly teret szentel a kérdéskörnek,[21] mindenekelőtt európai szintű szabályozási kérdésként azonosítva azt.[22] Szempontunkból fontos következtetés, hogy jelenleg az európai jogalkotó sem látja időszerűnek az embertől eloldani a felelősséget, megjegyezve, hogy legalább a jelenlegi szakaszban az embereknek és nem a robotoknak kell a felelősséget viselniük (56. pont). A fentebbiek alapján határozott álláspontunk, hogy ez a későbbiekben sem válhat el az embertől - vagy éppen a gyártó jogi személytől.
- 59/60 -
Fontos hozadéka az EP állásfoglalásnak - s véleményünk szerint a leghamarabb bevezethető rendszer - a robotokhoz kapcsolt kötelező felelősségbiztosítás rendje. A "krfb", mint kötelező robot felelősségbiztosítás a gyártót vagy az üzemben tartót terhelné, viszont - nyilvánvalóan bizonyos a biztosítók által vállalt határokon belül - helytállna a robot által okozott kárért, legyen az oksági összefüggésben a robot hardverének elromlásával, vagy - ami az újszerű kérdés - a robotot irányíró szoftver hibás működésével. A magunk részéről prudens, bár talán távlatában korlátozó megjegyzésnek tartjuk, hogy "a közúti közlekedés biztosítási rendszerétől eltérően, ahol a biztosítás az emberi cselekedetekre és hibákra is kiterjed, a robotikára vonatkozó biztosítási rendszernek a láncolat összes lehetséges felelősségi körét figyelembe kell vennie". (57. pont, kiemelés U. S.) A potenciális korlátozás a kiemelt "is"-ben rejlik. A gépjármű analógiájával élve, azt egységnek kell tekinteni biztosítási szempontból, ahol is a gép elromlása ugyanúgy kiváltja a biztosítási eseményt, mint az emberi pl. vezetési hiba. Per analogiam, a gépjármű a hardver, a sofőr a szoftver... A roboti egységeknél a hardver és a szoftver nem válik el a külső szemlélőnek; hibát okozhat a hardver (vagyis a robot fizikai megjelenése, teste) önmagában, annak saját hibája (pl. törése) miatt, s okozhat a szoftver is, leginkább a test hibás, nem rendeltetésszerű irányítása képében.[23] Meglátásunk szerint, a kgfb. analógiát nem lenne helyes korlátozni, az nem bővebb felelősségi kört fed le, mint a krfb. Az irányító tudat hibáját mindkét biztosítási formának át kellene fognia, ez szükséges a teljes oksági spektrum lefedéséhez. Az EP állásfoglalás mondatának másik fele - helyesen - ebbe az irányba mutat.
7. Ezeknek a felelősségi köröknek a felmérése komoly jogi kihívás. A robot gyártójának a termékéért viselt felelőssége egy első lépés, amit a beszállítók gyártotta hibás hardver befolyásolhat, de a közreműködőért viselt felelősség át nem hárítható.[24] A termékfelelősség adekvát válasznak úgy tűnik, maga az
- 60/61 -
EP állásfoglalás is gond nélkül alkalmazhatónak tartja azt.[25] A Ptk. 6:550-551. §-ai[26] szerint a termékkárért a hibás termék gyártója felelősséggel tartozik; termék minden ingó dolog, akkor is, ha utóbb más dolog alkotórészévé vált. A robot dologegység, számos ingó alkotórészből összeálló gép, amely azonban nem önmagában, hanem az azt irányító mesterséges intelligencia révén válik funkcionálissá. A kérdés, hogy az irányító programot a roboti egység részének tekinthetjük-e. A Ptk. idézett szabályaiból nem következik, hogy a szoftver hibája miatt a termékfelelősségi alakzat alkalmazható lenne. A termékfelelősség kétség nélkül alkalmazható olyan esetre, ha pl. a robotkar elvárt teherbírása 100 egység, de gyártási vagy szerelési hiba miatt 60 egységnél töréses balesetet szenved. Az itt fellépő dologi és személyi károk - hipotetikus példánk szerint - az ingó dologra vezethetők vissza. Az irányító szoftver hibája viszont okozhat a fizikai külső helytelen irányításával[27] szerződésben vagy azon kívül kárt, de az okság nem a fizikai tulajdonságokra vezethető vissza, hanem az irányításra. A termékfelelősség ingó dologra való korlátozása miatt csak akkor tartjuk alkalmazhatónak azt, ha a hardvert és a szoftvert teljes egységnek tekintjük jogilag - ami viszont a valóságban kétséges.
Kétséges már a szinguláris roboti egységeknél is, amelyek magukban, önállóan, saját programjuk alapján tevékenykednek. Az algoritmusukat ugyanis várhatóan a fizikai egységet gyártó cégtől különálló cégek fogják tervezni, s nem a DELL viseli a Windows hibájából felmerülő károkat sem. De még inkább kétséges ez a linked unit-ok esetében, ahol az egységek egy központi irányító program által vezéreltek: itt az egyes robotok mintegy távirányítással végzik a feladatukat, de a távirányító nem ember - akire a felelősség kétségtelenül lenne terhelhető -, hanem a mesterséges intelligencia. Ennek hibája pedig semmiképpen nem ingó dolog hibája jelen megítélésem szerint.
8. A roboti egység funkcióját testi valójának segítségével, de programozása révén tölti be. Fentebb hipotetikusan utaltunk arra, hogy a robot gyártója-kereskedője felelősséggel bírhat a robot használója felé a hardver hibájából eredő termékkárokért. A felelősség kontraktuális keretben jelentkezik, ha a termék alkalmatlan a szerződésben meghatározott rendeltetésének betöltésére, amikor is a gyártó-kereskedő hibás teljesítés keretében felel. S deliktuális
- 61/62 -
felelősség is fennállhat a robotot üzemben tartó személy terhére, amennyiben a hardver-hiba harmadik, szerződési viszonyban nem álló félnek okoz hibát.[28]
Legalább ilyen fontos kérdés azonban a programozásért való felelősség. A programozó alapvetően a szerződésében meghatározott keretek között felel az általa szolgáltatott termékért, annak szerződésszerű teljesítéséért. Ha a robot programozása nem teljesíti a szerződési követelményeket, szerződésszegés[29] miatt annak jogkövetkezményei - a szerződés teljesítésének követelése, visszatartás, elállás, felmondás, kártérítés - követelhetők. A kártérítés kapcsán különös nehézséget fog jelenteni, hogy a károsultnak a szerződéskötés időpontjában előrelátható kárát kell megtéríteni, amely előreláthatóságot a kárral egyetemben a jogosultnak kell bizonyítania.
A nagyon alapos, minden várható tényre és körülményre kiterjedő szerződések eleve teret nyernek napjainkban, amit a szoftverek által irányított robotok csak fokozni fognak meglátásom szerint. A robot szolgáltatásait igénybe vevő is biztosítani fogja magát a minden várható körülményre kiterjedő szerződéssel, de ennél is fontosabb a robot gyártója számára, hogy az általa gyártott egység programozóját - szerződése keretében - felelőssé tehesse, pontosabban a gyártó a felelősségét átháríthassa a programozóra. Mivel azonban a Ptk. az előreláthatóság követelményével gátat szab az érvényesíthető kár mértékének, a szoftvert megrendelő robotgyártónak fel kell mérnie a szoftverhibából eredő károk várható körét és mértékét. Ez a feladat a lehetetlenség határát súrolja, az adattárolás hibáitól a szoftver helytelen megírásából fakadó helytelen működésből fakadó vagyoni és egészségi károkig terjedhet, ide értve a robot szolgáltatásait igénybe vevő elmaradt hasznát (pl. a robotvezérelt traktor programhibája miatt az aratásból származó haszon elmarad). Ha az ezzel járó munkát meg kívánja spórolni a gyártó, akkor ezt a feladatot célszerű kiszerveznie a biztosítónak: a kockázatok felmérését így a jövőbelátási képességet ugyanúgy hiányoló, de abban mégis gyakorlott szakemberek végzik. Ilyen biztosítás kötése célszerű, de semmiképpen nem lehet kötelező álláspontom szerint - tudniillik a robot programozási hibájából eredő károkért való felelősség gyártó javára való biztosítása - hiszen ez egyszerű kontraktuális felelősség.
A robotok tanulási autonómiája itt is előkerül, mint a programozás tág értelemben vett része. Ha a mindenre kiterjedő, lineáris programozásnál el is tudjuk fogadni a szerződésszegés, károkozás oksági láncában kiváltó okként a
- 62/63 -
programozás hibáját, netán hiányosságát, önmagában az a körülmény, hogy a program vállaltan nem teljes, hanem a használat során nyeri el a működéséhez szükséges készségeket, befolyásolja az oksági összefüggést. Ha a programozó azt vállalja, hogy képessé teszi a tapasztalati úton való tanulásra a programot, amely így az előre megadott paramétereken belül fog működni, az általa vállalt alap-paramétereken belüli tévedésért álláspontom szerint felelőssé tehető. Ez a szcenárió még nem haladja meg a lineáris kódért való felelősséget. Ha azonban a program a működés során szerzett információ alapján a teljesítményét fokozza, pl. az eredetileg vállalt 98%-os arcfelismerést 99%-ra javítja, ez már nem önmagában a bevitt parancsoktól, hanem a használat során betáplált adatoktól is függ. E körben felmerülhet, hogy az is osztozzon a program esetleges tévedésének következményeiben, aki az adatokat szolgáltatta, hiszen immár az ő tevékenysége is része a programnak (bár javította annak hatékonyságát). Az analógiát a tanár szolgáltathatná, aki megtanítja tanítványát valamire, de a tanítványa ezek ismeretében is téved, s ezzel szerződést szeg, kárt okoz.
Ezt a következtetést azonban én elvetem, leginkább az oksági viszonyok egyértelműsítése miatt. Conditio sine qua non... ha a gyártó lehetővé tette az öntanulást, akkor ő alakította ki azt a gépi tudati keretet, ami információval feltöltve a működési hatékonyság fokozottabbá válását eredményez(het)i. De az öntanulás nem öntudatra ébredés! A roboti intelligenciának álláspontom szerint az öntanulás képessége, tényleges működése sem adja meg azt a magasabb minőséget, amit jogilag releváns tudatállapotnak nevezünk. Vagyis pusztán az öntanulási képesség még nem változtatja meg azt a körülményt, hogy a működés lényeges paramétereit - a szabályokat - a programozónak kell megadnia.[30] Mindaddig, amíg a robot nem képes maga alakítani a külső környezetre való aktív reagálásának szabályait, addig végső soron az eredeti szabályrendszert megalkotó személy (szervezet)[31] a felelős a program megfelelő működéséért.
- 63/64 -
Persze a releváns oksági láncnak is lehet szerepe, pl. egy olyan hipotetikus esetben, amikor a programot szánt szándékkal látnak el hamis adatokkal, s a kár ezzel hozható oksági összefüggésbe. Ez a valószínűtlennek tűnő szcenárió egy rosszindulatú számítógépes vírus működésére gondolva sokkal reálisabb.
9. Ha már említésre került, röviden ki kell térni a rosszindulatú külső beavatkozással szembeni védelemre is. A robot definitív eleme, hogy a környezetével állandó interakcióban áll, arról adatot gyűjt és ahhoz adaptálódik. Ez az adatgyűjtés is a program része, csakúgy, mint azok feldolgozása és abból döntés formálása, ami további interakciókat eredményez. Ha ebben a folyamatban nem immanens, hanem külső beavatkozás miatt keletkezik hiba, eredményét tekintve ugyanúgy szerződésszegő vagy károkozó cselekmények következhetnek, de az oksági lánc máshonnan indul. A szabályosan működő programot zavarja meg a vírus, vagy más malware, s téríti el a cselekvő robotot a szerződésszerű, helyes irányból. Az ok ilyenkor alapvetően a vírus "gazdájára" vezethető vissza, a robotot üzemeltető teljes felelősséggel nem bírhat. Azonban ez nem jelenti azt, hogy mentesülne.
Ha - károkozást feltételezve - a robot által okozott kárért az általános felelősségi szabályokat vizsgáljuk, a malware üzemeltetője károkozása tűnik elsődlegesnek, a robot üzemeltetője viszont annyiban közrehat, amennyiben nem biztosítja a megfelelő védelmet az ilyen káros behatás ellen. A közrehatás arányában várhatóan közös károkozás[32] lenne megállapítható, ahol - a magyar jogszabályi környezetben maradva - a károsult a károkozókat egyetemlegesen vonhatja felelősségre, s a vélhetően elérhető robot-üzemeltető lesz az, aki az arányos kártérítés túlfizetett részét regressz-igénnyel érvényesíteni próbálhatja a malware gazdáján - a siker csekély reményében.
A roboti cselekményért való felelősség a veszélyes üzemi felelősség alakzata alá is vonható. A veszélyes üzemi felelősségi rezsim - nyilván annak kellő indokoltsága esetén - abban is közrehathat, hogy a társadalom nagyobb bizalommal fordulhat e termékek felé, hiszen biztos lehet abban, hogy annak gyártója, üzembentartója szigorúbb, fokozott felelősséget visel a termékért. A gépi erővel működtetett eszközök sokszor ide tartozhatnak, bár a háztartási eszközök a bírói gyakorlatban éppen kivételt képeznek. Ha a jogalkotó egy tollvonással[33] nem
- 64/65 -
vonja egy törvényi definíción alapulva valamennyi robotot, vagy azok bizonyos kategóriáit[34] e felelősségi alakzat alá, akkor a bírói gyakorlat fogja értelmezni a helyzetet esetről esetre. Itt szempontot jelenthet a robot tevékenysége által kifejtett kockázat - lényegében a kártételi képesség - mértéke. Amennyiben az adott robot veszélyes üzemként kezelendő, úgy annak üzemben tartója csak a fokozott veszéllyel járó tevékenység körén kívül eső elháríthatatlan ok bizonyításával mentesülhet a felelősség alól. Figyelemmel arra, hogy a kibernetikai biztonság megteremtése a tevékenység részét képezi - merthogy a robot per definitionem adatalapú interakcióban van a környezetével - a magam részéről a kibernetikai biztonság sérelmét nem látom külső oknak. Ebből az is következik, hogy a vírustámadás miatt meghibásodott robot cselekményeiért a veszélyes üzemi felelősség rezsimjében nehezen képzelhető el a kimentés.
10. A roboti cselekményekért való felelősséget befolyásolhatja a robotok tulajdoni állása. Egyes újabb trendek alapján pl. a személygépkocsik személyi tulajdona háttérbe szorul a megosztott használatú autók javára. Így egy nagyobb flottát üzemeltető cég tulajdonában is maradhatnak ezek a robot-egységek, ami bérbe adja azt a meghatározott célra. A másik - tradicionális - lehetőség, ha a tulajdonos és használó jellemzően egy személy. Az első - megosztott használati - esetben a fogyasztó a robot tulajdonosával kötelmi viszonyban áll: olyan szolgáltatást vesz tőle igénybe, amit az a robotok által végzett cselekmény útján valósít meg. Ahogy abban már fentebb határozottan állást foglaltam - s ez ebben a környezetben látszik igazán -, a robotnak r-sonalityt kreálni nem lenne más, mint az ilyen tulajdonost mentesíteni a robot szerződésszerű magatartása jogkövetkezményei alól. Technikai az érv, de jogalanyiság híján ezt megtenni sem lehet, egyértelműnek tűnik tehát számomra, hogy a tulajdonos ilyenkor valamennyi robot cselekményeiért maga felel.
A másik tulajdonlási modellben a fogyasztó maga válik a tulajdonosává. A tulajdonosnak a termék által okozott kárért való felelősségre a termékfelelősség[35] illetve a szavatosság keretein belül kell a választ megtalálni. A harmadik személlyel kötött szerződés a tulajdonost jogosítja, de a kötelezettségek is őt terhelik, amelyek elvégzéséhez veszi igénybe a roboti cselekményeket. A szerződés jogkövetkezményei a tulajdonosnál állnak be, s nem a jogi nullum
- 65/66 -
robotnál. A harmadik személynek okozott kárért pedig a tulajdonos úgy felel, mint a saját tulajdonával másnak okozott kárért - teljes kártérítéssel.[36]
Abban az esetben, ha a robotot a fentiek figyelembevételével veszélyes üzemnek tekintjük, az üzemben tartója lesz felelős. Nem tűnik aggályosnak az üzemben tartó megállapítása az egyéni tulajdonlás körében, bár a robotok nyilvántartásba vétele ezt technikailag elősegítené, s ahhoz illeszkedhetne a kötelező roboti felelősségbiztosítás is. A megosztott tulajdonlási modellben a tulajdonos és az üzemben tartó már rendszerszerűleg válna el. Az üzemben tartó személyének megállapításához a Ptk. az érdek-tesztet alkalmazza, amely szerint a fokozott veszéllyel járó tevékenység folytatójának az minősül, akinek érdekében a veszélyes üzem működik. Így bár a tulajdonos a gyártó/kereskedő, az üzemben tartó a fogyasztó lenne - az a szereplő, akinek a robot programozására igen csekély ráhatása van. Az egyértelműnek tűnik, hogy az üzemszerű működés körében adott parancs által okozott szerződésszegés vagy kár az üzembentartónak betudható. Amennyiben ugyanakkor a hibás roboti cselekvés magából a téves-helytelen programozásból fakad, úgy az üzemben tartó vajmi keveset tudott ez ellen tenni. Ugyan az érdekszempontú megközelítés szigora egyértelmű és az érdekelt feladatává teszi az üzemszerű működés feltételeinek biztosítását,[37] elgondolkodtató, hogy ebben a bonyolult helyzetben olyan személyre telepítene felelősséget a jogszabály és a joggyakorlat, aki ténylegesen nem tudja annak alapjait befolyásolni. Persze per analogiam mondhatjuk, hogy a gépjármű üzembentartója sem tudja feltétlenül megjavítani az autót, de felel annak közlekedésbiztonságáért, így javíttatásáért. Hiba esetén saját felelőssége megállapítását követően fordulhat a hiba forrását okozó pl. szerelőhöz. Kétségtelenül megoldaná ez is a kérdést, bár az egyedi tulajdonos üzemben tartó igényérvényesítését nem könnyítené meg. Amennyiben azonban a tényleges programozásért felelős vállalkozás - ha nem is egyedi, de legalább - közös üzemben tartónak minősülne, úgy a károsult egyetemleges követelésének megtérítését követően a program gazdája és az egyedi tulajdonos rendezné egymás közt a közrehatás alapján a regresszigényt [6:524. §]. A károsult igényérvényesítését viszont előmozdítaná, hogy több érintett felé fordulhatna egyetemleges igényével.
- 66/67 -
11. A robotok ipari célú felhasználása már tág teret nyert, most vagyunk annak határán, hogy a fogyasztók, az állampolgárok is egyre közvetlenebb módon és sűrűbben kerülnek interakcióba azokkal. A fejlődés megállíthatatlan és a jog feladata nem is ez, hanem inkább az lenne, hogy a termék társadalmilag is biztonságos bevezetését lehetővé tegye, a jog szabályozó eszközeivel. Szemben azonban egyes antropomorfizáló szélsőséges nézetekkel, véleményem szerint ennek nem az a helyes útja, hogy a robotokat önálló jogalanyisággal látja el a jogrendszer, mintha emberi mintára identitással rendelkeznének. Éppen ellenkezőleg: a dolog jelleget fenntartva kell azokat beilleszteni a magánjog rendelkezésre álló kereteibe. Ez vállaltan konzervatív nézet, de bízom abban, hogy fentebbi - vitaindítónak is szánt - gondolataimmal együtt hozzájárul, hogy a fejlődés előnyös hatásai egy jogi szempontból is biztonságos társadalmi környezetben valósuljanak meg. ■
JEGYZETEK
[1] A cikk a Magyar Jogász Egylet XIV. Magyar Jogászgyűlésén elhangzott előadáson és annak a Gazdaság és Jog c. folyóiratban megjelent első írásos változatán alapul.
[2] Pusztahelyi Réka: A veszélyes üzemi felelősség egyes kérdései az új Ptk. rendszerében. Publicationes Universitatis Miskolcinensis Sectio Juridica et Politica, 2015, Tomus XXXIII, 307.
[3] Figyelemre méltó, hogy már a közigazgatási jogi tudományos gondolkodás is rendszerezetten foglalkozik a jövőkutatás specifikus kérdéskörével. Rixer Ádám egy munkájában biztató módon arra utal, hogy az ilyen prognózisok erősen determináltak bizonyos szempontok által. E szempontok lehetnek: a kurrens tudományos áramlatok; a válságjelenségek és az arra adott újabb válaszok (melyek utóbb általános modellekké válhatnak); a jelenlegi modellek kritikái; a történet(tudomány)i megközelítés (amely például bizonyos jelenségek ciklikus ismétlődésének ismeretében állítja fel prognózisait); és végül a művészetek (képzőművészet, irodalom) megközelítései (melyek bizonyos változásokra hamarabb reagálnak, mint a tudományok). Ld. Rixer Ádám: A magyar közigazgatási jogtudomány értékelésének szempontjai. Budapest, Dialóg Campus, 2019, 173-175 - megjelenés alatt.
[4] Lásd: Ződi Zsolt: Platformok, robotok és a jog. Budapest, Gondolat Kiadó, 2018.
[5] Ld. Rixer (2019) i. m. 174-175. Rixer szintén említi az egyes jelenségekre adott szépirodalmi reakciókat!
[6] http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+REPORT+A8-2017-0005+0+DOC+XML+V0//EN (2018. 11. 20.) [a továbbiakban: EP állásfoglalás].
[7] Bár ezek a gyártók felé irányuló etikai elvárások az EP megállapítása szerint. Lásd ehhez az EP állásfoglalás U. pontját. Tóth András is arra hívja fel a figyelmet, hogy ezek valójában robotetikai elvárások, s nem konkrét jogi normaként értelmezendők: Klein Tamás - Tóth András: A robotika egyes szabályozási kérdései. In: Homicskó Árpád Olivér (szerk.): Egyes modern technológiák etikai, jogi és szabályozási kihívásai. Budapest, KRE ÁJK, 2018, 100.
[8] Ld. Isaac Asimov teljes Science Fiction Univerzumát a Szukits Kiadó gondozásában: Asimov, Isaac: Asimov teljes science fiction univerzuma 6-10. Budapest, Szukits, 2013.
[9] EP állásfoglalás 1. pont.
[10] Érdemes itt röviden utalni a robot szó etimológiájára: Karel Čapek cseh szerző sci-fi drámájából származik a "Rossumovi univerzálni roboti" - Rossum univerzális munkása kifejezés. Legutóbbi magyar kiadás: Čapek, Karel: R.U.R. Budapest, Quattrocento, 2013.
[11] Utalok arra a korábban kifejtett, némiképp dramatizált álláspontomra, hogy az önvezető autó mesterséges intelligenciája akkor éri majd el az ember intelligenciájának a szintjét, ha szerelmi bánatában neki tudja vezetni magát a falnak. Udvary Sándor: Az önvezető járművek egyes technikafüggő szabályozási kérdései. In: Gellén Klára: Jog, innováció, versenyképesség. Budapest, Wolters Kluwer, 2017, 83.
[12] Lentebb utalunk azokra a támogathatatlan jelenségekre, amelyek ennek eredményeképpen akár jogképességgel is felruháznák ezeket az entitásokat.
[13] Udvary, i. m. 2017, 83.
[14] Utalok Rixer Ádám álláspontjára a transzhumanista nézetek és az archaikus emberképből adódó nézetek vélhető kibékíthetőségéről. Előadásában (Rixer Ádám: Az állam új funkciója: direkt kapcsolat-, közösség- és identitásépítés. KRE Hittudományi Kar, Nemzeti identitás - alkotmányos identitás. Az identitás-vita újabb fejleményei c. konferencia - szervező: Lőrincz Lajos Közjogi Kutatóműhely; 2018. december 3.) arra utalt, hogy bár az archaikus és transzhumanista megközelítések ütközőzónájában olyan kibékíthetetlennek tűnő kérdések kerülnek a tudomány homlokterébe, mint az elszemélytelenedés, a technológia dehumanizációs hatásai vagy éppenséggel az egyén és a közösség újraértelmezendő viszonya, mégis az új tudományos irányvonal éppen a perszonalizációt helyezi előtérbe, mintegy megteremtve a lehetőségét a modern és a klasszikus nézőpontok kibékítésének.
[15] Klein Tamás: Homonculum regulare necesse est. Jogtudományi Közlöny, 2018/9, 380-391. [a továbbiakban: Klein (2018a)]
[16] Klein Tamás: Robotjog. In: Klein Tamás - Tóth András: Technológiai jog - Robotjog -Cyberjog. Budapest, Wolters Kluwer, 2018, 194-195. [a továbbiakban: Klein (2018b)]
[17] Moór Gyula: A jogi személy elmélete. Budapest, MTA, 1931, 317; 320; 341; 351.
[18] Klein (2018b) i. m. 195.
[19] Ződi i. m. 84.
[20] Klein (2018b) i. m. 211-215.
[21] EP állásfoglalás 49-59. pontok.
[22] Annál inkább indokolt közösségi szabályozás, mert a termékek határokon át való szabad mozgása miatt több joghatóság, alkalmazandó jog jöhet szóba igényérvényesítés esetén, amit a joghatósági (Brüsszel-Ia.) és az alkalmazandó jogról szóló (Róma-I és Róma-II.) rendeletek szabályoznak, de az anyagi jog az utóbbi esetben nem közösségi, hanem tagállami, így bizonyos eltérések könnyen lehetnek. Bár a polgári jog egységesítésének folyamata igen nehézkes, egy jól körülhatárolható termék esetén talán könnyebb közös nevezőt találni a tagállamoknak.
Szempontunkból ez azért is fontos, mert a következőkben a magyar magánjogi szabályok adta kereteken belül gondolkozunk, azzal a megjegyzéssel, hogy más állam eltérő szabályai miatt ott más következtetés is adódhat.
[23] Ilyen hibának minősül az a kevésbé látványos eset is, amikor a szoftverhiba miatt nem akciót végez a robot, hanem tétlen: mulaszt. Pl. nem ismeri fel a célszemélyt és nem végzi el a megfelelő cselekményt.
[24] Ptk. 6:148. §-a, amely alapján a részegységet beszállító alvállalkozó hibája miatt perelhető a fővállalkozó, ha utóbbi kontraktuális vagy deliktuális felelőssége megállt.
[25] EP állásfoglalás AE. pont.
[26] Amely az hibás termékekért való felelősségre vonatkozó tagállami törvényi, rendeleti és közigazgatási rendelkezések közelítéséről szóló, 1985. július 25-i 85/374/EGK tanácsi irányelvvel összhangban áll.
[27] Pl. a gondozórobot szoftverhibája miatt a kar véletlenszerű mozgásba kezd.
[28] E felelősségi alakzat általános vagy veszélyes üzemi volta további megfontolást igényel.
[29] Ptk. 6:137. § skk.
[30] Ezt az érvelést erősíti az Uber önvezető gépjárművének balesete, amely bekövetkezésében szerepet játszott, hogy előre nem látható, nem feldolgozható eseményként értékelte a rendszer az úton keresztül tolt biciklit, amelyre vészfékezéssel kellett volna reagálnia (erre egyébként a Volvo gyári autója képes is lett volna), viszont az önvezető üzemmódban lévő autóban a vészfékezés ki volt kapcsolva, és a rendszerben sem volt olyan előírás, hogy ilyen esetben a sofőrt figyelmeztetni kellene. Ergo, a sofőrnek az önvezető autóban az út egész során teljes figyelmet kellett volna tanúsítania. Ld. az NTSB előzetes jelentését a baleset körülményeiről. https://www.ntsb.gov/investigations/AccidentReports/Reports/HWY18MH010-prelim.pdf (2018. 11. 24.) Másképpen megfogalmazva: a váratlan körülményre a programot teljes mértékben nem készítették fel, ilyen esetben az ember cselekszik, ezzel alkotva meg a szabályt ilyen esetekre.
[31] A programot szolgáltató vállalkozás hosszútávú felelősségét biztosítandó célszerű szakmai felelősségbiztosítással körbebástyázni a programozási tevékenységet, ami a vállalkozás esetleges megszűnését követően is alkalmas a felelősség szétterítésére.
[32] Vö.: Ptk. 6:524. §
[33] Ld. így pl. a környezetet veszélyeztető magatartással okozott kárt, ami a törvény értelmében a veszélyes üzemi felelősség alá esik. Ptk. 6:535. § (2) bek.
[34] Itt említendő az a fontos kezdeményezés, amire az EP állásfoglalás felhívja a Bizottságot: olyan európai ügynökség létrehozása, amely nyilvántartási rendszert kezdeményez a robotok tekintetében, s meghatározza a nyilvántartásba veendő robotok besorolási kritériumait. Lásd az EP állásfoglalás 2. pontját.
[35] Az általam fentebb felhozott kétségekkel...
[36] Ismét utalok arra, hogy ez alól ad absurdum csak a roboti jogalanyiság biztosíthatna kivételt.
[37] Pusztahelyi i. m. 316.
Lábjegyzetek:
[1] A szerző habilitált egyetemi docens, KRE.
Visszaugrás