Megrendelés
Gazdaság és Jog

Fizessen elő a Gazdaság és Jogra!

Előfizetés

Lőrincz György: A mesterséges intelligencia alkalmazásával hozott döntés jogi megítélésének egyes kérdései (GJ, 2019/4., 1-7. o.)

I. A mesterséges intelligencia

1. A mesterséges intelligencia kifejezés általánosan (a mindennapi és a tudományos diskurzusban egyaránt) használatossá vált, amit jól mutat, hogy egyre gyakrabban egyszerűen MI, vagy az angol megfelelője (Artificial Intelligence) alapján AI rövidítéssel jelöljük. Amióta John McCarthy az 1950-es években először használta ezt a kifejezést, a mesterséges intelligencia fogalmát sokan, sokféleképpen határozták meg, ami azért sem meglepő, mert az emberi intelligencia mibenlétére is feltűnően sok meghatározást találunk, Arisztotelésztől Bergsonig. Az alábbiakban a mesterséges intelligencia alatt olyan hardver/szoftver rendszereket értek, amelyek képesek "emberi módon" akár bonyolult problémákat megoldani, az emberi gondolkodásmódra jellemző következtetések révén döntési alternatívák közül választani. Ezt a műveletet vagy önállóan végzik, vagy közben kommunikálnak környezetükkel, s ami igen lényeges, a tapasztalataikból tanulnak.[1] Ez a definíció témánk szempontjából azért hasznosítható, mert voltaképpen az emberi döntés aspektusából értelmezi a mesterséges intelligenciát, azaz alternatívák közötti választásként írja le.

2. Ma már közhely, hogy az elmúlt évtizedekben az MI hallatlan módon fejlődött, fejlődik és alkalmazása rohamosan terjedt, terjed. Érdemes ennek a folyamatnak néhány, a közvélemény számára is jól értelmezhető "csúcspontját" megemlíteni.

1997-ben az IBM Deep Blue nevű gépe legyőzte Garri Kaszparovot, aki ekkor már hosszú évek óta a sakk világbajnoka volt.[2] A Deep Blue azon az alapon működött, hogy szinte az összes elérhető játszma lépéseit betáplálták a gépbe, amely az ezekből nyert adatokat felhasználva találta meg a megfelelő lépést.

2011-ben az IBM Watson nevű gépe nagy fölénnyel maga mögé utasította az Egyesült Államokban igen népszerű, "Jeopardy!" vetélkedő két korábbi győztesét. Ezen a vetélkedőn korántsem csak tények, események és adatok helyes megjelölése szerepel kérdésként, hanem bonyolultabb nyelvi feladatok megoldása is.[3] Watson győzelme igazolja: az MI nem csak hihetetlen mennyiségű adat tárolására és reprodukálására, hanem kreatív feladatok megoldására is képes.

2015-ben a Google által kifejlesztett AlphaGo legyőzte az aktuális go világbajnokot. A go a sakkhoz képest összehasonlíthatatlanul bonyolultabb játék, hozzáértők szerint az elképzelhető húzások száma végtelen. Ami még érdekesebb: az AlphaGo-t még ebben az évben legyőzte egy öntanuló robot, amely eredetileg csak a játék szabályait ismerte.

2017-ben egy humanoid robot, Sophia szaudi állampolgárságot kapott.

Természetesen a fentiek önkényesen kiragadott és inkább populárisnak tekinthető fordulatok az MI történetéből, de azt jól láthatóvá teszik, hogy a mesterséges intelligencia kognitív irányba fejlődik, tehát nemcsak a betáplált adatokat és utasításokat hasznosítja és teljesíti, hanem érzékelő, öntanuló funkcióval is rendelkezik. Ebből a szempontból nézve, a fentiekben említettekhez képest jóval fontosabbak azok, a sokszor évtizedek óta zajló kutatások, amelyek a mindennapi életünkben is forradalmi változásokat sejtetnek. Ezek közül kiemelendő az önvezető gépjárművek kifejlesztése, illetve a gépi orvosi diagnosztizálás kialakulása, amelyben (egyebek mellett) az IBM fentiekben említett Watson nevű gépe is szerepet kap.[4] Watson ezen túlmenően egyre inkább képessé válik arra, hogy önállóan intézze a legkülönfélébb ügyeinket[5], nevünkben kapcsolatba lépve harmadik személyekkel. A banki hitelbírálat, az árukészletezés optimalizálása, vagy egy termék bevezetésének logisztikai megoldása ma már úgyszintén elképzelhetetlen gépi támogatás nélkül.[6]

3. Ebben az írásban nem kívánok a jövőre nézve jóslatokba bocsátkozni, noha se szeri, se száma az ilyen tárgyú dolgozatoknak, amelyek az interneten néhány kattintással elérhetők. Annyiban viszont szükséges a prognózisokkal foglalkozni, hogy egy alapkérdésben szűkítsük a további vizsgálódás tárgyát. Az MI jövőjével foglalkozó és tudományosnak tekinthető írások ugyanis (megítélésem szerint) a mesterséges intelligencia hasznosításának két, egymástól markánsan eltérő ideáját vázolják fel.

Egyrészt a sokak szerint futurisztikusnak is tekinthető felfogás az MI és az ember szimbiózisát tételezi fel. Egyszerűen fogalmazva: olyan biometrikus szenzorok (kiborgok vagy nanobotok) alkalmazásáról értekeznek, amelyek az emberi szervezeten belül fejtik ki hatá-

- 1/2 -

sukat, s az egészség megóvása mellett az emberi tudás soha nem látott mértékű átalakítását, bővítését is lehetővé teszik. (Például elképzelhetőnek tartják, hogy egy nanobot beültetésével azonnal képes lesz bárki egy tetszőleges idegen nyelv ismeretére.) Ennek a nézetnek kétségkívül reális alapot ad a gén- és nanotechnológia hihetetlen fejlődése. Nagy visszhangot váltottak ki e felfogás emblematikus képviselőjének, Ray Kurzweilnek a 2000-es évek elején egyébként fantasztikusan alapos tudományos kitekintésen alapuló olyan jóslatai, amelyek szerint a 2020-as évekre az ember szervezetébe az egészségét védő és mentális képességét javító nanobotok kerülnek[7], vagy hogy 2030-ra az ember inkább lesz nem biológiai, mint biológiai[8]. Ma már persze látható, hogy feltehetőleg ezek a jóslatok (egyelőre) nem valósulnak meg, ráadásul alkalmazásuk komoly bioetikai kérdéseket vetne fel. Így a jogalkotónak azt kell eldöntenie, hogy mennyiben legálisak az emberi szervezetet és gondolkodást akár alapvetően megváltoztató ilyen beavatkozások.[9] Témánk szempontjából azért mellőzhető az MI ilyen módon való alkalmazásával kapcsolatos jogi kérdések felvetése, mert ugyan tartalmát tekintve gyökeresen megváltoztathatja, de formailag nem érinti az emberi döntést: azt változatlanul az ember, ha úgy tetszik, szabad akaratából hozza, és nemigen lehet azt sem meghatározni, hogy ebben milyen mértékben hatott az "eredeti" és a "mesterséges" intelligencia.

A másik releváns iskola az ember és a gép együttműködésén alapuló döntéshozatal jövőbeni fennmaradását prognosztizálja. Ez, a cobotizácinak[10] is nevezhető jelenség már több, a jog számára is érzékelhető kérdést vet fel, amelyekre a következő pontban térek ki.

II. Az emberi döntés és a mesterséges intelligencia

1. Az I.1. pontban olyan döntésre utaltam, amely alternatívák közötti választást jelent. Elvben ez szinte minden, akár a rutinszerű, sőt a nem tudatosan meghozott döntéseinkre is jellemző, ezért indokolt ezt a kört tovább szűkíteni. Az alábbiakban azokat a döntéseket érintem, amelyek alternatívák hasznosság és valószínűség szerinti értékelése alapján születnek. Az ilyen döntést szükségképpen a rendelkezésünkre álló információk ismeretében és ezek értékelése alapján hozzuk meg, s az is nyilvánvaló, hogy a döntés akkor hozza meg a kívánt eredményt, vagy akkor váltja ki az elvárt hatást, ha a döntéshozatal szempontjából valamennyi releváns tényt, adatot és körülményt ismerünk, és azokat helyesen mérlegeljük. Érdemes ezt a két momentumot (tehát az információ megismerését és annak értékelését) külön választani.

Egyszerű helyzetekben, főleg akkor, ha a választható alternatívák egyértelműek és az elhatározás következményei is viszonylag pontosan láthatók, a döntéshozatal általában nem okoz nehézséget.[11] Amennyiben az alternatívák száma sokszoros, illetve a döntés jelentős következménnyel jár (például lakásvásárlásnál), mind a szükséges információk megszerzése, mind azok értékelése már jóval bonyolultabb. A tájékozódás ilyen esetben ma már egyre inkább a számítógép (az internet) segítségével történik, ami természetesen jóval megalapozottabb, jobb döntés meghozását segíti, - de maradva a lakásvásárlásnál - az értékelés, tehát a döntéshozatal érdemi mozzanata változatlanul ránk marad. A döntéshozatali mechanizmus tehát legfeljebb annyiban változik az akár több száz évvel ezelőtti állapothoz képest, hogy jóval szélesebb körben tájékozódunk elhatározásunk meghozatala előtt. Témánk szempontjából azok a döntések érdekesek, amelyek meghozatala során mind a szükséges információk megszerzése, mind azok értékelése során gépi támogatást kap az ember, ide értve azt is, ha a teljes folyamat (tehát a döntés) a gép feladatává válik. A mesterséges intelligencia számos jogterület szabályozását érinti, érintheti, a szerzői jogtól a munkajogig újszerű kérdéseket vet, vethet fel. A továbbiakban nem ezeket a konkrét jogi megoldásokat érintem, hanem azt vizsgálom, hogy a mesterséges intelligencia alapján nyújtott döntéstámogatás mennyiben határolja be, determinálja elhatározásunkat. Ebből a szempontból a döntések három típusát érdemes megkülönböztetni a mesterséges intelligencia által felvetett javaslatokat, ajánlatokat érintően: vannak egyrészt a felülmérlegelésre szoruló és megfontolható (lásd a 2. pontot), másrészt a felülmérlegelésre szoruló, de érdemben nem megfontolható (lásd a 3. pontot) javaslatok (ajánlatok), és van végül a javaslat (ajánlat) feltétlen elfogadásának, azaz a döntésnek a gép részére való átengedése (lásd a 4. pontot).

Hangsúlyozni kell, hogy az alábbiakban az egyes döntéshozatali formákat bemutatandó helyzetek erősen időhöz kötöttek, mert a fejlődés ezen a téren is jelentős változást eredményez, eredményezhet. A változás iránya egyértelmű: az első és különösen a második pont-

- 2/3 -

ban említett döntések meghozatala egyre inkább a harmadik alatti mezőbe kerül, tehát az MI önálló döntési kompetenciájába. Erre jó példákat az orvoslás területéről lehet hozni. Korábban, de döntő mértékben jelenleg is az MI által adott diagnózis egyszerű másodvéleménynek minősült, minősül, noha összehasonlíthatatlanul nagyobb adatbázis alapján állította azt fel a gép, mint az orvos. Ennek ellenére alapos megfontolás, konzílium előzi meg a beteg állapotának felmérését és ezzel összefüggésben az indokolt beavatkozás elhatározását[12], főleg, ha erre kellő idő is rendelkezésre áll. (Gyors döntést igénylő helyzetekben a diagnosztizálás kétségkívül bonyolultabb, erre a következő pontokban térek vissza.) Az előrejelzések szerint azonban a beteg-orvos kapcsolat is egyre inkább az automatizálás irányába halad, belátva, hogy az MI adatelemzésével nem képesek az orvosok felvenni a versenyt.[13] Ezt a változást az is jelzi, hogy a sebészeti robotok egyre szélesebb körben végeznek önálló műtéteket, ahol az orvos "cserejátékos" szerepet játszik, azaz szükség esetén veszi csak át a műtét levezetését.

Mindhárom döntési helyzetben az alapvető kérdés az, hogy mennyiben érvényesül az ember autonóm döntési kompetenciája, továbbá ehhez szorosan kapcsolódva az is, hogy miként alakul az adott döntésért való jogi (elsősorban kártérítési) felelősség.

2. A mesterséges intelligencia (a jelenlegi állapotában) sok területen viszonylag gyengébb hatékonysággal képes támogatást adni az emberi döntés meghozatalában, vagy olyan ügyben ad ajánlatot (például az orvoslást érintően), amely jellegénél, fontosságánál fogva emberi felülmérlegelésre szorul. Ezekben az esetekben a mesterséges intelligencia igénybevétele inkább inkrementálisnak tekinthető, egyszerűen kifejezve arról szól, hogy csináljuk jobban, amit eddig tettünk.

Az ilyen, a mesterséges intelligencia által javasolt, de felülvizsgálatra szoruló és ennek lehetőségét is megadó döntésekre elsőként érdemes néhány mindennapi példát említeni. A YouTube-on filmet keresve gyakran találkozhatunk a "Neked ajánlott" felirattal. Mivel a gép csak azt értékeli, hogy korábban milyen jellegű filmeket néztünk és mennyi időt fordítottunk az adott mű megtekintésére, de azt már nem, hogy ez mennyire nyerte meg a tetszésünket (amennyiben a megtekintett filmre vonatkozó megelégedettségünkről nem tájékoztatjuk a YouTube-ot), kellő óvatossággal kell kezelni ezt a javaslatot. Ehhez képest a Google és más okos eszközök profilalkotó képessége már jóval pontosabb, állítólag néhány száz lájkolás alapján pontosabb profilt képes alkotni a gép, mint az érintett házastársa. Nem véletlen, hogy a hatályos magyar (és európai) jog[14] igen szűk körben engedi meg az elektronikus profilalkotást.

A mesterséges intelligencia terjedésének egyik látványos területe a pénzügyi szolgáltatások (fintech) szférája. Az e téren használatos szoftverrobotok egyelőre csak elemzést végeznek, s ez alapján ajánlást tesznek, amit a bank/ügyfél vagy elfogad, vagy elvet. Ez a döntés azonban nem az MI által produkált adatok és előrejelzések felülmérlegelésén, hanem inkább a befektető szubjektív megítélésén múlik. Jól mutatja az MI és az ember kapcsolatának fejlődését, hogy rohamosan terjed a döntést hozó (befektető) robot alkalmazása. A magyar jog szerint is megengedett, hogy az ügyfél (előre meghatározott paraméterekkel) rábízza a befektetői döntés meghozatalát a robottanácsadóra, ami algoritmikus kereskedésnek[15] minősül. Itt is jól látható a fentiekben már érintett változás iránya: a MI már nem javaslatot vagy ajánlatot tesz, hanem döntést hoz.

Végül egy már-már történelmi, de a gép és az ember bonyolult kapcsolatát jól megvilágító példára érdemes utalni e körben. Sztaniszláv Petrov, a szovjet hadsereg tartalékos alezredese 1983. szeptember 26-án amerikai atomtámadást jelző riasztást kapott, amit mérlegelve a helyzetet, tévesnek minősített. Amennyiben a riasztást valósnak tekinti, vélhetőleg kitört volna a harmadik világháború[16]. Biztosak lehetünk abban, hogy a mai biztonsági rendszerek jóval pontosabb előrejelzést adnak. Ennek ellenére nehezen képzelhető el, hogy a jog ne írja elő ezeknek a jelzéseknek az ember részéről történő kötelező felülmérlegelését.

A kétségkívül esetlegesen válogatott példákban közös, hogy ugyan az MI igen megalapozott döntési alternatívát kínál, de azok emberi felülmérlegelésre szorulnak, s erre reális lehetőség is kínálkozik (szokás a gép ilyenfajta működését "intelligens asszisztensnek" vagy "külső agynak" nevezni).

A fentiekben tárgyalt helyzetek a jogi felelősség hagyományos szabályait szerintem nem érintik, mert a döntés nem csak formálisan, hanem tartalmát tekintve is az ember belátásán múlik. Úgy is fogalmazhatunk, hogy ilyen esetekben - tehát ha reális esélye van az embernek a döntése esetleges káros következményeit előre látni - a vétkességen alapuló felelősségi alakzat alkalmas a jogi felelősség preventív funkciójának az érvényesítésére. A döntést hozó személyes (például munkajogi) felelősségének megállapítására irányuló bírói gyakorlat viszont értelemszerűen változni fog, mert az

- 3/4 -

ilyen jellegű (tehát nem kártérítési) felelősség megítélése során az a mozzanat kerül előtérbe, sőt feltehetőleg kizárólagos értékelésre, amely a mesterséges intelligencia kínálta lehetőség ésszerű és lehetséges felülmérlegelésének az esélyét vizsgálja.

3. Petrovnak, ha nem is sok, de volt néhány perce a gépi jelzés felülmérlegelésére, továbbá más információkra is támaszkodhatott döntésének meghozatala előtt. Petrov mai utódjának feltehetőleg mindössze néhány másodperce van erre a felülbírálatra. Bár a jellegét tekintve egészen eltérő, a döntéshozatal szempontjából hasonló a helyzet az orvosok munkáját támogató, a korábbiakban már említett gépi diagnosztizálás megítélésénél. Az MI akár több millió esetet feldolgozó és értékelő diagnózisa nyilván jóval megalapozottabb, mint a néhány száz, de akár több ezer ilyen betegséget ismerő orvosé, s a mesterséges intelligencia által megadott diagnózis, esetleg alkalmazandó kezelést illetően (például egy operáció közben) gyakran azonnali döntést kell hoznia a műtétet végző személyzetnek.

Ezek a példák azt a kérdést vetik fel, hogy van-e értelme a döntést az emberre hagyni olyan helyzetben, amelyben a gépi javaslat érdemi megítélése, pontosabban felülbírálata ténylegesen nem lehetséges. A jogi dilemmát úgy fogalmazhatjuk meg, hogy a döntés joga és egyben kötelezettsége az emberre ruházható-e akkor is, ha a döntéshozatalban releváns szerepet nem tölt be. Erre a kérdésre két, ugyan ellentétes, de értelmes és jól védhető válasz is adható.

Az egyik abból indul ki, hogy az emberi felülmérlegelés nem formális, mert a mérlegelőnek adódhat olyan tapasztalata, intuíciója, amely a gép utasításának, javaslatának teljesítését alappal kérdőjelezi meg. Ennek az esélyét minden körülmények között meg kell adni, különösen, ha olyan fajsúlyos döntésről van szó, mint fegyverek bevetése vagy betegség diagnosztizálása. A másik lehetséges álláspont ugyan elismeri az emberi tényező esetleges és jótékony szerepét, de azt tartja, hogy a felülmérlegelés kereteinek szűkössége inkább hordozza azt a veszélyt, hogy a mesterséges intelligencia helyes döntését rossz irányba befolyásolja az azt felülbíráló ember. Szemléletesen érzékelteti ezt a problémát egy kétségkívül kitalált[17], de a valóságtól nem túlságosan elrugaszkodott szituáció. Képzeljük magunkat egy forgalomirányító rendőr helyzetébe, akinek a fülébe mondja a gép a követendő eljárást. A gép összehasonlíthatatlanul több információval rendelkezik, mint a rendőr és arra is képes, hogy a leghatékonyabban, azaz a legkisebb fennakadást okozó módon irányítsa a forgalmat. A rendőr nem látja, hogy az általa irányított kereszteződéshez közelít egy életmentő műtétre szoruló beteget szállító mentőautó, amelynek a robot erre tekintettel feltétlen elsőbbséget biztosít. Ennek érdekében olyan utasítást ad a rendőrnek, hogy haladéktalanul indítsa el a mentőautó által használt sávban a forgalmat. A rendőr azt látja, ha teljesíti az utasítást, óhatatlanul összeütközik két autó. Erre tekintettel felülmérlegeli a gépi utasítást, s csak akkor enged szabad utat a mentőautónak, miután a merőleges irányú forgalmat leállította. Ezáltal a mentőautó több percet kénytelen várakozni. Amennyiben ennek ellenére időben a műtőasztalra kerül a beteg és sikeresen megoperálják, az első álláspontot látjuk igazolva. Ha viszont az a néhány perc, amennyit késlekedett a gépi utasítás felülmérlegelése miatt a mentőautó, a beteg életébe kerül, az ellenkező véleményt osztjuk. (Hasonló kérdést vet fel az úgynevezett villamos dilemma, amiről az önvezető járművek kapcsán részletesebben szólok.)

A tisztánlátást az is nehezíti, hogy ismereteink meglehetősen egyoldalúak és esetlegesek az olyan helyzetekről, amelyekben ez a dilemma felmerül. Kaszparov és a gép sakkjátszmájánál azt láttuk, hogy az MI okosabb az embernél, ezért értelmetlen lett volna Deep Blue lépéseit felülbírálni. Petrov esete ennek az ellenkezőjét igazolja. (Bár ez utóbbi kapcsán jegyezzük meg, hogy a mai előrejelző rendszerek már jóval fejlettebbek, ezért az 1983-ban történtekre nem igazán helyénvaló a tárgyalt kérdés kapcsán hivatkozni.)

Meglátásom szerint a belátható jövőben a döntés joga, egyben kötelezettsége változatlanul, de egyre szűkülő körben az emberre hárul, akkor is, ha nincs abban a helyzetben, hogy a mesterséges intelligencia javaslatát érdemben felülmérlegelje. Ez szerintem elsősorban nem az ember képességének felbecsülésén, hanem azon alapul, hogy a döntésnek milyen következményei lehetségesek, illetve mennyiben válik az MI megbízhatóvá. Egy olyan folyamatnak vagyunk tanúi, amelyben fokozatosan és óvatosan a (valódi) döntést hozó gép válik formálisan is a döntéshozóvá. Nem véletlen, hogy az 1.2. pontban említett események szinte kivétel nélkül a játékról szólnak, ahol az esetleges rossz gépi teljesítménynek nincs különös jelentősége, hatása. (Legfeljebb a fejlesztő tudósok, de még inkább az abba jelentős összeget befektetők búslakodnak.)

A másik véglet az embert vagy a környezetet jelentősen, visszafordíthatatlan módon érintő döntés. Nehezen képzelhető, hogy az atomfegyvereket elindító vagy a betegséget diagnosztizáló elhatározást kizárólag a gép hozza meg. (Ez valószínűleg akkor sem következik be, ha az ember általi kontroll lehetősége alig haladja meg a reakcióidőt.) E két végpont között viszont a mesterséges intelligencia térhódítása megállíthatatlannak látszik, mégpedig olyan irányban, amelyben a gép formálisan és a jog által elismert módon is átveszi döntéshozatal jogát. Erre a következő, 4. pontban említek néhány, már napjainkban is reális példát.

Ami pedig a jogi felelősség kérdését illeti, fenntarthatónak látszik az ilyen döntések következményeinek is a hagyományos felelősségi formációk alapján történő megítélése, hiszen - ha igen korlátozott mértékben is -, de az emberi közrehatás kimutatható. Ugyanakkor a személyes felelősség bírói megítélése igen szűk mezőre korlátozódik, annak elbírálására, hogy az adott körülmények között mennyiben volt indokolt és észszerű a

- 4/5 -

végső fokon döntést hozó ember részéről a mesterséges intelligencia által javasolt megoldásnak az elfogadása, vagy elvetése. A kártérítési felelősségi szabályok a tárgyalt tényállásokban szinte kizárólag a reparációt szolgálják, preventív szerepük elhanyagolható. Ezért indokolt lehet több szakma (például az orvos) és tevékenység (például a munkaviszony keretében történő foglalkoztatás, pontosabban a munkáltatónak a munkavállaló felé fennálló kárfelelőssége) esetében a kötelező felelősségbiztosítás kötésének az előírása. Ennek keretében pedig a biztosító regressz igényének jogalapjaként felmerülhet a korlátozott mértékű felelősség szélesebb körű alkalmazása. A munkavállaló munkajogi kártérítési felelőssége (eltekintve a szándékos vagy súlyosan gondatlan károkozástól) arra tekintettel korlátozott[18], hogy tipikusan nem önállóan cselekszik, ebben korlátozza egyrészt az, hogy munkáltatói utasítást hajt végre, másrészt pedig munkatársai esetleges közreható magatartása. A mesterséges intelligenciának a szóban lévő esetekben történő igen erőteljes érvényesülése lényegét tekintve ilyen, a döntést hozó számára külső, sok tekintetben nem befolyásolható körülménynek is tekinthető. Ezek a felelősséget korlátozó megoldások különösen olyan helyzetben indokoltak, amelyekben a jog (vagy más jogi aktus, így például belső szabályzat, illetve szerződés) kötelezővé teszi az adott döntés meghozatalánál valamilyen gépi támogatás igénybevételét.

4. A fejlődés, mint erre az előző pontokban utaltam, a mesterséges intelligencia önálló döntési joga bővülésének az irányába mutat. Ez a folyamat, pontosabban annak a végterméke legalább két alapvető problémát vet fel. Egyrészt azt, hogy miként lehet az ember befolyása alatt tartani az önműködő, és ami talán lényegesebb: öntanuló mesterséges intelligencia által irányított tevékenységet. A másik, ezzel részben összefüggő kérdés: a gépi döntést megalapozó szoftverek mennyiben képesek a várható kockázatok kizárására. Az elsőként említett dilemmára az algoritmikus kereskedés, míg a másodikra az önvezető gépjárművek alkalmazása hozható fel példaként.

Az Egyesült Államokban és az Európai Unióban a tőkepiaci ügyletek többsége algoritmikus kereskedés[19] formájában zajlik. Az erre vonatkozó EU irányelv[20] értelmében minden, úgynevezett nagysebességű algoritmikus kereskedést folytató vállalkozásnak engedélyt kell szereznie, és meg kell felelnie az előírt szervezeti követelményeknek. Ezáltal az algoritmikus kereskedést folytató vállalkozások működésének hatósági felügyelete is biztosított. A hatékony felügyelet érdekében minden algoritmikus kereskedés keretében létrejött megbízást meg kell jelölni. Így az illetékes hatóságok azonosíthatják ezeket az ügyleteket, valamint értékelhetik az algoritmikus kereskedők által alkalmazott stratégiákat. Emellett a felügyelet kötelezheti a befektetési vállalkozást arra is, hogy adjon leírást az algoritmikus kereskedési stratégiájának jellegéről. Ebből, a vázlatos ismertetésből is levonható egy általánosabb következtetés, nevezetesen az, hogy az önállóan működő (így értelemszerűen döntő) MI adott esetben akár jelentős, védelmi jellegű jogi szabályozást igényel.

A tőkepiaci változásokhoz képest nyilván nagyobb jelentőségű az önvezető gépjárművek várható és egyre szélesebb körben történő forgalomba állítása. Nem kell bőven taglalni, hogy az ilyen járművek megjelenése és elterjedése mennyiben változtatja meg mindennapjainkat, témánk szempontjából azt emelem ki, hogy ezek nemcsak vagyoni, hanem - szemben a fintech-kel - személyi károkat is okozhatnak. Működésük szabályozása az algoritmikus kereskedéssel szemben nem elsősorban az üzemeltető kötelezettségeit célozza, hanem a fejlesztővel szemben támaszt követelményeket. Ennek egyik fontos eleme az algoritmikus kereskedés kapcsán már említett védelmi szabályok megalkotása, így például a gyártó által készített szoftver védelme, módosításának korlátozása vagy kizárása. Sajátos szerzői jogi problémák mellett felvetődik a szoftverhiba által okozott kárért való felelősség kérdése[21] is. Mivel életet, vagy legalábbis testi épséget veszélyeztet az önvezető gépjármű, felmerül a gépjárművet irányító szoftverek mérlegelési körének meghatározása is, ezen belül is a várható kockázatok minimalizálása. Ez utóbbira tekintettel érdekes módon az önvezető gépjárművek kapcsán gyakran olvashatunk az úgynevezett villamos dilemmáról, amelyre a következő pontban térek ki.

A jelenlegi helyzetben mellőzhetetlennek látszik, hogy a jogi szabályozás elsődlegesen azt határozza meg: milyen fokú önállóságot kapjon az MI az önvezető gépjárművek működésében. Vélhetőleg még hosszú ideig az ember (a sebészeti műtéteknél említett "cserejátékos" szerepkörben) stílszerűen szólva a gépkocsiban marad, felügyelve annak működését. Legyünk azonban reálisak, bármilyen hiba felmerülésekor kevés eséllyel előzheti meg a balesetet (káreseményt), feltehetőleg csak akkor, ha a jól kiépített hiba előrejelző rendszer még időben felhívja a figyelmét a szükséges beavatkozásra, pontosabban az önvezető funkció leállítására.

Az önálló döntést hozó gépekkel kapcsolatos (elsősorban kártérítési) felelősség már nehezen képzelhető el a hagyományos, vétkességen alapuló felelősség alapján, ugyanis itt már nem mutatható ki a belátható következmények mérlegelésén (azaz a felróhatóságon) alapuló személyes, illetve kártérítési felelősség szubjektív alapja. Mint a korábbi ipari forradalmak, ez a változás is a jogi felelősség alapjainak újragondolását és szabályozását eredményezi. Amíg viszont korábban elegendő volt a vétkesség vizsgálata nélküli felelősség

- 5/6 -

jogintézményének egyre szélesebb körű alkalmazása[22], ma már nincs további "menekülési" lehetőség. Ha ugyanis a felelősség szubjektív eleme (a vétkesség) "lehelete" is csaknem teljesen kiiktatódik, voltaképpen már nem felelősségről, hanem helytállásról, kártalanításról van értelme beszélni. A magatartás értékelésén alapuló felelősség ezért fokozatosan visszaszorul, s egyre szűkebb körben képes, vagy talán pontosabban képtelen a hagyományos preventív hatását kifejteni. Az automatizáció ugyanis olyan döntéseket és helyzeteket generál, amelyekben a bonyolult kölcsönhatások következtében az emberi hiba szinte felfedezhetetlen (az esetek túlnyomó többségében talán nincs is), sőt az is belátható, hogy a károkozás adott esetben egy nagyobb hátrány megelőzését szolgálta. Ebben a helyzetben ezért az üzemben tartó lényegében kimentés nélküli "felelősségének", pontosabban: helytállásának kimondása lehet indokolt. (Talán a károsult kizárólagos és elháríthatatlan magatartása maradhat a felelősség alóli mentesülés alapjaként, egyfajta "felelősségmorzsaként".) Az ilyen szigorú helytállás természetesen e körben is felveti a kötelező felelősségbiztosítás alkalmazását, gépjárművek esetében a fenntartását. A jogi szabályozás szempontjából viszont a veszélyes üzemek találkozása okozhat nehézséget, ugyanis önvezető gépjárművek esetében a felróhatósági elv alkalmazhatatlannak látszik.[23]

A jogi felelősséget tárgyalva, nem vitásan felmerül a termékfelelősség kérdése is. (A kötelező felelősségbiztosítás következtében legkevésbé az önvezető gépjárműveknél.) A hazai szakirodalom is elismeri, hogy a szoftver is terméknek minősül.[24] Kérdés viszont, hogy a mesterséges intelligencia alkalmazásával automatizáltan (önállóan) működő és döntő robot esetében mennyiben alkalmazhatók például a termékfelelősség alóli kimentés szabályai.[25] Egy lehetséges jogi megoldást kínál az Egyesült Államok Legfelsőbb Bíróságának 2008-ban a Riegel kontra Medtronic ügyben hozott döntése. Ebben az ügyben azt vizsgálta a bíróság, hogy a diagnosztizálásra is használatos orvosi eszköz hibájáért felel-e annak gyártója. A Legfelsőbb Bíróság döntésének lényege, hogy az orvosi eszközök gyártói védelmet élveznek és nem perelhetők abban az esetben, ha a termékük megkapta a megfelelő jóváhagyást.[26]. Egy ilyen tartalmú joggyakorlat persze a termék alkalmazását jóváhagyó szervre hárítja a "felelősséget", ami erősen befolyásolhatja az engedélyezési eljárás tartamát, sőt kimenetelét is.

III. A villamos-dilemma

Philippa Foot brit filozófus 1967-ben vetette fel a villamos-dilemmát, amelynek azóta több változata is ismertté vált. Lényege, hogy egy elszabadult villamoskocsi rohan a sínen, amelyre öt ember van lekötözve. Lehetőség van viszont arra, hogy a váltó állításával egy másik sínre irányítsuk, amelyhez csak egy ember van lekötözve. A kérdés az, hogy morálisan mi a helyes eljárás: hagyni a villamost az eredeti pályáján, vagy a váltó átállításával minimalizálni az emberáldozatot. Ezen a problémán évtizedekig szinte kizárólag a filozófusok elmélkedtek, de amióta reális esélye van az önvezető gépjárművek elterjedésének, egyre többször olvashatunk róla, mint olyan kérdésről, ami szükségképpen felmerülhet a robot által irányított gépjármű programozásánál. Egyszerűbben és általánosabban megfogalmazva a kérdés tehát az, hogy ha több kockázati tényezőt észlel a robot, milyen beprogramozott szempontok alapján válasszon e kockázatok közül. Elsőként azt hangsúlyozom, hogy önmagában a kérdés felvetése egy derűlátó feltételezésen alapul, nevezetesen azon, hogy a mesterséges intelligencia képes arra, hogy válasszon, mégpedig tudatosan döntsön a lehetséges kockázatok kérdésben. Erre ugyanis az ember korántsem képes. Maradva a gépjárművezetésnél, ha váratlanul adódik a villamos dilemmához hasonló helyzet, ösztönösen cselekszünk, így elsősorban saját életünket, testi épségünket mentjük.

A villamos-dilemma reneszánszát jól mutatja, hogy a világ egyik legrangosabb egyeteme, a Massachussetsi Műszaki Egyetem (MIT) egy világméretű felmérést végzett azt vizsgálva, hogy a megkérdezettek milyen szempontok alapján döntenének hasonló helyzetben. 233 országból összesen 40 millió válasz érkezett a Moral Machine nevű honlapra, s ezeket elemezték a jeles kutatók. Az adatok alapján globális és kulturális tendenciák egyaránt kirajzolódnak. Világszerte általánosan jellemző (és persze nem meglepő) például, hogy a válaszadók az emberi életet preferálják védeni a többi fajjal, például a kutyákkal szemben, ezen belül a gyermekeket jobban védelmezik, mint a felnőtteket, és ha úgy alakul, hajlandóak néhány életet feláldozni egy nagyobb csoport megmentése érdekében, továbbá inkább mentenének fiatalokat, mint időseket.[27] Eddig kizárólag Németországban próbálkoztak hivatalos etikai irányelveket megfogalmazni az önvezető gépjárművek kapcsán. A németek megoldása az volt a villamos-dilemmára (nem elfogadott törvényi formában), hogy egy tervezetben legszögezték, hogy minden emberi élet egyenlő értékű, így meg kell tiltani, hogy az önvezető rendszerek életkor vagy nem alapján különböztessék meg az embereket. Ahogy azonban az MIT szakértői mondják, ha ezt a megközelítést a gyakorlatban is alkalmaznák, az ellentmondana annak a jelek szerint globálisan erős preferenciának, miszerint, ha választani

- 6/7 -

kell, a gyerekek megmentését választjuk az idősebbekkel szemben.

A villamos-dilemma azért is érdekes, mert nemcsak az önvezető gépjárművek, hanem más, önállóan működő robot döntésénél is felmerülhet, minden olyan helyzetben, ahol lose-lose szituáció alakulhat ki. Nem egyszerű jogalkotói feladat e dilemma megoldása, a magam részéről erre nem is vállalkozom, inkább az olvasóra bízom.

IV. Az ítélkező robotbíró

A 2010-es években nagy feltűnést keltett egy izraeli bírók bevonásával készült vizsgálat, amelynek során azt is nézték, hogy milyen összefüggés van a tárgyalás időpontja és a döntés tartalma között. Azt találták, hogy a reggeli után hozott döntésekben a feltételes szabadlábra helyezés iránti kérelmeknek mindössze 35%-át utasította el a bíró, ez az arány az ebédidőre 85% fölé emelkedett.[28] Ebből arra a következtetésre jutottak a kutatók, hogy az éhes bíró szigorúbban bírálja el az elé kerülő ügyet. Ez nyilván túlzó megállapítás, de tény, hogy jeles bírák is értekeztek a bíró személyiségének a peres eljárásban játszott szerepéről.[29]

Max Tegmark a fentebb jelzett művében elsősorban az elfogulatlan ítélkezést gátló körülmények (különösen a faji megkülönböztetés) kiiktatására hivatkozva veti fel a robotbíró bevezetésének indokoltságát. Az elfogulatlanság mellett hihetetlen előnye lenne a robotbíró alkalmazásának a döntés gyorsasága. Az adott ügy elbírálása során mérvadó jogszabályok értelmezése megoldható megfelelő szoftverekkel. A perek jelentős többségét persze nem jogi, hanem tényállásbeli vita generálja. Mivel a polgári perjogi szabályozás egyre inkább formalizálja a bizonyítékok szolgáltatását, sőt (kisebb mértékben) azok mérlegelését, ma már az sem okoz különösebb gondot, hogy az erre vonatkozó szabályokat is algoritmizálják. Félreértés ne essék, nem tartom elképzelhetőnek, hogy a belátható jövőben a végső (egyszerűen nevezve: jogerős) döntést, ítéletet gép hozza meg. A bírói ítéletalkotás szerintem is az MI által támogatott, de emberi felülvizsgálatra szoruló döntés marad, ahol a megfontolásra nemcsak kellő (sokak szerint túl sok) idő, hanem egy eljárásrend is épül. A rendes és rendkívüli jogorvoslat éppen azt szolgálja, hogy az esetleges bírói hibát a jogorvoslat során eljáró bíróság korrigálja. Ebbe az eljárásrendbe, azon belül is az alsóbb fokú eljárásba viszont korántsem elképzelhetetlen a mesterséges intelligencia, azaz a robotbíró beillesztése. A robotbíróval szembeni ellenérzés egyik gyakran hangoztatott indoka az, hogy rugalmatlanná teszi az ítélkezést, mert az MI a múltat képes csak elemezni, így nem érzékeli azokat a változásokat, amelyek a joggyakorlat korrekcióját is indokolhatják. Úgy vélem, ez az érv a mesterséges intelligenciában rejlő potenciál lebecsülésén alapul, s talán éppen az ellenkezője igaz. ■

JEGYZETEK

[1] Sántáné Tóth Edit: A jövő az intelligens információs rendszereké. Figyelő, XXXV(41) 1991. 20-21. o.

[2] Mára már feledésbe merült, hogy egy évvel korábban Kaszparov győzött a géppel szemben, de hát ennek nincs igazán hírértéke.

[3] Az egyik kérdés az volt, hogy a versenyzőknek más szavakkal kellett kifejezni a "rokonszenves férfi fodrász" tartalmat. Watson villámgyorsan megadta a választ: "Szimpatikus hím hajvágó."

[4] Például az alvászavar okainak feltárásában.

[5] Harari, Yuval Noah: Homo deus. A jövő rövid története. Animus Kiadó, Budapest 2017. 271-273. o.

[6] A JP Morgan Chase Banknál 2016 júliusában bevezették a hiteligények MI általi elbírálását. Egy éves tapasztalatuk szerint ezzel 360 000 munkaórát takarítottak meg, ráadásul az elbírálás kevesebb hibával is járt. Menedzsment és Controlling Portál, 2017. szeptember 12.

[7] Kurzweil, Ray: A szingularitás határán. Ad Astra Kiadó, Budapest, 2013. 659. o.

[8] Kurzweil i. m. (7. lj.) 437. o.

[9] 2018 novemberében komoly felháborodást váltott ki, hogy Kínában génmódosított ikrek születtek. A génmódosítás a HIV-vírus elkerülését szolgálta, de ez a legtöbb országban - az eljárás következményeinek bizonytalansága miatt - tilalmazott. Kétségtelen, hogy a Kurzweil által vizionált beavatkozás más jellegű, de az vitathatatlan, hogy egyfelől képes alapvetően megváltoztatni az ember személyiségét, másfelől pedig ennek összes hatása, következménye szintén nem látható ma még világosan.

[10] Fine, David - Havas András - Hieronimus, Solveigh - Jánoskuti Levente - Kadocsa András - Puskás Péter: Átalakuló munkahelyek: az automatizálás hatása Magyarországon. McKinsey&Company, Budapest, 2018. május. Más helyen ezzel a kifejezéssel (cobotizáció) nem találkoztam, a Google kereső programja sem ismeri. Az említett tanulmány egyik szerzője szerint feltehetőleg a kooperáció (cooperation) és a robotizáció szavak összevonásával alakították ki a cobotizáció kifejezést, ami szerintem igen plasztikusan fejezi ki a tárgyalt helyzetet.

[11] Ha a reggeli időjárás jelentés ötven százalékos valószínűséggel jelez előre lakókörnyezetünkben esőt, több körülményt mérlegelve döntjük el, hogy magunkhoz veszünk-e esernyőt, vagy sem. Értékeljük, hogy mennyi időt töltünk a szabadban, milyen következményekkel jár, ha esetleg elázunk stb. De azt is figyelembe vesszük, hogy korábban mennyiben vált be az előrejelzés, azaz mennyire érdemes azt komolyan vennünk, főleg, ha induláskor az ablakon kinézve ragyogó napsütést érzékelünk. Estére elválik, hogy jól döntöttünk-e, de akárhogyan is jártunk el, ebben az esetben tipikusan jelentős következménye még a rossz döntésnek sem lesz.

[12] Az Egyesült Államokban nehezen lépnek túl az úgynevezett "defenzív orvoslás" gyakorlatán, így például a lehetséges összes - nem ritkán felesleges - vizsgálatot is elvégzik a betegen, félve az ott igen gyakori orvosi műhiba perektől.

[13] Kínában a kómába került betegek kezeléséről (mondjuk ki: nem ritkán az életben tartásáról) a gép dönt, amit etikailag sokan kifogásolnak.

[14] Az Európai Parlament és Tanács (EU) 2016/679. rendelete (2016. április 27.) a természetes személyeknek a személyes adatok kezelése tekintetében történő védelméről és az ilyen adatok szabad áramlásáról, valamint a 95/46/EK rendelet hatályon kívül helyezéséről szóló általános adatvédelmi rendelet (a továbbiakban: GDPR) 22. cikk.

[15] Lásd a befektetési vállalkozásokról és az árutőzsdei szolgáltatókról, valamint az általuk végezhető tevékenység szabályairól szóló 2007. évi CXXXVIII. törvény 4. § (2) bekezdés 1. pontját. Ennek gyakorlati problémáira nézve érdemes utalni arra, hogy az MNB csak 2017-ben öt állásfoglalást adott ki az algoritmikus kereskedést érintően.

[16] Mindez a Szovjetunió felbomlása után, 1998-ban derült ki. Petrov annak ellenére döntött így, hogy a nemzetközi helyzet alapján több jel is igazolta volna az amerikai rakétatámadás esélyét. Az amerikai elnök ezt közvetlenül megelőzően nevezte a Szovjetuniót a "gonosz birodalmának", s ekkor történt a koreai utasszállító repülőgép szovjet részről történt lelövése, amelynek következtében egy egyesült államokbeli szenátor is meghalt. Petrov tettét (amiről egyébként film is készült "Az ember, aki megmentette a világot az atomháborútól" címmel) az ENSZ is elismerte, továbbá megkapta a 2013. évi Drezdai-békedíjat.

[17] Hasonló eset voltaképpen az 1960-as években megtörtént Brezsnyev egyik magyarországi látogatása során. A lezárt Astoriánál a rendőrök nem engedtek át egy szirénázó mentőautót, noha a Brezsnyevet szállító konvoj még messze járt és csak jóval később ért oda. Ebben az esetben persze nem a mesterséges intelligencia adott a rendőröknek utasítást.

[18] A munka törvénykönyvéről szóló 2012. évi I. törvény (a továbbiakban: Mt.) 179. § (3) bek.

[19] Lásd i. m. (15. lj.)

[20] Az Európai Parlament és a Tanács 2014. május 15-i 2014/65/EU irányelve pénzügyi eszközök piacairól (MiFID II). Lásd még Tomori Erika: Kiegészítés "Az értékpapírjog és a tőkepiac szabályozása" 2016. évi kiadásához. 2017. szeptember 30. 38. o.

[21] Somkutas Péter - Kőhidi Ákos: Az önvezető autó szoftvere magas szintű szellemi alkotás vagy kifinomult károkozó? In Medias Res, 2017/2. 232-269. o.

[22] A veszélyes üzemi felelősség (amit tévesen neveznek sokan "objektívnek") alapjaiban a felróhatóságon alapul. A klasszikus vétkességi és a veszélyes üzemi felelősség tartalmi azonosságára Eörsi Gyula frappáns mondata világít rá leginkább, amely szerint "az adott helyzetben általában elvárható, hogy háríts el minden olyan káreseményt, amely nem külső és egyben nem elháríthatatlan".

[23] Az önvezető gépjárművek által okozott károkért fennálló felelősségre részletesebben lásd: Somkutas Péter - Kőhidi Ákos: Az önvezető autókkal kapcsolatos szerzői jogi és felelősségi kérdések. NMHH, Budapest, 2017.

[24] Fuglinszky Ádám: Kártérítési jog. HVG-ORAC, Budapest, 2015. 614. o.

[25] Ptk. 6:555. § (1) bek.

[26] Ford, Martin: Robotok kora. HVG Kiadó, Budapest, 2017. 168. o.

[27] A felmérés részleteiről lásd Zubor Zoltán: Dönthet-e egy ember életéről egy önvezető autó? https://piacesprofit.hu/, 2018. november 3.

[28] Tegmark, Max: Élet 3.0. HVG Kiadó, Budapest, 2018. 118. o. Hangsúlyozni kell, hogy a szerző a mesterséges intelligencia kutatás ismert és elismert szakértője, így nem egy, a valóságtól elrugaszkodott sci-fi író veti fel a robotbíró bevezetésnek szükségességét, egyben lehetőségét.

[29] Lásd Molnár Ambrus: Az ítéleti bizonyosság elméleti és gyakorlati kérdései. Forum Sententiarum Curie, 2016/1. 2-4. o.

Tartalomjegyzék

Visszaugrás

Ugrás az oldal tetejére