Megrendelés
Magyar Jog

Fizessen elő a Magyar Jogra!

Előfizetés

Erős Orsolya Júlia[1]: A mesterséges intelligencia (MI) a kártérítési felelősségi rendszerben[1] (MJ, 2022/7-8., 393-399. o.)

1. A mesterséges intelligencia jogi kutatásának aktualitása

Az elmúlt években a jogászi társadalom és a közélet egyik legvitatottabb és egyben legérdekesebb kérdéskörévé vált a mesterséges intelligencia (továbbiakban: MI) fejlesztése és használata. A téma aktualitásához vezető tényezők közül csak a legfontosabbakat említve: a MI felhasználási területeinek újdonsága, azok szabályozatlansága, valamint a széles alanyi érintettségi kör.

Bár a mesterséges intelligencia már több mint 50 éve létezik, jogi szabályozásának hiányosságai vitathatatlanok. Kétségtelen, hogy az elmúlt évek során felgyorsult ezen hiányosságok pótlására irányuló folyamat, azonban még korántsem dőlhetünk hátra. A MI fejlesztésének ütemét egy szemléletes adattal szeretném alátámasztani: eszerint a közzétett mesterséges intelligencia szabadalmi bejelentések száma 10 év alatt 400%-kal nőtt.[2]

A MI iránti megnövekedett érdeklődés az élet szinte minden területét érinti: az ipartól kezdve az egészségügyön át a közigazgatásig valamennyi szektor meghatározó eleme lehet, a köz- és magánszférán belül egyaránt. Azonban minél szélesebb a felhasználhatóság köre, annál szerteágazóbb és sokrétűbb jogi szabályozási kérdések merülnek fel. Ezen belül különbséget kell tenni a közjogi és a magánjogi vetületű kérdések között.

A közjogi vonatkozások közül leginkább a büntetőjogi és a közigazgatási jogi területek érintettek, de nagy hangsúlyt kapnak az alkotmányos alapjogok is. A jogalkotónak a második generációs emberi jogok fejlődésével is lépést kell tartania. Egy további - ezzel kapcsolatos - aspektus a MI-nak a dezinformáció és fakenews visszaszorítására irányuló küzdelemben való felhasználása. Ezzel kapcsolatban nem szabad azonban megfeledkezni a véleménynyilvánítás szabadságáról, valamint a lelkiismereti- és vallásszabadságról sem.

A mellérendeltségi viszonyokat szabályozó jogterületek kapcsán egyértelműen a polgári jog, valamint a munkajog területén várható további kérdések felmerülése. A munkavállaló például komoly kihívással szembesülhet, amikor az iparban egy MI alapú termelési eszközzel kell "versenyre kelnie". Az okosotthonok terjedésével arányosan pedig a magánszféra védelmére hivatott garanciákat is szükséges fokozottabban biztosítani.

Fontos rámutatni végül a téma versenyjoggal fennálló kapcsolatára is. Az online vásárlás vagy internetes keresés optimalizálására használt MI a fogyasztói jogok és az etikus marketing magatartás csorbulásának veszélyeit rejti.

A MI szabályozása körül kialakult vitát annak újszerűsége, szabályozatlansága, valamint fejlesztésének fellendülése és széles alanyi érintettségi köre eredményezi. Az új évtized kezdetét meghatározó COVID-19 világjárványban használt mesterséges intelligencia, amely a kórházi CT-berendezésekkel összekötve másodpercek alatt detektálni képes a koronavírus-fertőzés okozta elváltozásokat a tüdőben, utat mutat gyorsabb diagnózisok és az intelligens egészségügyi ellátás irányába.[3] Egy járványidőszakban is hasznos technológia egyértelműen széles társadalmi felhasználást és rengeteg adat kezelését vonja maga után. A mélytanuló szoftvereknek egyre több adatra van szükségük a pontos és személyre szabott diagnózisok elkészítésére. Az említett, egészségügyben alkalmazható technológia - miként a fent említett példáim is - előbb-utóbb a jogi környezet átalakítását eredményezheti.

2. A MI jogalanyiságáról

Elemzésem során a MI nem szerződő félként, hanem mint szerződés tárgya jelenik meg.[4] Véleményem szerint ugyanis az önálló jogalanyként történő elismerés olyan kérdéseket vetne fel, amelyekre egyelőre nem tudtunk megnyugtató és kielégítő válaszokat adni. Ilyen például, hogy a jogalanyisággal felruházott MI milyen jogok szerzésére válna képessé? Melyek továbbá azok a kötelezettségek, amelyekkel terhelhető lenne?

A jogalanyiság irányába tett lépésként ugyanakkor hivatkozhatunk Dél-Afrikára, amely országban a MI-t szabadalmi jog jogosultjaként ismerték el. Ennek azonban a mai napig megosztó a fogadtatása.[5] Az Európai Parlament sem zárkózik el a "robot-személyiség" kategóriájának megalkotásától, azonban a fogalmat leszűkítené a tisztán felügyeletmentesen működő tevékenységekre képes robotokra.[6]

- 393/394 -

Álláspontom szerint azonban a MI-alapú termékek jelenleg a dolog fogalmához állnak közelebb, mintsem az önálló jogalanyéhoz, működjenek akár hangfelismerő szoftverben vagy humanoid robotban.[7] Keserű Barna Arnold tanulmányában rávilágított, hogy "a mesterséges intelligencia valójában egy szerzői mű és egy testi dolog kombinációjának eredménye."[8]

3. A felelősségi kérdések jelentősége

A tudományos elemzések homlokterében mindezidáig elsődlegesen a felelősségi jogi kérdések vizsgálata állt. Ezzel kapcsolatban fontos kiemelni, hogy a MI szabályozása során is egy olyan jogi környezet kialakítása a cél, amely megfelelő keretet biztosít valamennyi érintett - így a MI programozók, a gyártók és a forgalmazók - számára, ugyanakkor garanciákat is nyújt a felmerülő új veszélyekkel szemben. Nem szabad szem elől téveszteni ugyanis a tényt, hogy az MI felhasználási területein milyen új kockázatok jelentek (és jelenhetnek még) meg.

A szakirodalomban arra hívják fel a figyelmet, hogy a felforgató technológia "nem lokalizáltan, egy-egy gazdasági szektor vagy iparág szintjén jelenik meg, hanem több iparágat is befolyásol".[9] A MI is számtalan helyzetben jelenhet meg a mindennapi élet területén.

Az alábbiakban a polgári jog rendszerében helyezzük el a mesterséges intelligenciával működő gépek károkozását. Az ezzel kapcsolatos egyik fő kérdés, hogy alkalmazhatóak-e a kontraktuális felelősségi szabályok a MI-t érintő szerződések esetén is? Egy további kérdés pedig az, hogy mely esetekben találkozhatunk deliktuális felelősségi alapú kárigénnyel a MI-val kapcsolatban?

3.1. Kontraktuális alapú felelősség

A Ptk. meghatározza azokat a konjunktív feltételeket, melyek a szerződésszegéssel okozott károkért való felelősség fennállásához szükségesek. A Ptk. 6:142. §-a kimondja: "Aki a szerződés megszegésével a másik félnek kárt okoz, köteles azt megtéríteni. Mentesül a felelősség alól, ha bizonyítja, hogy a szerződésszegést ellenőrzési körén kívül eső, a szerződéskötés időpontjában előre nem látható körülmény okozta, és nem volt elvárható, hogy a körülményt elkerülje vagy a kárt elhárítsa." A normaszövegből négy feltétel teljesülésének követelménye olvasható ki: a szerződés megszegése, a kár, az okozati összefüggés és a sikertelen mentesülés.[10]

A kontraktuális felelősségi alakzat feltételez egy - a kár bekövetkeztének pillanatában már létező - szerződést. A törvény - bár a felróhatósági alapnál szigorúbb - objektív felelősséget határoz meg, kimentésre mégis ad lehetőséget. A mentesülés feltételei: a károkozó körülmény ellenőrzési körén kívül esett, a szerződés megkötésének pillanatában nem volt előrelátható és elvárható sem volt, hogy azt a károkozó elhárítsa.[11]

A kontraktuális felelősség szerződésszegéshez kapcsolódik. A Ptk. csak a leggyakrabban előforduló szerződésszegési eseteket nevesíti. Ezek közül a késedelem, a lehetetlenné válás, a teljesítés megtagadása és a jognyilatkozat megtételének elmulasztása olyan jogintézmények, amelyek akkor is alkalmazhatóak, ha a szerződés tárgya MI alapú dolog. Hibás teljesítés esetén azonban különösen meghatározó a teljesített szolgáltatás minőségi jellemzője. A mesterséges intelligenciát is tartalmazó teljesítési kötelezettség eseteire való tekintettel ezért érdemes közelebbről megvizsgálni az ehhez kapcsolódó kérdéseket.

3.2. Hibás teljesítés

Vitathatatlan, hogy a szoftverek, az algoritmusok és a számítógépes programok is bírnak vagyoni értékkel. Természetesen, ahogy minden szolgáltatás esetén, egy mesterséges intelligencia szoftver esetén is fennáll a veszélye annak, hogy nem az előzetesen megállapodottak szerint történik a teljesítés, hanem az valamilyen fogyatékosságban szenved.

Álláspontom szerint a hatályos jogszabályi környezet is alkalmas a hibás teljesítés azon esetének kezelésére, amikor a szolgáltatás egy MI-alapú eszközre vonatkozik. Az 1/2012. (VI. 21.) PK vélemény[12] szerint ugyanis "a szolgáltatás értelemszerűen akkor is hibás lehet, ha a minősé-

- 394/395 -

gére nézve egyáltalán nincs külön konkrét szabványi vagy más előírás, valamint, ha kielégíti ugyan a szabvány előírásait, a rendeltetésszerű használat általános követelményeinek azonban valamely, a szabványban nem részletezett okból nem felel meg, vagyis egyéb hibája van." A PK vélemény is azt támasztja alá, hogy a konkrét, mesterséges intelligenciát szabályozni kívánó jogalkotói lépések megjelenéséig is adott a lehetőség kártérítési igény érvényesítésére hibás teljesítésre hivatkozás esetén.

Amennyiben a fogyasztó és a vállalkozó között szerződéses viszony állt fenn, a fogyasztó kedvezőbb helyzetbe kerülhet, ha a hibát a teljesítéstől 6 hónapos időtartamon belül fedezi fel. Ekkor a hibás teljesítési vélelemnek köszönhetően a vállalkozót terheli annak bizonyítása, hogy a teljesítés időpontjában a hiba az átadott szolgáltatásban még nem jelentkezett. A MI alapú eszközök esetén ilyenkor meglehetősen összetett bizonyításra lehet szükség. A MI gyorsan tanuló és változékony rendszerében fel kellene kutatnunk a hiba kialakulásához vezető számítási modellt. Egy hibás teljesítést eredményező algoritmus azonban nemcsak annak gyártásakor (programozáskor), hanem lényegében a MI "életének" bármely szakaszában "kialakulhat". Nehéz tehát a hibás teljesítést ebben az esetben a szolgáltatás teljesítésének időpontjában fennálló állapothoz viszonyítva megítélni. Az algoritmus változásával, tanulásával elképzelhető, hogy akár hónapok elteltével derül ki a hiba. Abban az esetben, amikor egyértelműen feltárható pl. metaadatok segítségével, hogy hol lett félreprogramozva a rendszer (mert rendelkezésünkre áll egy hibásan írt függvény vagy adathalmaz, programkód, stb.,), rá tudunk mutatni a hibára; ekkor egyszerűen megállapítható, hogy ez a szolgáltatás teljesítésének időpontjában is már jelen volt-e. Egy további eset, amikor jelentősége lehet a MI működési struktúrájában bekövetkező változások naplózásának. Utólag is megállapítható lehet ezáltal, hogy a szoftver már a teljesítéskor is olyan hiányosságokkal bírt, amelyek megteremtették a hiba kialakulásának lehetőségét.

A bizonyítási teher megfordítása fogyasztó és vállalkozás közötti szerződések esetén a fogyasztó számára jelentős kedvezményt jelent, hiszen az ellenbizonyításhoz szükséges, említett meta- és egyéb adatok alapvetően a fogyasztók számára nem elérhetőek.

A hibás teljesítés fő jogkövetkezményei a jogosultat megillető kellékszavatossági jogok, illetve igények. Az első (kijavítási jog, kicserélési jog), valamint a második lépcsős kellékszavatossági jogok (arányos árleszállításhoz való jog, kijavíttatás joga a kötelezett költségére, elállás joga) elérhetőségét MI alapú eszköz hibás teljesítésekor is biztosítani kell/lehet. Szükséges lehet azonban a mesterséges intelligencia szoftverekre specializálódott szakszervizek bevonása, ahol a vállalkozás elérhetővé teszi és igénybe is veszi hozzáértő szakemberek szolgáltatásait.

A második lépcsős jogok közül MI alapú eszközök esetén megfontolandó az arányos árleszállításhoz való jog alkalmazhatósága. Ezen jogosultságával a fogyasztó csak abban az esetben élhet, amikor az első lépcsős jogokat nem lehet érvényesíteni. Joggal merülhet fel a kérdés, hogy ilyen kijavíthatatlan/kicserélhetetlen hiba esetén indokolt-e az adott MI- alapú terméket, bár alacsonyabb áron, mégis hibásan megtartani. A mesterséges intelligencia működési modelljét jellemző alacsony fokú kiszámíthatóság abban az esetben is fennáll, amikor hibátlannak véljük annak rendszerét. Abban az esetben pedig, amikor nem egyszerűen hardware-es, hanem szoftveres fogyatékossága van a MI- alapú terméknek, különösen megnő a kár bekövetkeztének kockázata. Biztonságot és hosszútávon a MI-be vetett bizalmat erősítő lépés lenne az arányos árleszállításhoz való jog kivétele a rendelkezésre álló kellékszavatossági jogok közül. A kockázatok minimalizálása a jogalkotó célkitűzése. Minél több hibás eszközt tud távol tartani a jogalkotó a háztartásokból, annál kisebb a károk bekövetkeztének kockázata és kevesebb negatív példa ronthatja a mesterséges intelligencia felhasználhatóságának tapasztalatait.

A már említett szakszervizek bevonását különös jelentőséggel bírónak tartom a javítási igények felmerülése során. A javítás jellege meghatározó egy ilyen termék esetén. Szemléletes példa lehet egy intelligens kaputelefonba épített arc- és hangfelismerő MI rendszer meghibásodása. Orvoslása során ugyanis személyes jellegű adatokhoz kell hozzáférést biztosítani: a fogadott vendégek beazonosításukra alkalmas adatai, a címen való tartózkodásuk érkezési és távozási időpontjai, a látogatások időtartama, stb. kivétel nélkül elérhetővé válik. Egy hibás kaputelefon javítása vagy cseréje esetén olyan védendő jogok kerülhetnek veszélybe, mint a magánélet és a magánlakás sérthetetlenségéhez való jog, a becsülethez és a jóhírnévhez való jog, a magántitokhoz való jog, a képmáshoz és hangfelvételhez való jog. Látható tehát, hogy a Ptk.-ban is nevesített személyiségi jogok közül többet is érinthet egy esetleges visszaélés az adatokkal, vagy azoknak nem megfelelő gondosságú kezelése. Ráadásul az érintettek köre sem korlátozódik csupán az okos kaputelefon tulajdonosára, hanem kívülálló személyekre is kiterjedhet. Jogi személyek esetén pedig az üzleti adatok, a know-how kiszivárgása is potenciális kockázat lehet.

A MI hibáját tartalmazó eszközök tehát gyakran személyes, érzékeny, sőt különleges adatokat tárolnak magukban, amelyek megismerése a javítást végző programozó(k) számára szükségszerű velejárója a hiba korrekciójának. Tekintettel a különös szakértelmet igénylő feladatra és az adatvédelmi szempontokra, indokolt lehet jogszabályi szinten korlátozni, akkreditációhoz kötni azoknak a szervizeknek a körét, amelyek ilyen jellegű javítást, illetve cserét végezhetnek. Működésükhöz megfelelő jogi környezetet kell biztosítani, amelyet szigorú megfelelőségi szempontok szerinti, folyamatos minőségi ellenőrzés mellett garantálhatunk.

További fontos jogkövetkezménye lehet a hibás teljesítésnek a jótállási kötelezettség.[13] A jótállás a MI alapú ter-

- 395/396 -

mékek esetén is szerephez juthat, hiszen a gyakorlatban főleg az ún. rejtett hibák indokolják annak érvényesítését. A jótállás objektív felelősséget eredményez és elsődlegesen szerződésen alapul. A jogalkotó felismerte, hogy bizonyos termékek[14] és szolgáltatások[15] esetén szükséges a fogyasztót védendő, további biztosíték megteremtése, ezért jogszabály is előírhat kötelező jótállási kötelezettséget.

Mesterséges intelligenciát felhasználó termékek esetén is megfontolandó lehetne egy jogszabályon alapuló kötelező jótállási kötelezettség meghatározása. Ez a gyártói oldalt motiválná a fokozott gondosság terén, a fogyasztói oldalon pedig egyrészt csökkentené a MI-termékek iránti általános kiszolgáltatottság-érzést, másrészt ösztönözné a hibát észlelő felhasználókat annak mielőbbi elhárítására.

3.3. Deliktuális felelősség

Koltay András szerint: "ha sikerül meghatározni, hogy ki felel a mesterséges intelligencia által okozott károkért (a tulajdonos, a fejlesztő vagy az üzembentartó, azaz akinek az érdekében a technológiát alkalmazzák), az alkalmazandó felelősségi alakzatot is bizonnyal meg lehet majd találni."[16] Amennyiben tehát beazonosítottuk a felelősség alanyát, a megfelelő felelősségi alakzat megtalálása már könnyebb feladatot jelent.

A Ptk. 6:159. §-ában írt általános deliktuális felelősségi szabály szerint: "Aki másnak jogellenesen kárt okoz, köteles azt megtéríteni. Mentesül a felelősség alól a károkozó, ha bizonyítja, hogy magatartása nem volt felróható." Ennek alapján a deliktuális felelősség fogalmi elmei: a jogellenesség, a felróhatóság, az okozati összefüggés és a kár.[17]

A jogellenesség vélelme minden olyan okozott kárra vonatkozik, amelyet a törvény kifejezetten nem sorol a kivételek körébe. Azonban a mesterséges intelligenciát használó szoftverek, termékek által okozott károk tekintetében azonban sokkal érdekesebb kérdés lehet, hogy milyen helyzet áll elő akkor, amikor jogellenességet kizáró körülmények is felmerülnek.

A Ptk. 6:520. §-a szerint nem jogellenes a károkozás, ha a károkozó a kárt a károsult belegyezésével okozta, ha jogos önvédelem/önhatalom keretében, vagy szükséghelyzetben okozta, vagy jogszabály által megengedett magatartással okozta. Vizsgáljuk meg, hogy ilyen esetekben hogyan tudjuk alkalmazni a megfelelő felelősségi rendelkezéseket.

A károsult beleegyezésével okozott károk szempontjából irreleváns, hogy azt mesterséges intelligenciát felhasználva vagy anélkül okozták, hiszen a beleegyezés a jogellenességet mindkét esetben ki fogja zárni. A jogtalan támadás vagy a jogtalan és közvetlen támadásra utaló fenyegetés elhárítása érdekében, valamint a szükséghelyzetben okozott kár eseteiben a mesterséges intelligenciának fel kell ismernie azt, hogy különleges helyzetbe került és arra reagálnia kell. Ráadásul nem szabad elfeledkeznünk, hogy a törvényi többletfeltételnek (a szükséges, illetve az arányos mértéknek) is meg kell felelnie.

A szükséghelyzetről a Ptk. 5:26 § (1) bekezdése rendelkezik. Ennek alapján olyan különleges helyzetről van szó, amely akár jogellenes károkozásnak is tűnhet, azonban olyan tényező játszik közre a káresemény bekövetkezte során, amely kizárja annak jogellenességét. A szükséghelyzetet eredményező események általában hirtelen, váratlanul jelentkeznek (pl. természeti katasztrófa). A jogalkotó - elismerve ezeket a kivételes helyzeteket - lehetőséget ad a jogellenesség kizárására, az arányosság követelményének előírásával.

Kérdésként merül fel, akár még egy mesterséges szuperintelligencia esetén is,[18] hogy egy szoftvernek megtanítható-e egyáltalán a szükséghelyzet mint fogalom, illetve lehetséges-e az, hogy egy ilyen eszköz képességet kapjon a szükséghelyzet felismerésére. Véleményem szerint ennek a szükséghelyzet számos megjelenési formája korlátot szab. Ehhez kapcsolódva merülnek fel olyan etikai dilemmák, amelyek szinte feloldhatatlan kihívások elé állítják a programozókat. Így többek között az a kérdés, hogy a rendes közúti közlekedéstől eltérő helyzetekben, például egy elkerülhetetlen baleset kilátásba helyezésekor kit mentsen meg az önvezető jármű.[19]

Ezzel kapcsolatban érdemes utalni arra, hogy Németországban már 2017 óta foglalkoznak azokkal a kérdésekkel, amelynek feladata az autonóm járművek döntésével kapcsolatos iránymutatások kidolgozása. A diszkrimináció tilalom érvényesülése érdekében rámutattak, hogy egy elkerülhetetlen baleset során is tilos az emberek közötti bármilyen megkülönböztetés.[20]

Nehezen találhatunk programozót, aki képes olyan al-

- 396/397 -

goritmust alkotni, amely a számos formában megjelenő szükséghelyzet felismerésére alkalmazható lenne. De ha ez sikerülne is, még nehezebb feladat lenne a felismert szükséghelyzetre adott etikus válaszreakció programozása. Ha a technika állása ezt lehetővé is tenné, felmerülhet a kérdés: ha a MI fel is ismerte, hogy éppen szükséghelyzetbe került, mit kell egy ilyen helyzetben tennie? Például egy mesterséges intelligenciával vezérelt tűzoltóautó, amelynek algoritmus által betáplált célja megtalálni az optimális helyet a tűz oltására, meg fogja tudni hozni azt a döntést, hogy egy útjában álló személyautót sodorjon odébb, vagy a szomszéd virágoskertjén haladjon tovább?

Véleményem szerint, akár vállalkozik ilyen esetek felkészítésére a MI szoftver gyártója, akár nem, az üzemeltetői felelősség megállapíthatóságán ez nem fog változtatni. Ebben az esetben is egy mögöttes természetes személyt kell keresni, akit az üzemeltetői felelősség terhel. Ez a gondolat vezet minket tovább a felróhatóság kérdésére.

A károkozó magatartás felróhatósága is értelmezhető fogalmi elem a mesterséges intelligenciát használó termékek károkozása kapcsán. Marton Géza megállapítását a felgyorsult technika világa még inkább felértékeli: "A magatartás, melynek jogellenességéről szó lehet...csak embertől eredhet...Ahol első látszatra enélkül van felelősség (pl. állat ténye, üzem körében előforduló esemény, stb.), ott a tényállásban mindig van egy olyan elem, mely ezt a természeti eseményt valamely ember magatartásával kapcsolatba hozza s ezzel a felelősségre vonás tényét megállapítja."[21] Ezt a megállapítást a mesterséges intelligenciát használó gépek és eszközök károkozására is irányadónak tartom: ezeknél is minden esetben keresni kell egy mögöttes emberi magatartást.

A pozitív (tevőleges) károkozó magatartás felróhatóságát az elvárhatóság tesztjén keresztül egyértelműen meg tudjuk ítélni. A negatív (mulasztásos) magatartások esetében azonban összetettebb a kérdés. Vannak olyan esetek, amikor a mulasztás megállapítható korábban előírt jogszabályi vagy szerződési kötelezettség hiányában is.[22] Fézer Tamást idézve: "A mulasztás jogellenességének megállapítása során nem azon van a hangsúly, hogy konkrét jogszabály vagy akár a felek szerződése cselekvési kötelezettséget írjon elő, hanem az bír kiemelt jelentőséggel, hogy valamely, egyébként ésszerűen felismerhető és elvégezhető cselekvés alkalmas lett volna a károsodás megelőzésére."[23] Ennek alapján pedig azt mondhatjuk, hogy speciális előírás nélkül is terhelheti mulasztás miatt kártérítési felelősség a mesterséges intelligencia tulajdonosát, gyártóját vagy a programozókat.

Felróhatóság kérdésében az adott szakma szabályainak betartása egyfajta minimum követelmény. Ez azt jelenti, hogy a szakmai tevékenységet folytató személy felróhatóságát megalapozza a szabályszegés; viszont az a tény, hogy maradéktalanul eleget tett a szakmája szabályainak, nem fog automatikusan mentesülést kiváltani. A bírói gyakorlat is afelé hajlik, hogy egy olyan helyzet, amely a szabványoknak és műszaki előírásoknak megfelel, önmagában még nem alkalmas a kárfelelősség alóli kimentésre.[24]

Értelemszerűen vannak bizonyos helyzetek, amikor nem elegendőek a minimum követelmények betartása. Ilyenkor fokozott biztonságot nyújtó technikát is szükséges alkalmazni az esetleges káresemények bekövetkezésének elkerülése érdekében. A MI vonatkozásában ezért a kérdés úgy merülhet fel: fel kellett volna-e előre készíteni a rendszert (tanítással, üzemeltetői leírással, stb.) az adott eseményhez hasonló szituáció kezelésére? Ahhoz, hogy akár a MI gyártójának, akár felhasználójának a felróhatóságát vizsgálni tudjuk, meg kell határoznunk azt az elvárhatósági mércét, amelyhez képest kijelenthetjük, hogy a kár bekövetkezése előre látható volt. Ennek a kérdésnek a megítélésében komoly feladat vár a bíróságokra.

Az okozati összefüggés megállapítása szintén feltétele a felelősség kimondásának. Az eseményt kiváltó okok végtelen számának az előreláthatóság szab határt. Kizárólag azok a mozzanatok lényegesek, amelyek valamilyen szinten kiszámíthatóak, előre megjósolhatóak voltak. Az előreláthatóság vizsgálata a felelősség megállapításának kiindulópontja. A Ptk. 6:521. §-a szerint: "Nem állapítható meg az okozati összefüggés azzal a kárral kapcsolatban, amelyet a károkozó nem látott előre és nem is kellett előre látnia."

Véleményem szerint a mesterséges intelligencia algoritmusát író programozó, illetve azt a később adathalmazokkal ellátó szakemberek gondosságának szintjétől függhet a felmerülő károk előreláthatósága. A felhasználó a termék biztonságába vetett bizalmával egyúttal a gyártónak van kiszolgáltatva. A kockázati tényezők ismeretében sem elvárható egy laikus felhasználótól, hogy megfelelő technológiai ismeretek nélkül előre vetíthesse egy MI alapú szoftver működési struktúrájának lehetséges kimeneteleit.

A törvény szerint, ahogyan a kárt okozó magatartást, úgy annak kárral való szoros kapcsolatát is a károsultnak kell bizonyítania. Ezzel kapcsolatban megjegyezném, hogy a törvény az okozati összefüggés bizonyításával aránytalan nehézség elé állíthatja a károsultat, így például abban az esetben, amikor a kárt bonyolult, magas szinten programozott, MI-t használó rendszer okozza. Az ezzel kapcsolatban felmerült problémára és az arra adott lehetséges megoldásokra alább még kitérek.

3.4. Veszélyes üzemi felelősség

A szerződésen kívüli felelősség általános alakzata a felróhatósághoz kapcsolódik. A mesterséges intelligenciát használó termékek esetén azonban gyakoribb lehet a deliktuális felelősség különleges alakzatainak előtérbe

- 397/398 -

kerülése. Így például egy MI szoftverrel működő autonóm járművel[25] okozott kár már a veszélyes üzemi felelősség szabályozása alá tartozik. Ezért a deliktális felelősség egyes speciális eseteinek a vizsgálata is szükségszerű.

Az autonóm járművel okozott kár egyértelműen a veszélyes üzemi felelősség kategóriába tartozik, hiszen a gépjármű üzemeltetést a bírói gyakorlat régóta ez alá a speciális felelősségi alakzat alá sorolja.

A Ptk. 6:535. § (1) bekezdése szerint: "Aki fokozott veszéllyel járó tevékenységet folytat, köteles az ebből eredő kárt megtéríteni. Mentesül a felelősség alól, ha bizonyítja, hogy a kárt olyan elháríthatatlan ok idézte elő, amely a fokozott veszéllyel járó tevékenység körén kívül esik." Látható, hogy a törvény szigorúbb feltételeket állít a mentesüléshez az elé, akinek az érdekében a veszélyes üzem működik.

Kérdés, hogy megfelelő megoldást jelent-e az üzembentartóra terhelni a felelősséget abban az esetben is, ha gépjárműve MI szoftverrel rendelkezik, és esetleg épp annak meghibásodása okozta a kárt?

Amikor egy kártérítési igényérvényesítés során vizsgáljuk a gépjárművel okozott kár kiváltó okát, a jármű alkatrészeinek egyenként, önmagukban is jelentősége lehet. A meghatározó azonban ekkor is az üzembentartó karbantartási kötelezettségének való megfelelés lesz. Természetesen nem kizárt a termékhiba megállapítása sem, ami végső soron a gyártó felelősségéhez vezethet.

Elvonatkoztatva különleges adottságaitól a MI szoftver ugyanúgy a jármű alkatrészeként tekinthető, mint a GPS, az aktív felfüggesztés, vagy az adaptív tempomat. Annak összetettsége, gyártási folyamatainak bonyolult háttere nem alapozza meg azt, hogy a járműtől külön kezelhessük. Az üzemeltetőt változatlanul objektív felelősség terheli például egy meghibásodott fékrendszer vagy megrepedő szélvédő esetén is. Indokolatlan lenne a gépjármű üzembentartójának helyzetét enyhébb, felróhatóságon alapuló felelősség szerint megítélni, csak azért, mert a járműve mesterséges intelligencia támogatta rendszerrel rendelkezik. Indokolatlannak és túlzónak tartanék azonban egy teljesen objektív, a mentesülést kizáró felelősségi szabályozás kialakítását is. Ennek ugyanis nem kívánt hatása az lenne, hogy gátat szabna a gyártás és fejlesztés lendületének, visszavetve a hazai fejlesztők versenyképességét. A közlekedésben felhasználható MI hazai jogi szabályozása során is mintaként szolgálhat ezért a legutóbb 2021 nyarán módosított német közúti forgalmi törvény,[26] amely az autonóm járművek üzemeltetőinek felelősségét mondja ki.[27]

Végül csupán gondolatébresztőként vetem fel, hogy megfontolandó lehet önmagában a mesterséges intelligencia alapú termékeket is veszélyes üzemnek minősíteni. Bírói döntések alapján[28] veszélyes üzemi "...az a tevékenység, amelynek a folytatása során fellépő, viszonylag csekély mértékű rendellenesség is súlyos kárral fenyegető veszélyhelyzetet - életveszélyt, maradandó fogyatékosságot okozó sérülés, maradandó egészségromlás vagy tetemes vagyoni hátrány bekövetkezésének veszélyét - alakíthat ki."

A szinte minden területen felhasználható MI - az egészségügytől a közlekedésen keresztül a közigazgatásig - magában hordozza a szélesebb károsulti kör lehetőségét. Ezért különösen igaz az az állítás a MI-szoftverekre is, amely szerint csekély mértékű rendellenességük esetén is óriási károk keletkezhetnek. Az érintettekre így egyfajta kockázatközösségként (veszélyközösség) is tekinthetünk. Ezzel kapcsolatban utalnánk Menyhárd Attila álláspontjára, aki szerint MI esetén is "a biztosítás válik elsődleges kockázattelepítési megoldássá", ugyanis "a biztosítás nemcsak allokálja a kockázatokat, de szét is teríti azokat a közösség tagjai között."[29] Az Európai Parlament állásfoglalása is hasonló megoldást tart ajánlatosnak a robotika körében. Ez egy ún. "kötelező robot-felelősségbiztosítás" lenne, amelyet olyan pénzalappal támogatnának meg, mely az igazán nagy kockázatú, kárkötelmet keletkeztető események bekövetkezésekor is szolgálhat biztosítékul.[30]

3.5. Termékfelelősség

A Ptk. 6:550. §-a szerint a termékkárért a hibás termék gyártója felelősséggel tartozik. A Ptk. 6:551. §-a szerint termék minden ingó dolog, akkor is, ha utóbb más dolog alkotórészévé vált. A törvény az ingatlanokat és a szolgáltatásokat kizárja a termék fogalmából, de további szűkítést nem találunk, így ingók esetén irrelevánsak a termék további tulajdonságai. Sem annak mérete, értéke, halmazállapota vagy használt volta nem vonja ki a terméket a termékfelelősség alól.[31]

Kérdés, hogy a MI alapú eszközök meghibásodása esetén is érvényesíthető-e termékfelelősségi igény? Mindenekelőtt a szoftverek termékfelelősségi szempontból történő megítélése képezte szakmai viták tárgyát.[32] A hálózati és információs rendszerek (HIR) biztonságával foglalkozó európai uniós irányelv[33] alapján azonban egyér-

- 398/399 -

telműen megnyílt az út abba az irányba, hogy bizonyos szoftvertermékekre is a termékfelelősség hatályos szabályai vonatkozzanak.[34]

A mesterséges intelligenciával támogatott termékek esetén különösen hasznosnak bizonyulhat a Ptk. az a fordulata, amely külön kiemeli a dologkapcsolatok közül az alkotórészt. Önmagában a MI-t ennek hiánya miatt sem zárnám ki a termékek köréből, hiszen egy megírt és betanított algoritmus is értékkel bíró, birtokba vehető ingó dolog lehet, amely tulajdonjog tárgyát képezheti. A gyakorlatban azonban jellemzőbb az az eset, amikor a fogyasztó nem csupán algoritmust szeretne vásárolni, hanem egy, már MI-val eleve felszerelt terméket. A MI a legtöbb esetben tehát nem fődologként, hanem alkotórészként fog megjelenni a termékfelelősségi igények érvényesítése során.

Az alkotórész osztja a fődolog jogi sorsát.[35] Ha tehát ezen fődolog-alkotórész viszonyon keresztül tekintünk a MI-val támogatott termékre, láthatjuk, hogy a MI alkotórészként való minősítése ezekben az esetekben a termékfelelősségi igény megalapozója lehet.

Egy gépjármű kerekének termékhibája esetén - amely szintén a termék (autó) alkotórésze - a gépjármű gyártójára (esetleg annak forgalmazójára) telepíthetjük a hibás termékkel való károkozásért fennálló felelősséget. A gyártó és annak beszállítója között ezután kontraktuális alapú kárkötelem keletkezhet. Hasonló a helyzet akkor is, amikor a beszállító egy szoftvergyártó cég, amely termékhibás sávtartó MI-szoftvert szállít a gépjármű gyártójának, amely a fogyasztónál kárt okoz. Példánkban a szoftvernek fel kellett volna ismernie, hogy a jármű nem a menetirány szerinti sávban közlekedik, egy hibás algoritmus miatt azonban azt elhagyva egy másik autónak csapódik, abban komoly anyagi kárt okozva. A gépjármű üzembentartója és a károsult közötti deliktuális kötelemen kívül, a kárt okozó fél termékfelelősségi igényt érvényesíthet a jármű gyártójával szemben a hibás gépjármű miatt. A jármű gyártója pedig ebben az esetben is a beszállító irányába érvényesíthet követelést a hibás algoritmus miatt. Termékfelelősségi szempontból tehát valójában nincs különbség aközött, hogy mesterséges intelligenciával, vagy anélkül okozták-e a kárt. A termékfelelősség mindkét esetben a gyártót fogja terhelni.

A Ptk. 6:554. § (1) bekezdése alapján a termék akkor hibás, ha nem nyújtja azt a biztonságot, amely általában elvárható, figyelemmel különösen a termék rendeltetésére, észszerűen várható használatára, a termékkel kapcsolatos tájékoztatásra, a termék forgalomba hozatalának időpontjára, a tudomány és a technika állására. A termék rendeltetéséhez mért biztonsági követelményt valószínűleg eltérően fogja a bírósági gyakorlat megítélni a különböző MI-rendszerek esetén. A gyakorlatban nyilvánvalóan más biztonságot várhatunk el például egy webáruház által használt, marketing támogatási célú MI szoftvertől és egy olyantól, amely az utasszállító repülőgép fékszárny koordinációjáért felel.

A Ptk. 6:554. § (3) bekezdése alapján a károsultnak nemcsak a hibás termék által okozott kárt, de a termék hibáját is bizonyítania kell. A kérdéskör nehézségére fentebb az ok- okozati összefüggés kapcsán már felhívtam a figyelmet. Az új technológiák elkerülhetetlen velejárói az új, ismeretlen kockázati tényezők. A termékhiba bizonyítása azonban aránytalan terhet róhat a fogyasztókra. A mesterséges intelligencia algoritmusának változása, a megalkotásától kezdve végig kíséri "élete során". Folyamatos tanulása állandó változásban tartja a szoftvereket. A károsult szempontjából ez nyilvánvalóan nehezítő körülmény az okozati összefüggés bizonyítása során, hiszen az megfelelő szakértő igénybevétele nélkül nem lehetséges.

Utalva az Európai Bizottság vonatkozó jelentésére,[36] mivel az átláthatatlanság nehezíti a kár okának felderítését, ezért a jelentés megoldásként javasolja a fejlesztők által - szükség esetén - közzé tehető metaadatokat, amely a termékhiba feltárásának megkönnyítésével a termékfelelősségi igények érvényesítését is közelebb hozza a fogyasztóhoz.

Megkérdőjelezhetetlen, hogy egy körültekintő, MI-specifikus jogszabályi környezet kialakítása sok értelmezési kérdésre adhat választ. Egy egységesítő, egyértelmű iránymutatás a jogalkotó részéről a jogbiztonság előnyére válna, de a jelenleg hatályos jogszabályok alapján sem lehetetlen termékfelelősségi igényt érvényesíteni.

4. Összegzés

Kutatási előfeltevésem volt, hogy a magánjogi felelősségi rendszerünk alkalmas a MI gyártók és felhasználók felmerülő kárfelelősségi igényeinek méltányos kielégítésére. Összességében megállapíthatom, hogy előfeltevésem beigazolódott: a hatályos kontraktuális és deliktuális felelősségi szabályozást alkalmasnak találtam olyan kártérítési igények érvényesítésére is, amelyek MI általi károkozáshoz kapcsolódnak. Azokat a területeket is igyekeztem bemutatni, amelyeket közvetlenebbül érinthetnek az új, innovatív megoldások.

A mesterséges intelligencia egyszerre több gazdasági szektort is befolyásoló technológia, amely megnyithatja a legtöbb tudomány előtt a robbanásszerű fejlődés lehetőségét. Mindennapi életünk meghatározó terméke lehet, hiszen már most is hatással van a társadalmi és gazdasági élet minden szintjére. Világos az igény a társadalom felől megbízható MI fejlesztésre és felhasználására A jogot azonban kihívás elé állítja kettős természetével: egyszerre jelent számtalan problémára megoldást, ugyanakkor pedig sokrétű veszélyt. A MI-hoz hasonló, határterületeket érintő technológiák megjelenése tartja igazán dinamikában a jogrendszerek innovációját és mutatja be egyben azok reagálóképességét is. ■

JEGYZETEK

[1] A Társadalomtudományi Kutatóközpont Jogtudományi Intézete által meghirdetett "A mesterséges intelligencia jogi felelősségének vetületei" című tudományos pályázatának II. helyezett pályaműve. A tanulmány a 138965. számú NKFIH pályázat és a Mesterséges Intelligencia Nemzeti Laboratórium keretében készült, az Innovációs és Technológiai Minisztérium, valamint a Nemzeti Kutatási, Fejlesztési és Innovációs Hivatal támogatásával.

[2] http://europarl.europa.eu/news/hu/headlines/society/20201015STO89417/a-mesterseges-intelligencia-szabalyozasa-az-ep-allaspontja [Forrás: Európai Bizottság (2019), IPOL(2020)].

[3] http://ec.europa.eu/info/strategy/recovery-plan-europe/recovery-coronavirus-success-stories/health/artificial-intelligence-can-help-us-combat-coronavirus_hu.

[4] Utalni kell azonban a MI jogalanyiságával kapcsolatos nézetekre is. Erről ld.: Boncz Bettina - Szabó Zs. Roland: Etikus és biztonságos mesterséges intelligencia. Magyar Tudomány, 2021/9. 33., Klein Tamás - Tóth András (szerk.): Technológiajog - Robotjog - Cyberjog. Budapest, Wolters Kluwer, 2019. 197.

[5] http://hvg.hu/tudomany/20210802_mesterseges_intelligencia_szabadalmi_jog_dabus.

[6] Az Európai Parlament 2017. február 16-i állásfoglalása a Bizottságnak szóló ajánlásokkal a robotikára vonatkozó polgári jogi szabályokról (2015/2103(INL) 59. f) pont.

[7] Stefán Ibolya: A mesterséges intelligencia jogi szabályozásának egyes kérdései. Miskolci Jogi Szemle, 2020/3. 187-190.

[8] Keserű Barna Arnold: A mesterséges intelligencia magánjogi mibenlétéről. In: Lévayné Fazekas Judit - Kecskés Gábor (szerk.): Az autonóm járművek és intelligens rendszerek jogi vonatkozásai. Győr, Universitas- Győr, 2020. 207.

[9] G. Karácsony Gergely: Innovatív jogalkotói megoldások a mesterséges intelligencia-alapú rendszerek szabályozására. In: Török Bernát - Ződi Zsolt (szerk.): A mesterséges intelligencia szabályozási kihívásai. Budapest, Ludovika Egyetemi Kiadó, 2021. 158. "A felforgató technológia fogalmát a szakirodalomban Christensen és Bower műve vezette be, akik ezt a jelenséget úgy írták le, mint olyan technológiai újítás, amely felbolydulást, illetve átrendeződést okoz a meglévő piaci struktúrában és a domináns cégek körében azáltal, hogy olcsóbb, egyszerűbb és kényelmesebb, mint a domináns piaci technológia." Lásd Török-Ződi: i.m. 159.

[10] Bodzási Balázs - Tőkey Balázs (szerk.): 2013. évi V. törvény a polgári törvénykönyvről kommentárja. Budapest, Magyar Közlöny Lap- és Könyvkiadó Kft., 2021. 1571.: "A Polgári Törvénykönyvről szóló 2013. évi V. törvényhez fűzött miniszteri indokolás világossá teszi, hogy a kontraktuális felelősség tényálláselemei, a tényálláselemek bizonyítására vonatkozó szabályok és elvek - a szigorúbb kimentéstől eltekintve - változatlanok, vagyis a szerződésszegést (lásd a 6:137. §-át), a kár beálltát és mértékét, valamint a szerződésszegés és a kár közötti ok-okozati összefüggést a károsultnak kell bizonyítania (Indokolás 586.). A károkozó pedig az okozott kár megtérítésére lesz köteles, ha nem tudja magát kimenteni a 6:142. §-ba foglalt feltételrendszer alapján."

[11] Fazekas Judit - Menyhárt Ádám - Kőhidi Ákos: Kötelmi jog. Általános rész. Budapest, Gondolat Kiadó, 2018 173.

[12] 1/2012. (VI. 21.) PK vélemény a hibás teljesítéssel kapcsolatos egyes jogalkalmazási kérdésekről.

[13] A közelmúltban bevezetett, "sávos" rendszernek is nevezett módosítás is a téma aktualitását és fontosságát támasztja alá, melynek lényege, hogy a termék eladási árának növekedésével a kötelező jótállás időtartama is lépcsőzetesen növekszik. Lásd: 151/2003. (IX. 22.) Korm. rendelet az egyes tartós fogyasztási cikkekre vonatkozó kötelező jótállásról 2. § (1) bekezdés. Eszerint a jótállás időtartama: a) 10 000 forintot elérő, de 100 000 forintot meg nem haladó eladási ár esetén egy év, b) 100 000 forintot meghaladó, de 250 000 forintot meg nem haladó eladási ár esetén két év, c) 250 000 forint eladási ár felett három év.

[14] Például műszaki cikkek és elektromos termékek: 151/2003. (IX. 22.) Korm. rendelet az egyes tartós fogyasztási cikkekre vonatkozó kötelező jótállásról.

[15] 249/2004. (VIII. 27.) Korm. rendelet az egyes javító-karbantartó szolgáltatásokra vonatkozó kötelező jótállásról.

[16] Török-Ződi: i.m. 11.

[17] Lásd Fazekas-Menyhárt-Kőhidi: i.m. 254.

[18] A szuperintelligencia fő jellemzője, hogy képes az emberi tudáson túlmutató következtetéseket, döntéseket hozni. Lásd Gyires-Tóth Bálint: A mélytanulás múltja, jelene és jövője In: Híradástechnika Különszám 2020. 23-24. A mesterséges szuperintelligencia (Artificial Super Intelligence, ASI) a MI három fő típusa szerint, (amelyek az általános, a keskeny és a szuper MI) a legmagasabb fejlettségi szintű.

[19] http://forbes.hu/uzlet/elgazoljak-e-az-onvezeto-autok-a-biztositasi-piacot/

[20] Szőke Gergely László - Hohmann Balázs: A Trolley problem gondolatkísérlet vonatkozásai az autonóm járművek terén. In.: Lévayné Fazekas Judit - Kecskés Gábor (szerk.): Az autonóm járművek és intelligens rendszerek jogi vonatkozásai. Győr, Universitas- Győr, 2020. 313.

[21] Idézi: Fazekas-Menyhárt-Kőhidi: i.m. 259.

[22] Fuglinszky Ádám: Kártérítési jog. Budapest, HVG-ORAC Kiadó, 2015. 219.

[23] Fézer Tamás: A kártérítési felelősség általános alakzata. In.: Fézer Tamás (szerk.): A kártérítési jog magyarázata. Complex, Budapest 2010. 87.

[24] BH 2006.10.

[25] A 6/1990. (IV. 12.) KöHÉM rendelet 18. sz. melléklete alapján autonóm jármű: automatizáltság szintjének (nem autonóm/ részben autonóm/ teljesen autonóm) függvényében a jármű vezetője kézi irányítást vehet át az üzemeltetés során.

[26] Straßenverkehrsgesetz (StVG).

[27] Kovács Kázmér: Önvezető autók" üzemeltetése során felmerülő felelősségi kérdések- Közlekedési balesetek és közlekedő ember c. szeminárium. Konferencia előadás, Budapest, 2017.

[28] BDT 2012.2661.

[29] Menyhárd Attila: Az információs technológiai fejlődés hatása az állam szerepvállalásaira. In: Török Bernát - Ződi Zsolt (szerk.): A mesterséges intelligencia szabályozási kihívásai. Budapest, Ludovika Egyetemi Kiadó, 2021. 71.

[30] Jelentés a Bizottságnak szóló ajánlásokkal a robotikára vonatkozó polgári jogi szabályokról (2015/2103(INL)) 57-58. pont

[31] Fazekas-Menyhárt-Kőhidi: i.m. 294.

[32] Somkutas Péter - Kőhidi Ákos: Az önvezető autó szoftvere magas szintű szellemi alkotás vagy kifinomult károkozó? Medias Res, 2017/2., 32.

[33] Az Európai Parlament és a Tanács (EU) 2016/1148 irányelve (2016. július 6.) a hálózati és információs rendszerek biztonságának az egész Unióban egységesen magas szintjét biztosító intézkedésekről, (50) preambulum bekezdés.

[34] Klein-Tóth: i.m. 279.

[35] Lenkovics Barnabás: Magyar polgári jog. Dologi jog. Budapest, Eötvös Kiadó, 2019. 45.

[36] Jelentés a mesterséges intelligencia, a dolgok internete és a robotika biztonsági és felelősségi vonatkozásairól COM/2020/64 final, 10.

Lábjegyzetek:

[1] A szerző joghallgató, Széchenyi István Egyetem Deák Ferenc ÁJK.

Tartalomjegyzék

Visszaugrás

Ugrás az oldal tetejére