Megrendelés

Pusztahelyi Réka[1]: Emberi döntéshozatalt segítő, illetve kiváltó mesterséges intelligencia alkalmazásával okozott károkért való felelősség* (MJSZ, 2020. 3. Különszám, 132-139. o.)

1. Bevezetés

Emberi döntéshozatalt segítő, illetve kiváltó mesterséges intelligencia (a továbbiakban: MI vagy AI) által felvetett sokrétű problémakörben alapvető kérdésként merül fel, kit (mit) kell olyan cselekvő entitásnak tekintenünk, aki kárt "okoz" illetve akinek a károkozó magatartás a felelősségrevonás szempontjából beszámítható. A mind önállóbb működésre és döntéshozatalra képes AI a polgári jogi kártérítési felelősség alaptételeit állítja majd kihívás elé, így az emberi magatartás fogalmát, illetve a nem emberi cselekmények beszámíthatóságát, továbbá a kárért felelős személy kijelölését szolgáló törvényi rendelkezéseket és az alapjukat képező jogpolitikai indokokat. A fejlesztés jelenlegi stádiumában viszont a meglévő felelősségi szabályok alkalmazhatóságát is szükséges elemezni.

Az EFOP EFOP-3.6.2-16-2017-00007 azonosító számú, Az intelligens, fenntartható és inkluzív társadalom fejlesztésének aspektusai: társadalmi, technológiai, innovációs hálózatok a foglalkoztatásban és a digitális gazdaságban című projektben folytatott kutatásaim mögötti fő hipotézis az volt, hogy a magyar veszélyes üzemi felelősségi szabály oly mértékben általános tényállás (generálklauzula), hogy a bírói jogfejlesztő értelmezés által képes lehet megbirkózni az újonnan feltörekvő és jellemzően diszruptív technológiákból fakadó kártérítési felelősségi problémákkal. Mindeközben természetesen figyelemmel kellett kísérnem az Európai Unió szabályozási törekvéseit illetve a probléma kezelésére rendelkezésre álló jelenlegi intézményeit (termékfelelősség, kötelező gépjárműfelelősségbiztosítás).

A veszélyes üzemi felelősség alapvető feltétele a folytatott tevékenység fokozottan veszélyes jellege. Fel kell mérnünk először tehát az autonóm mesterséges intelligencia működéséből fakadó kockázatokat. Ezt követően röviden megvizsgálnom a veszélyes üzemi felelősség, mint kiemelendő szigorú felelősségi tényállás vonatkozó hiányosságait. Mivel az

- 132/133 -

Európai Unió több dokumentumában is fontolóra vette az AI (kötelező) felelősségbiztosítás illetve a no-fault kompenzációs rendszer bevezetésének gondolatát, és mivel a felelősségbiztosítás fejlődése szorosan összefonódik a szigorú felelősségi tényállásokkal, ezért kutatásomat erre a területre is kiterjesztettem. Jelzem továbbá, hogy jelen munkában a mesterséges intelligencia felhasználásának kiemelt területe a magas szinten automatizált illetve az önvezető gépjárművek köre, megállapításaimat elsősorban ezen a területen lehet hasznosítani.

2. A mesterséges intelligencia működéséből fakadó kockázatok

A mesterséges intelligenciát a gépi öntanulás (machine learning), a feladatok automatizálása és a gépi önállóság jellemzi, gyakran nem is puszta automatizált döntéshozatal, hanem egyenesen autonómia. Az MI autonóm működése leginkább abban ragadható meg, hogy a feladatait nemcsak képes újra és újra végrehajtani, hanem a változó környezethez folyamatosan adaptálódik, saját döntése következményeit is értékeli, és ezekhez igazítja jövőbeli döntéseit. Képes tehát hibáiból tanulni, képes az önfejlesztésre is.

Az EU szakértői munkacsoport az alábbi tulajdonságokban látja a kártérítési jogra döntő hatást gyakorló tényezőket: ezek a komplexitás, az átláthatatlanság, a program lezáratlansága, az autonóm működés, a kiszámíthatatlanság, az adatalapú működés és a sérülékenység.[1] A mesterséges intelligencia alkalmazásának egy kiragadott szegletében, az önvezető járművek körében az Európai Parlament számára készített jelentés[2] az alábbi veszélytípusokat különíti el: emberi hiba, vezérlő program hibás működése, hálózati hibák, a program elleni támadások és kiberbűnözés, illetve a programozott döntésekkel (programming choices) kapcsolatos veszélyek. Ehhez hozzá kívánok tenni még egyet, amely az autonóm járművek és a hagyományos járművek, és azok vezetőinek a közúti forgalomban való együttes jelenlétéből fakad, az ún. mixed traffic helyzetekből.

A kockázatok nagyrésze a fent említett "black box" jelenséghez kapcsolódik, amelynek fő forrása a gépi tanulás (machine learning). Az EAD[3] szerint a mesterséges intelligenciának fekete dobozként való felfogása abból az elkerülhetetlen sajátosságból ered, hogy az MI nem más, mint algoritmusok, kódok és betáplált adatok komplex rendszere.[4] Az önvezető autók működésének kulcsfontosságú eleme az előzetesen programozott azon alapbeállítások, döntési struktúrák, amelyek kritikus közlekedési helyzetben behatárolják a

- 133/134 -

gépi döntést. Ezek etikailag beágyazott tervezésekor és programozásakor a mérnöknek a kárfelelősségi szabályokra is figyelemmel kell lennie (liability-by-design).[5]

E kiemelt tulajdonságokkal és kockázatokkal szemben a világszerte megjelenő etikai iránymutatások közel azonos és mélyen az alapjogokban gyökerező elvárásokat fogalmaznak meg. Az AI HLEG illetve az IEEE szervezet által megfogalmazott követelmények közül az AI HLEG által első helyen rögzített "emberi cselekvőség és irányítás"[6] kívánalmát kívánom megragadni, továbbá az adatbiztonságot, az átláthatóságot és az elszámoltathatóságot, amelyeket mind a két dokumentum kifejezetten kiemel.[7]

Ezért az MI működéséből eredő bizonytalanságok, a döntéshozatal folyamatának átláthatatlansága az egyik legfontosabb veszélyforrás, amellyel a társadalom szembenéz. Maga után vonja a veszélyességből fakadó, az Artificial intelligence for Europe dokumentum által risk-based liability rules-nak nevezett szigorú felelősségi tényállásokat.[8]

3. Veszélyes üzemi felelősségi tényállás alkalmazásának határai

3.1. Az üzembentartói minőség megragadása. Az 1959-es Ptk. óta a veszélyes üzemi felelősség szigorú, elsősorban a magatartás szubjektív értelemben vett vétkességétől függetlenített, ilyen értelemben objektív kártérítési felelősség.[9] Abból, hogy nem teljesen objektív helytállás, az következik, hogy fokozott veszélyhelyzet miatt a kár megtérítésére kötelezett személytől, az üzembentartótól fokozott gondosságot várunk el, egyben feltételezve, hogy a fokozott veszélyforrást felügyelete, irányítása alatt tartja, mentesülése is a legtöbb esetben (jellemzően a belső vis maior eseteit kivéve) ehhez igazodik.

Ennek megfelelően az üzembentartó fogalmát a magyar bírói gyakorlat maga alakította: azt a személyt jelölte ki, aki a veszélyes üzemet fenntartja, tartósan üzemelteti, és akinek felügyelete, irányítása, ellenőrzése és a veszélyforrás elleni különleges védekezésre való kötelezettsége mellett a veszélyes üzemi tevékenység megvalósul.[10] Novotni Zoltán véleménye az volt, hogy az a meghatározás, miszerint üzembentartó az, aki az üzemet folyamatosan, huzamosan és tartósan használja illetve hasznosítja, elméletileg sem kielégítő, mert ezek a kifejezések rendkívül labilis és szubjektív fogalmakat takarnak. Így jut el arra a következtetésre, hogy "az üzemeléshez fűződő érdek az alapvető, meghatározó tényező."[11] A 2013-as Ptk. is úgy definiálja az üzembentartót, mint azt a személyt, akinek érdekében a veszélyes üzem működik,[12] mégha e fogalom nem fogja a korábbi bírói gyakorlat által kialakított fogalmi kereteket átalakítani.

- 134/135 -

Úgy vélem, hogy ahogyan az emberi irányítás és ellenőrzés foyyamatosan csökken a mesterséges intelligencia működése, döntéshozatala felett, úgy kerül mindinkább előtérbe az érdek kérdése, és kerekedik felül annak vizsgálhatóságán, hogy ki tartja, tarthatja az MI-t felügyelete alatt.[13] Üzembentartónak az a személy fog ezek szerint minősülni, aki a saját felelősségére, saját költségére és hasznára fog a mesterséges intelligencia felett rendelkezni, értve az utóbbi alatt azt, hogy azt milyen időpontban és milyen célra lehet használni.

A szakirodalom rendszerint úgy tekint a veszélyes üzemi felelősségre, amely a vétkességen - felróhatóságon alapuló kártérítési felelősséghez képest elsődlegesen nem a korrektív igazság, hanem az osztó igazság elméletén nyugszik. Ezért kelt aggályokat az érdekközpontú megközelítés viszont azokban az esetekben, amikor ellentétbe kerül a társadalmi szintű kárelosztás funkciójával, és elfedi annak értékelését, vajon a mesterséges intelligencia fejlesztése, gyártása, értékesítése és felhasználása - tehát az MI teljes életútja vonatkozásában - kik azok a résztvevők, akikre az okozott károk telepítése a leghatékonyabb formában megvalósulhat.[14]

Ugyanerre a problémára az EU szakértői munkacsoport jelentése is rávilágít, bár más nézőpontból. Gazdasági elemzéseket is figyelembe véve azt a személyt tekinti a legjobb kockázat-elkerülőnek, költségcsökkentőnek, aki a veszélyforrást felügyelete alatt tartja.[15] Adott esetben több személy is gyakorolhat ellenőrzést az adott technológia felett, így lehet az a személy is, aki elsősorban döntést hoz és hasznot húz a technológia alkalmazásából (elsődleges üzembentartó - frontend operator). De ugyanígy üzembentartó az a személy is, aki folyamatosan fenntartja és behatárolja a kérdéses technológia funkcióit és működési jegyeit, továbbá folyamatos háttértámogatást nyújt (backend operator). A többes üzemben tartás esetében azonban nem a magyar Ptk. szerinti megoldás, a közös károkozás szabályai alkalmazandók, hanem eldöntendő kérdés lesz, ki az, aki a konkrét káreset kapcsán nagyobb mértékben gyakorolt felügyeletet illetve irányítást a veszélyforrás felett.[16] Ilyen értelemben tehát e két üzembentartói kör vagylagosan definiált, amely problémát a hatósági nyilvántartásban megjelölt üzemben tartó személye sem kisebbíti. Ez azért is problematikus, hogy a legutóbbi jogszabálymódosítások (USA egyes tagállamai, Németország) a járművek vezetőit kötelezik az irányítás azonnali visszavételére[17], mert ez eltereli a fejlesztési kockázatért felelős gyártóról a figyelmet. Így a gyártó lényegében a felhasználó óvatosságára és vészhelyzetben a lélekjelenlétére hagyatkozik. Az emberi ráhatás és ellenőrzés látszólagos fenntartása, illetve az arra való hagyatkozás nem hatékony, sőt, az emberi beavatkozás egyes kritikus szituációkban akár nemkívánatos következményekhez is vezethet.

- 135/136 -

A végfelhasználó helyzetét fogyasztóvédelmi-termékbiztonsági nézőpontból is megközelíthetjük. A mesterséges intelligenciára, vagy az azt magában foglaló fizikai kiterjedéssel bíró tárgyra mint termékre (és szolgáltatásra) is tekinthetünk. Az alapvető biztonsághoz való jog a gyártókra olyan magas szintű termékbiztonsági követelményeket ró, amellyel véleményem szerint a felhasználó vészhelyzetben való magára hagyása összeegyeztethetetlen. További kérdés viszont, hogy meg kell-e követelnünk speciális szaktudást és vizsgát a felhasználótól ezen szofisztikált eszközök használatához.[18] Mindezek rávilágítanak a gépjármű üzemeltetése, mint alapvető veszélyforrás és az emberi döntéshozatalt, cselekvést kiváltó mesterséges intelligencia használata között feszülő feloldhatatlan ellentétre.

3.2. Mentesülés a felelősség alól. A Ptk. rendelkezése szerint az üzembentartó akkor mentesül a kár megtérítése alól, ha bizonyítja, hogy a veszélyes üzem működési körén kívül eső és elháríthatatlan ok okozta a kárt. Ahogyan az újszerű veszélyforrásokat és kockázatokat sorra vettük, már röviden utaltunk arra, hogy a legtöbb esetben az üzembentartó mentesülésére az ok belső jellege miatt nem lesz lehetőség, különösen ha a működési kör rugalmas kiterjesztése az MI kártérítési felelősségi esetekben is meg fog valósulni. Felmerül a kérdés: igazságos-e kiterjeszteni az üzembentartó felelősségét az általa nem befolyásolható körülményekre? A szoftverfrissítés hibája vagy elmaradása, a hálózati hibák, a programfeltörések, támadások tekintetében a végfelhasználónak jóformán nincs lehetősége megfelelő védőintézkedések megtételére. Ez okból tűnik igazságosnak a szakértői munkacsoport párhuzamos üzembentartói körre tett javaslata.

Amennyiben viszont a célmeghatározáson túl[19] a felelősségrevonás alapjául a tényleges felügyeletet kívánjuk meg, a vagylagos üzembentartói minőség egyben visszahat a mentesülés kérdésére, hiszen a különböző üzembentartók (backend ill. frontend operator) vonatkozásában más és más lesz az a működési kör, amelyre hatást gyakorolhatnak. Ezt nem tekintjük szerencsésnek, különösen egy kötelező AI felelősségbiztosítási rendszer stabilitását nem szolgálja.

A veszélyforrások természeténél fogva viszont kulcsfontosságú lesz az, hogy milyen előzetes biztonsági intézkedések megtétele volt "elvárható" az üzembentartótól. Itt fontos megjegyezni, hogy az EU szakértői munkacsoport jelentése rámutat arra, hogy az AI üzemeltetésével összefüggő jogi kötelezettségek[20] megszegése önmagában kiváltja az üzembentartó felelősségét magatartása felróhatósága folytán.

Hiszen a külső ok elháríthatatlansága nemcsak a szubjektív értelemben, azaz az akut helyzetre szabott beavatkozási lehetőségek megléte, hanem objektív értelemben, azaz az előre látható károsodás megakadályozása végetti előzetes intézkedés lehetősége körében is vizsgálandó. Az MI működésében rejlő nagyfokú bizonytalanság, a megjósolhatatlanság

- 136/137 -

szétfeszítheti a hagyományos veszélyforrásokra szabott és így felfogott elháríthatatlanság kategóriáját.

A magyar veszélyes üzemi felelősség egyben olyan rugalmas és általános mentesülés szabályt tartalmaz, amely szintén igazítható a mesterséges intelligencia alkalmazásának sajátosságaihoz, így szemben más országok szabályozási megoldásával, nincs szükség annak módosítására, netán más mentesülési esetek vagy kivételek kidolgozására.[21]

A mesterséges intelligencia vonatkozásában nemcsak a fejlesztők, nemcsak a gyártók, hanem a felhasználók is folyamatosan szembesülnek a fent említett alapvető problémával, a megjósolhatatlanság és feltárhatatlanság sajátosságaival. Ezért is kérdéses, vajon igazságos-e oly módon telepíteni bármely személyi körre szigorú felelősséget, hogy ráhatása, befolyása a technológiai fejlődéssel mind kevesebb lesz.

Röviden ki kell térnem arra a kérdésre is, hogy a termékfelelősségi szabályok esetleges módosítása ki fog hatni a veszélyes üzemi felelősségi tényállás alkalmazhatóságára. Az EU jogalkotása a termékbiztonsági szabályokkal szorosan összefűzi a termékfelelősségi szabályokat, és ez az a terület, ahol az AI technológiákra szabott újszerű kárfelelősségi szabályok megjelenhetnek. Kérdéses, hogy az ellátási láncolat valamennyi résztvevője között megosztott felelősség (az ún. shared responsibility)[22] a termékbiztonsági szabályok betartásáért, továbbá a piacra bocsátást követően a felhasználók együttműködési kötelezettsége a AI technológiai megfelelő "karbantartásáért" (pl. szoftverfrissítés) miként fogja átszínezni a hagyományos gyártói felelősséget a hibás termék által okozott kárért.

A jelenlegi termékfelelősségi szabályok főszabályként kiutat biztosítanak a gyártónak az ún. fejlesztési kockázat eseteiben, hiszen hivatkozhat arra, hogy az adott termékhiba a termék általa történő forgalomba hozatala időpontjában a tudomány és a technika állása szerint nem volt felismerhető (ún. development risk clause).[23] Ezzel szemben a veszélyes üzemi felelősség rugalmas tényállása lehetővé teszi a bírói jogfejlesztést, amely a jelentős mértékű, vagy jelentős körben beálló károsodásból visszafelé következtetve az adott tevékenységet fokozott veszéllyel járónak minősítheti a felperes erre irányuló kereseti kérelme alapján, ezáltal a veszélyes üzemek körét bővítheti.[24]

A fent említett vagylagos üzembentartói minőség helyett másik lehetőségként körvonalazódhat az, hogy a fejlesztőkre, gyártókra szabott és végletekig kidolgozott műszaki előírások, termékmegfelelőségi követelmények egyben le is zárják azon jogi kötelezettségek sorát, amelynek megsértése szigorú felelősséget eredményezhet. A terület komplex szabályozásából eredően - amely az MI fejlesztése gyártása során alkalmazható szabványokat, megfelelőségi előírásokat (ethics-by-design), kötelezően beépítendő alapparancsokat is magában foglal -, a jövőben nem látjuk kizártnak ugyanis azt sem, hogy a szigorú felelősség határát esetleg nem a kártérítés mértékének maximalizálásával (beleértve a felelősségbiztosítási fedezetet) vonják meg, hanem azt a jogszabályokba vagy hatósági előírásokba, szabványokba foglalt kötelezettségek megsértésére szorítsák. A jogági jogellenesség magyar doktrínája jelenleg azonban még kizárja ezt a lehetőséget. A kártérítési ügyben a polgári bíróság a károkozó magatartás jogellenességét önállóan bírálja

- 137/138 -

el, sem nem szükséges, sem nem elégséges az bizonyítania az üzembentartónak, hogy a hatósági előírásoknak és követelményeknek megfelelően járt el.[25]

4. Felelősségbiztosítás és egyéb kártalanítási rendszerek

Az egyes AI felhasználások körében a felelősségbiztosítás kötelezővé tétele a biztosítók helytállási kötelezettségét is megnyitja, ezzel is biztosítva a károsultak számára teljeskörű kártérítést, feltéve, hogy a kártérítési felelősségi szabályok kellőképpen modernizáltak.[26] A felelősségbiztosító helytállása kiegészülhet a magyar kötelező gépjármű-felelősségbiztosítás rendszeréből is ismert olyan alappal[27], amely az ismeretlen (beazonosíthatatlan) vagy a biztosítással nem rendelkező üzembentartó esetében is kártalanítást nyújt a baleset áldozatainak.

A Bizottság által 2020 februárjában kibocsátott "Fehér Könyv a mesterséges intelligenciáról: a kiválóság és a bizalom európai megközelítése"[28] tükrében úgy tűnik számomra, hogy az EU jogalkotásának jelenlegi stádiumában a célkitűzés nem más, mint a termékbiztonsági követelményeket az MI technológiára és újszerű kockázatokra szabják, illetve a termékfelelősségi szabályokat megfelelően átalakítsák. A jelentés csak másodsorban utal a tagállamok veszélyesség-alapú (risk-based), szigorú felelősségi szabályaira, és a kapcsolódó felelősségbiztosításra. E jelentés sem kívánja tehát elszakítani a kompenzációt a polgári jogi felelősségre vonhatóságtól, mint alaptól.

A veszély növekedése és bizonytalansága a felelősség szigorodását, és az erre ráépülő felelősségbiztosítás rendszerét is a vétkességtől-felróhatóságtól független kártalanítási kötelezettség irányába hajtja. Szükségét éreztük tehát egy AI no-fault kártalanítási rendszer előnyeit és hátrányait is felmérni.

Az általunk kiragadott szabályozási javaslatok sokfélesége rávilágít arra, hogy egyrészt uniós szinten jelenleg lehetetlen akár egységes felelősségbiztosítás, akár no-fault biztosítási, akár áldozatkártalanítási alapot kiképezni. Másrészt pedig az MI technológia jelenlegi fejlettségi fokán és elterjedtsége mellett még korai az önvezető autókon kívüli esetekben no-fault rendszerre szabályozási javaslatot alkotni.

A meglévő no-fault rendszerek működéséből és a megvizsgált javaslatokból[29] levonható további tanulság volt számomra a fokozatosság. Véleményünk az, hogy az Európai Unió keretein belül a felelősségi szabályok revízióját követően, a felelősségbiztosítás modernizálása is megvalósulhat, amelyhez kapcsolódhat no-fault kártalanítási terület. Erre tekintettel javasolhatjuk, hogy a magyar Kártalanítási Számla nyújtson kártalanítást akkor is, ha magas szinten automatizált gépjármű önvezető üzemmódban közúti balesetet okoz. Ez az a megoldás, amely az üzembentartó vagy a gyártó, vagy más felelős személyekkel szembeni

- 138/139 -

kárigény érvényesítése sikertelenségéből eredő hátrányt a károsultak válláról leveheti. Legalábbis addig, amíg esetleg a termékfelelősségi szabályok átalakításával párhuzamosan meg nem jelenik egy kötelező termékfelelősségbiztosítási rendszer. Félő ugyanis, hogy a jelenlegi gépjármű-felelősségbiztosítási rendszerbe nem lehet megfelelően integrálni az önvezető autók gyártóit terhelő felelősségbiztosítást. A no-fault rendszer értékelésekor nem hagyhatjuk figyelmen kívül azt sem, hogy a kötelező felelősségbiztosítási rendszer az üzembentartó személyének homályosodásával, az emberi ráhatás csökkenésével lassan egyébként is meghaladottá válik.

5. Összegzés

Az MI fejlesztésével, gyártásával és felhasználásával szemben támasztott, napjainkban kiképződő, és a jelenlegi etikai követelményekből konkretizálódó összetett jogi és műszaki természetű kötelezettségek szorosan össze fognak fonódni a kártérítési felelősségi kérdésekkel.

A technológiai fejlődést eddig kiszolgáló veszélyes üzemi felelősségnek a magyar különös felelősségi alakzatok között az alkalmazási potenciálja jelentős, azonban egyben véges is.

Jelentős, mert egy generálklauzula formájában, a bírói jogértelmezésnek és jogfejlesztésnek nagy teret ad, tényálláselemekkel túl nem terhelt, így a károsult számára kedvező, amelyet a kimentés nehézsége, a működési kör kiterjesztett értelmezése is alátámaszt. A jellegadó sajátosság, a tevékenység fokozottan veszélyes jellege is mind alacsonyabb szintre száll a bírói gyakorlatban.

Alkalmazhatósága azonban véges is, mert ahogyan fentebb röviden bemutattuk, mind az üzembentartói minőség, mind a mentesülés, mind maga a tevékenység fokozottan veszélyes jellegűként való megítélése tekintetében az MI működtetésében-működésében és világunkra-társadalmunkra gyakorolt negatív hatásaiban egyedi sajátosságokat mutat fel. Erre szabottan létrehozandó új szabályok (termékláncolat résztvevőinek a megosztott felelőssége, új termékfelelősségi szabályok, vállalati felelősség stb.) tudják majd átvenni a helyét.

A fejlődés következő fokán a vétkes-felróható emberi magatartásra szabott felelősségi szabályok egyre több hiányosságot mutatnak majd fel. Tényleges felelősségre vonhatóság hiányában felértékelődnek a károsult számára kompenzációt nyújtó további rendszerek, amelyek közé soroltam és vizsgáltam a kötelező felelősségbiztosítást (a kötelező gépjármű felelősség biztosításhoz hasonló, rendkívül "károsult-barát" rendszerben) illetve a vétkességtől függetlenített ún. no-fault kártalanítási rendszereket.

A kártérítési felelősségi szabályok fenntartása azonban mindenképpen indokolt, hiszen kettős funkciót töltenek be. Egyrészt nemcsak biztosítják, hogy a károsultnak a más által okozott kára megtérüljön, hanem másrészt gazdasági ösztönző szerepet is betöltenek, amely közvetetten a felelősségteljes innovációt segíti elő. ■

JEGYZETEK

* A kutatást az EFOP-3.6.2-16-2017-00007 azonosító számú, Az intelligens, fenntartható és inkluzív társadalom fejlesztésének aspektusai: társadalmi, technológiai, innovációs hálózatok a foglalkoztatásban és a digitális gazdaságban című projekt támogatta. A projekt az Európai Unió támogatásával, az Európai Szociális Alap és Magyarország költségvetése társfinanszírozásában valósul meg.

[1] Complexity, opacity, openness, autonomy, predictability, data-drivenness, vulnerability. Vö. Expert Group Report on Liability for Artificial Intelligence and Other Emerging Digital Technologies. [A továbbiakban: Expert Group Report on Liability 2019] doi:10.2838/573689 https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMeetingDoc&docid=36608. 32-33.

[2] A common EU approach to liability rules and insurance for connected and autonomous vehicles. European Added Value Assessment Accompanying the European Parliament's legislative own-initiative report (Rapporteur: Mady Delvaux) PE 615.635 Lásd: http://www.europarl.europa.eu/RegData/etudes/STUD/2018/615635/EPRS_STU(2018)615635_EN.pdf

[3] Az Institute of Electrical and Electronics Engineers (IEEE) 2019-ben szintén kibocsátotta az autonóm és intelligens rendszerekre vonatkozó etikai iránymutatását Ethically Aligned Design (EAD) - Etikailag Beágyazott Tervezés címmel [A továbbiakban: EAD]. https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/ead_v2.pdf

[4] EAD 27.

[5] Pusztahelyi Réka: Strict liability implications of autonomous vehicles with a special view to programming choices. In: Jozef, Suchoza; Ján, Husár; Reginá, Hucková (szerk.) Law, Commerce, Economy IX.: Collection of Papers presented at an international scientific symposium LAW -COMMERCE - ECONOMY held from 23rd-25th of October 2019 in High Tatras. Košice, Szlovákia: Univerzita Pavla Jozefa ©afárika v Koąiciach, (2019) pp. 468-478.

[6] human agency

[7] A két etikai kódex ismertetéséhez lásd Pusztahelyi Réka: Bizalmunkra méltó MI. Publicationes Universttas Miskolcinensis Sectio Juridica et Politica 2019/2. szám 97-122.

[8] Artificial Intelligence for Europe, COM (2018) 237 final

[9] Pusztahelyi Réka: A veszélyes üzemi felelősség szabályozási környezete. Nemzeti Közszolgálati Egyetem, Államtudományi és Közigazgatási Kar, Budapest, 2019.

[10] BH 1988.273. Hozzáfűzte azt is az irányadó döntés, hogy az üzembentartói minőség ismérvei között ugyanakkor nincs feltétlenül ügydöntő jelentősége annak, hogy a veszélyes üzem kinek az érdekében működik. A Ptk. jelenleg hatályos rendelkezése alapján e bírói álláspont felülvizsgálatra szorul.

[11] Novotni Zoltán: A gépjármű üzembentartói felelősség néhány problémája. Biztosítási Szemle 1976/89. szám, 241.

[12] Ptk. 6:536.§ (1) bekezdés

[13] Vö. Pusztahelyi Réka: Autonóm járművek a magyar közutakon és a veszélyes üzemi felelősség. Az üzembentartó személyét, a mentesülést és a felelősségbiztosítást érintő egyes kérdésekről (megjelenés alatt: Az autonóm járművek és intelligens rendszerek jogi vonatkozásai, konferenciakiadvány, Győr, 2019. március 22. Széchenyi István Egyetem, Deák Ferenc Állam- és Jogtudományi Kar)

[14] Lásd részletesen: Pusztahelyi Réka: Liability for intelligent robots from the viewpoint of the strict liability rule of the Hungarian Civil Code. In: Acta Universitatis Sapientiae, Legal Studies, 2019/2. szám 213.-230.

[15] Expert Group Report on Liability 2019, 35.

[16] Expert Group Report on Liability 2019, 6.

[17] Juhász Ágnes: Transition of the driver's rights and duties in light of the automation of vehicles. in: Suchoza, J. - Husár, J. - Hucková, R. (szerk.): Law, Commerce, Economy IX.: Collection of Papers presented at an international scientific symposium LAW - COMMERCE - ECONOMY held from 23rd-25th of October 2019 in High Tatras, Košice, Szlovákia: Univerzita Pavla Jozefa Šafárika v Košiciach, 2019. p. 393-404.

[18] Amerika egyes államaiban megkövetelt. Vö. Ágnes Juhász - Réka Pusztahelyi: Legal Questions on the Appearance of Self-Driving Cars in the Road Traffic with Special Regard on the Civil Law Liability. European Integration Studies, 2016/1. p. 15. Vagy, ahogyan megkövetelt a fokozott veszélyre tekintettel a nagyobb kategóriákba tartozó drónok távoli pilótáitól is. Vö. Pusztahelyi Réka: Reflections on Civil Liability for Damages Caused by Unmanned Aircrafts. Zbornik Radova Pravni Fakultet (Novi Sad) 2019/1. pp. 311-326. Vö. Pusztahelyi Réka - Stefán Ibolya: Szigorú felelősség a drónok használata során felmerülő vagyoni és nem vagyoni sérelemért. Publicationes Universitatis Miskolcinensis Sectio Juridica Et Politica. 2019/1. pp 449-469.

[19] Az emberi irányítás célmeghatározásra szorításához vö. Udvary Sándor: Az autonóm nem emberi cselekvés polgári jogi megítélésének egyes kérdései az automatizált döntéshozatal adatvédelmi szabályainak határvonalán (kézirat, megjelenés alatt, In: "A mesterséges intelligencia alkalmazásának hatása az alapjogokra" c. NKE-ITKI konferencia kötete, 2020.)

[20] Például a biztonsági előírások betartása, adott feladat ellátására alkalmas MI kiválasztása, a rendszer ellenőrzése és fenntartása.

[21] Pusztahelyi Réka: A fokozottan veszélyes tevékenységért vagy dologért való kárfelelősség az európai államokban: Szabályozási megoldások és tendenciák. JURA 2017/2. 399-410.

[22] Bizottság jelentése a mesterséges intelligencia, a dolgok internete és a robotika biztonsági és felelősségi vonatkozásairól COM(2020) 64 final 11.o.

[23] Vö. Ptk. 6:555. § (1) d) pontja.

[24] Itt kell röviden kitérnünk a Ptk. ún. non-cumul szabályából adódó azon sajátosságra, hogy a károkozó és a károsult közötti szerződéses kapcsolat gyakorlatilag kizárja annak lehetőségét, hogy a károsult kártérítési igényét deliktuális (így akár veszélyes üzemi felelősségre) alapozva érvényesítse. (Ptk. 6:145.§)

[25] Pusztahelyi Réka: Hatósági előírások betartása és az üzembentartó mentesülése a kártérítési felelősség alól - a bírói gyakorlat tükrében. In: Pro Publico Bono - Magyar Közigazgatás, 2019/1. szám, 214-229.

[26] A kötelező robot felelősségbiztosítás viszonylag gyors bevezetését jósolja Udvary Sándor is. A non-humán ágensek (intelligens rendszerek) jogi szabályozása - robotok, dedikált rendszerek (önvezető autók), in: Homicskó Árpád (szerk.): A digitalizáció hatása az egyes jogterületeken, Acta Caroliensia, KRE ÁJK, Budapest, 2020, 239-256. 249.

[27] Vö. a kötelező gépjármű-felelősségbiztosításról szóló 2009. évi LXII. törvényben meghatározott Kártalanítási Számla feladatait.

[28] Brüsszel, 2020.2.19. COM(2020) 65 final https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_hu.pdf [2020.03.10.]

[29] Pusztahelyi Réka: Mesterséges Intelligencia által okozott károk: a no-fault kártalanítási rendszer bevezetésének előnyei és hátrányai (kézirat, megjelenés alatt: Infokommunikáció és Jog)

Lábjegyzetek:

[1] A szerző egyetemi docens, Miskolci Egyetem Állam- és Jogtudományi Kar, Civilisztikai Tudományok Intézete, Polgári Jogi Intézeti Tanszék.

Tartalomjegyzék

Visszaugrás

Ugrás az oldal tetejére