Az utóbbi években két irányból is azt tapasztaljuk, hogy komoly nyomás nehezedik a tisztességes eljáráshoz való jog garanciarendszerére. A mesterséges intelligencia térnyerésével a közigazgatási eljárásokban, valamint a bíróságok döntéshozatala során is felértékelődött a hagyományosan kimunkált garanciák jelentősége. Tanulmányunkban a kérdéskör igazságszolgáltatást érintő aspektusaira fókuszálunk, felelevenítve a mesterséges intelligencia néhány alapvető jellegzetességét, majd szembe állítva egymással a modern technológia alkalmazásából eredő előnyöket és hátrányokat. Egyenként elemezzük, hogy a tisztességes eljáráshoz való jog egyes részjogosítványaira milyen hatással lehetnek ezek a folyamatok és ezen az úton törekszünk a problémát a maga komplexitásában, sok oldalról megragadni. Sorra vesszük azokat az ismert példákat is, ahol külföldön mesterséges intelligencia alapú szoftverek működnek a bíróságokon és vizsgáljuk, hogy ezek mennyiben lehetnek követendő példák akár Magyarország számára is. Végezetül megfogalmazunk néhány olyan, a szabályozási koncepcióra vonatkozó javaslatot, amelyek mentén álláspontunk szerint elindulhatunk, amikor a mesterséges intelligencia bírósági szerepvállalásának hosszútávú jogi keretrendszerét kívánjuk meghatározni.
- 7/8 -
Kulcsszavak: mesterséges intelligencia; jogállamiság; igazságszolgáltatás; tisztességes eljáráshoz való jog; gépi tanulás; jogorvoslathoz való jog
A mesterséges intelligencia különféle jogi területeken történő alkalmazását tárgyaló jogirodalomban gyakran kaptak hangsúlyt az igazságszolgáltatásban rejlő perspektívák.[2] A vita első szakaszában több szerző érvelt a mesterséges intelligencia alapon működő bírók - ha úgy tetszik 'robotbírók' - mellett, amelyek racionálisabbak és pártatlanabbak lehetnek, mint emberi társaik.[3] Mások viszont a várható hatások, kockázatok gondos értékelését tartották előbbre valónak, és jelenleg a diskurzus inkább a meglévő eljárási biztosítékok megőrzése, mint az állítólagos hatékonyságnövelés felé mozdul.[4]
Első meglátásunk a jogi diskurzus ez utóbbi irányához kapcsolódik: azt javasoljuk, hogy a meglévő technológiai jogi alapelveket egészítsük ki a prudenciával, hogy világossá váljon, a hatékonysági megfontolások kiemelt jelentőséggel bírnak a bírósági eljárásokban, de nem írhatják felül a hagyományosan kidolgozott eljárási rendszert és elsősorban az abban intézményesített biztosítékokat.
Megközelítésünk egy további nóvuma abban rejlik, hogy központi jelentőséget tulajdonítanánk a mesterséges intelligencia emberközpontú jellegének: álláspontunk szerint a mesterséges intelligenciának (a továbbiakban: MI) szükséges megfelelnie az emberi bírákra vonatkozó követelményeknek, nem pedig a meglévő jogi kereteket kellene relativizálni ahhoz, hogy lehetővé tegye a MI bevonását a bírói döntéshozatalba.
Harmadik felvetésünk szerint a MI alkalmazható az igazságszolgáltatásban a tisztességes eljárás egyes elemeinek hatékonyabb érvényesülése érdekében;
- 8/9 -
átgondolatlan bevonása azonban alááshat bizonyos garanciákat. Esetről esetre történő elemzésre van szükség a jelenleg érzékelhető előnyök és hátrányok azonosítása érdekében, ami elkerülhetetlen a jövőbeli fejlődés fő irányainak meghatározásához.
Három fő tézisünkből azt a következtetést vonjuk le, hogy a MI a tárgyalóteremben önmagában értékes kezdeményezés lehet; a döntéshozó algoritmusok bevezetésére azonban csak akkor kerülhet sor, ha a bíróságok már kellően kiterjedt tapasztalatokat szereztek a MI igazságszolgáltatásban való részvételéről. Kétféle módszerrel bővíthetjük ismereteinket a MI jelenségéről.
Egyrészt minél több információt szükséges gyűjtenünk azokról a néhány országban már elérhető nemzeti alkalmazási példákról, ahol a MI részt vett az igazságügyi munkában. E modellek többsége Európán kívüli kontinensről, olyan jogrendszerekből származik, ahol a jogállamiság normái eltérően vagy kevésbé érvényesek. A mainstream szakirodalom gyakran hivatkozott a mesterséges intelligencián alapuló bírói szoftverek egész sorára, amelyek már működnek különböző országokban,[5] azonban ezeket a mechanizmusokat legalábbis a teljesség szándékával senki nem elemezte még mélyrehatóan.
Aprólékos, többszintű ütemtervet kell kidolgozni a MI igazságügyi munkába való beépítésére a prudenciális szempontok kiemelésével. Meg kell találni azokat a bírósági tevékenységi területeket, ahol a MI bevonása kisebb eséllyel ássa alá az alapvető jogok védelmének jelenlegi szintjét, valamint egy első, ötéves átmeneti időszakot javaslunk a MI önkéntes alapon történő alkalmazására, kizárólag a felek akaratától függően. Ennek a gyakorlati alkalmazásnak a segítségével öt év elteltével, ha a tapasztalatok előnyösek lennének, egy második átmeneti időszakot lehetne kitűzni, ahol a MI kiterjedtebb, de még mindig körültekintő alkalmazására kerülhetne sor.
I. Tanulmányunk felépítését tekintve, mint érvelésünk módszertani hátterét, először is azokat a jogállamisági garanciákat nevesítjük, amelyek viszonyítási pontként szolgálhatnak az igazságszolgáltatásba vetett társadalmi bizalom lehetséges megalapozásához. Másodsorban kiemeljük a MI azon technológiai jellemzőit, amelyek ismerete elengedhetetlen a tisztességes eljáráshoz való jog szempontjából. Módszertani hátterünk harmadik pilléreként azokat a MI-n alapuló technológiákat vizsgáljuk meg, amelyek meghatározott bírósági feladatokat látnak el Malajziától Észtországig, Kínától Brazíliáig.
II. A második nagyobb fejezet a tisztességes eljáráshoz való jog főbb komponenseit tárgyalja, és felméri, hogy melyek a fő érvek a MI mellett és ellene
- 9/10 -
az igazságszolgáltatásban, illetve milyen hatás várható a MI részvételétől a döntéshozatali folyamatban. Ez a rész elengedhetetlen annak értékeléséhez, hogy melyek azok az igazságügyi munkaterületek, amelyekben a MI a rendszer jobb működését szolgálhatja anélkül, hogy veszélyeztetné a tisztességes eljáráshoz való jog normáit. A vonatkozó szakirodalom több megfontolást is felvetett; azonban az egész probléma teljes komplexitásában való bemutatása még előttünk áll.
III. Végezetül tanulmányunk utolsó része visszatér a kiindulópontra: a jogállamiság fő elemeire, és megfogalmazza, mi következik hipotéziseinkből és a mögöttük álló megfontolásokból a tisztességes eljáráshoz való jog tekintetében. Hogyan kell értelmezni a meglévő jogállamisági normákat a MI bevonása esetén, és melyek azok a bírákra vonatkozó követelmények, amelyek azonosan érvényesítendők az igazságszolgáltatásba bekapcsolódó MI-vel szemben is? Tanulmányunk ilyen és ehhez hasonló kérdéseket vet fel, valamint lehetséges válaszokat kínál ezekre a dilemmákra. A válaszok keresése érdekében kitérünk a témában jelenleg irányt mutató uniós jogi fejleményekre, különösen az Európai Parlamentnek a mesterséges intelligenciáról szóló 2021. január 20-i állásfoglalására[6] (a továbbiakban európai parlamenti állásfoglalás) és az Európai Bizottság 2021. április 21-i javaslatára a mesterséges intelligencia kódexről (a továbbiakban: Mesterséges Intelligencia Rendelet),[7] amely jelenleg még jogalkotási tervezet, de jelzi a közös európai szabályok irányait.
Kiindulópontként azt szükséges meghatározni, hogy e tanulmányban mit értünk a MI jelensége alatt. Intenzív tudományos diskurzus bontakozott ki különböző tudományterületek képviselői, köztük jogászok részvételével is annak érdekében, hogy kidolgozzák a MI általánosan elfogadott definícióját,[8] azonban mi
- 10/11 -
ehhez a vitához most nem kívánunk csatlakozni, ehelyett tanulmányunkban a Mesterséges Intelligencia Rendeletben foglalt, konszenzusosnak tűnő megközelítést követjük: "mesterségesintelligencia-rendszer (MI-rendszer): olyan szoftver, amelyet az I. mellékletben felsorolt technikák és megközelítések közül egy vagy több alkalmazásával fejlesztettek, és amely az ember által meghatározott célkitűzések adott csoportja tekintetében olyan kimeneteket, például tartalmat, előrejelzéseket, ajánlásokat vagy döntéseket képes generálni, amelyek befolyásolják azt a környezetet, amellyel kölcsönhatásba lépnek."[9] Az I. melléklet a továbbiakban felsorolja, mit tekint a hivatkozott MI technikáknak és megközelítéseknek "a) Gépi tanulási megközelítések, ideértve a felügyelt, a felügyelet nélküli és a megerősítő tanulást, a módszerek széles skálájának, többek között a mélytanulásnak az alkalmazásával; b) Logikai és tudásalapú megközelítések, beleértve a tudás megjelenítését, az induktív (logikai) programozást, a tudásbázisokat, a következtetőmotorokat, a(z) (szimbolikus) érvelést és a szakértői rendszereket; c) Statisztikai megközelítések, Bayes-féle becslés, keresési és optimalizálási módszerek." A fentiekben már említettük, hogy a mesterséges intelligencia rendeletet még nem fogadták el, azonban ezt tekintjük a legújabb és leginkább naprakész közös európai erőfeszítésnek egy általános jogi eszköz megalkotására, amelynek meghatározása talán a legjobban tükrözi a jogi és MI szakértők többségének álláspontját.
A keretjellegű definíció kiválasztása mellett is hangsúlyozni szükséges, hogy a mesterséges intelligencián alapuló technológiákat egyértelműen el kell különíteni azoktól, amelyek pusztán a döntéshozatali folyamatok automatizálását jelentik. A MI esetében az algoritmust nem egyértelműen előírt emberi szabályok határozták meg, vagy nem emberi döntések sorozatának eredménye; az algoritmus a hozzáférhető adatokból vonja le következtetéseit.[10] Ez a folyamat a gépi tanuláson alapul és olyan eredményekhez vezethet,
- 11/12 -
amelyek ismeretlenek vagy előre nem láthatóak még a szoftverfejlesztő számára sem.
A jogállamiság elve központi szerepet játszik az európai jogrendben a demokrácia elvével és az emberi jogok védelmével együtt egyfajta ernyőelvekként, és magukban foglalnak több fontos garanciát és értéket, amelyek mind hozzájárulnak az alkotmányosság stabilizálásához. A jogállamiság közös európai felfogása szerint olyan elveket foglal magában, mint a törvényesség, amely az átlátható, elszámoltatható, demokratikus és plurális jogalkotási eljárást jelenti; a jogbiztonság; a végrehajtó hatalom önkényességének tilalma; a független és pártatlan bíróságok által biztosított hatékony bírói jogvédelem, ideértve az alapvető jogok tiszteletben tartását is; a hatalmi ágak szétválasztása és a törvény előtti egyenlőség. Ezeket az elveket az Európai Unió Bírósága és az Emberi Jogok Európai Bírósága is elismerte.[11] A közös európai hagyományok szerint az igazságszolgáltatáshoz való jog mint a jogállamiság immanens eleme kiterjed a tisztességes eljárásra,[12] amelynek számos részjogosítványa és mérhető indikátora van, mint például a bírósághoz fordulás joga, a védelemhez való jog, észszerű időn belüli bírói döntéshez való jog, az ártatlanság vélelme, a bizonyítási teher világos és tisztességes szabályai, a hallgatás joga, a fegyverek egyenlősége, a bírósági iratokhoz és iratokhoz való időben történő hozzáférés joga, a meghallgatáshoz való jog, az indokolással ellátott ítéletek, a jogorvoslathoz való jog, a hozzáférhető költségmentesség, vagy a megfelelő információk elérhetősége az igazságszolgáltatás működéséről.[13]
- 12/13 -
A MI által felvetett új kihívások szempontjából a jogállamiság összetevői közül talán a leginkább érintett a jogbiztonság (mivel a bírósági határozatok megalapozhatják, kidolgozhatják és tisztázhatják a jogot, ezért hozzáférhetőségük a jogbiztonság része[14]), a bírói függetlenség, a pártatlanság, a hatékony bírói védelem, és ami ezek fókuszában áll: maga a bírói döntés. Az emberi jogok védelmének oldaláról közelítve a tisztességes eljáráshoz való jog a jogállamiság és az emberi jogok bíróság előtti hatékony érvényesülésének közös és egyformán fontos feltételeként határozható meg. A jogállamiság és az emberi jogok védelmének követelményei ezért összekapcsolódnak és átfedésben vannak a tisztességes eljáráshoz fűződő jogban. A tisztességes eljárás tehát olyan közös metszet, amely egyértelműen a közös európai alkotmányos hagyományok részét képezi, ezért döntő fontosságú, hogy garanciáit megtartva elkerüljük a MI rendszerek bírósági tárgyalótermekben történő alkalmazásából eredő veszélyeket.
Nyilvánvaló, hogy a bírósági eljárások hosszát tekintve a MI tagadhatatlan előnnyel jár. Pontosabb és összehasonlíthatatlanul gyorsabb, mint bármely emberi bíró, amikor meghatározza a döntés jogalapját, elemzi az ítélkezési gyakorlatot vagy jogi doktrínákat. A jogi érvek hosszú kutatása néhány másodpercre rövidíthető. Amikor azonban a MI fő jellemzőit vesszük figyelembe a tisztességes eljárás szempontjából, számos más tényezőt is tekintettel kell lennünk az értékelés során, amelyeknek köszönhetően az összkép sokkal árnyaltabb lesz.
A következő fejezetben a MI által hozott döntések mechanizmusát tárgyaljuk, különös tekintettel annak a tisztességes eljáráshoz való jog szempontjából fontos jellemvonásaira. A MI és a tisztességes eljárás közötti kapcsolat átfogó elemzése érdekében elengedhetetlen, hogy előbb felvázoljuk az automatikus döntéshozatal folyamatát. Ennek a technikai megoldásnak a leírása számos tudományos közleményben olvasható; hozzáadott értékünk ezen a területen az, hogy kiemeljük e mechanizmus azon aspektusait, amelyek döntő hatással vannak a tisztességes eljáráshoz való jog érvényesülésére. A jól vagy helytelenül, de jelenleg működő MI alapú igazságszolgáltatási szoftverek az elsődleges gyakorlati források a MI bírósági részvételének vizsgálatához. Ez az oka annak, hogy miért térünk ki a már létező MI eszközök széles körére.
- 13/14 -
A MI a gépi tanulás során vonja le következtetéseit. Ezt a mechanizmust ebben a fejezetben az e-mail szolgáltatások spamszűrő funkciójának példáján keresztül mutatjuk be. Mindenekelőtt a gépi tanulás nagy mennyiségű tiszta adatot igényel ahhoz, hogy az algoritmus hatékonyan felismerje a mintákat, és ezek alapján következtetéseket vonjon le. Az adatok szoftverbe történő bevitele előtt meg kell határozni, hogy milyen kérdésben döntünk az adatok felhasználásáról, és korlátozni kell annak hatókörét a meghatározott célhoz szükséges mértékben.[15] Az 'összetevő' adatok két kategóriába sorolhatók: először is el kell különíteni a paraméteradatokat (spamszűrő funkció esetén például a levél tárgya, feladója vagy eredete). Ezeket képzési adatoknak nevezik a döntéshozatali folyamatban. A másik csoport olyan adatokat tartalmaz, amelyek a követett modell szerint értékelik a képzési adatok teljesítményét (pl. a levél spamnek minősül-e vagy sem). Ezt a csoportot értékelő adatnak nevezik. Ezután ki kell választani egy döntéshozatali modellt, amely alapján az algoritmus levonja a következtetést. A meghatározott modell ezután 'megtelik' a bemeneti adatokkal.[16]
A gépi tanulás súlyozza a képzési adatok jellemzőit úgy, hogy minden egyes új adat alapján meghatározott fontosságot tulajdonít az adott paraméternek.[17] Ha a címkézés sikeres volt, a paraméter változatlan marad, ellenkező esetben ennek megfelelően korrigálja a képzési adatok fontosságát.[18] Ezt követően az értékelési adatokat a súlyozott képzési adatokkal kombinálják, amelyek felmérik a képzési adatok alkalmasságát a következtetés levonására (pl. annak megállapítására, hogy a "nyer" vagy "szerencse" szavak valószínűleg megjelennek-e a spam levelekben). Az értékelés után a paramétereket finom hangolják annak érdekében, hogy célszerűbb eredményt érjenek el a következő folyamatban, ha az eredmény nem volt kielégítő az értékelés során.[19] Végül feltesszük a kérdésünket, amelyből a MI ennek megfelelően
- 14/15 -
következtetési mechanizmust vezet le a finomhangolt paraméterek alapján, ami jelen esetben megegyezik a döntéssel.[20]
Példa a felügyelet nélküli gépi tanulásra[21] és annak egyik legszélesebb körben használt alrendszere a mély tanulás,[22] amely a Big Data segítségével vonja le következtetéseit.[23] A mélytanulási alkalmazásokban az algoritmusrétegek mesterséges neurális hálózatokat alkotnak, hasonlóan az emberi agy működéséhez. A neurális hálózatok esetében a gépi tanulásban leírt súlyozási rendszer annyira bonyolult, hogy lehetetlen megfejteni, így nem tudjuk megindokolni a következtetéseit. Ezek a rendszerek (látszólag) határozatlan kimeneteket hozhatnak létre, a gépi tanulás módszere miatt, mivel felismerik az adatokból azokat a mintákat, amelyeket az emberek nem vesznek észre.
Tekintettel a modern mikroalgoritmusok és szoftver-architektúrák összetettségére, egyre nehezebb meghatározni mind a MI rendszer állapotát, mind az egyes parancssorok hatását jelentős erőfeszítés nélkül.[24] Meghatározhatatlan számításokat igényel felsorolni az összes lehetséges interakciót, amelyek a tucatnyi erősen hálózatba kapcsolt rendszerek között előfordulhatnak.[25] A neurális hálózat működése így átláthatatlan számunkra;[26] gyakorlatilag egy fekete doboz effektusnak feleltethető meg.[27] Az öntanuló
- 15/16 -
szoftver olyan szabályokat állapít meg, amelyek levonják a tanulságokat a jó és rossz döntésekből, illetve eredetileg nem voltak az algoritmus részei. Amint azt később részletesebben látni fogjuk, ez jelentős hatással bír a tisztességes eljáráshoz való jog fontos aspektusaira, különösen az ítélet mögött álló indokolás (azaz annak hiánya), valamint a MI és az emberek közötti kommunikációt érintő nehézségek miatt.
A MI döntéshozatali folyamata átláthatatlan a tudomány és a technológia jelenlegi állapotában, és a gép nem tudja megindokolni a következtetését. Itt meg kell jegyezni, hogy ennek a problémának a feloldását több kutatócsoport is célul tűzte ki. Elérhetők olyan kezdeményezések, amelyek az emberek MI használatára való képzésével közelítenek az átláthatatlanság enyhítése felé, megtanítva őket rávezetni, miért jutott a gép az adott konkrét következtetésre.[28] Egy másik megközelítés gépi magyarázatot javasol: a logikus következtetések láncolata és az adatok súlyozási szempontjainak megismerése döntésfaként vagy más vizualizálható formában kerülne az ember elé.[29] Mások ötvözik a MI-t a blokklánc-technológiákkal, hogy jobban betekinthessenek az előbbi döntéshozatali folyamatába. A blokkláncok tárolják a bázisuk után beírt összes adatot, lehetővé téve a következtetések mögött rejlő logika átfogóbb tanulmányozását. A következtetés-levonás teljes láncolata azonban ebben az esetben sem vezethető vissza.[30]
E körben érdemes röviden kitérni az úgynevezett Collingridge dilemmára: vagyis, hogy az átláthatatlanság következtében nem lehet tudni, hogy a technológiai fejlődés mely pontján lehet képes a szabályozás befolyásolni annak irányait. Ha a beavatkozás megfelelően korai fázisban történik, a technológiai folyamatok befolyásolhatóak, ugyanakkor minél hamarabb alkotjuk meg a vonatkozó jogi normákat, annál kevésbé látjuk át azok megszövegezése során a korábban ismeretlen megoldások jogviszonyokra gyakorolt tényleges hatásait.[31]
- 16/17 -
A MI rendszer szükségszerűen egy emberi programozóra vezethető vissza, aki kezdetben kódolta a képzési és értékelési adatokat. Még a mélytanulás esetén sem lehet 'elindítani' a gépet kezdeti emberi beavatkozás nélkül, annak ellenére, hogy a MI később önállóan, autonóm módon működik, értékel és fejlődik. Törékenységénél fogva bármilyen hiba, sérült fájl; biztonsági támadás, vagy helytelen programozás esetén a MI elveszítheti az irányítást saját működése felett. Ez utóbbi eset a tudatos programozás közvetlen, de nem szándékos következményeivel együtt rejti a legtöbb megválaszolatlan kérdést.[32]
A MI elleni rosszindulatú befolyásolás kiemelkedő példája az Adversarial Machine Learning. Az ellentmondásos adatok kihasználják a MI működését, megzavarva azt. Az ellentmondásos bemenetek létrehozása magában foglalja a minta részleteinek apró módosításait és a MI rendszeren keresztül történő keringését. Az ember nem ismeri fel a változást, de a gépi tanulási algoritmus nyomon követi és végrehajtja ezt a rejtett parancsot. Elegendő ellentmondásos bevitellel beállíthat egy zajtérképet, amely csökkenti a MI döntéshozatalába vetett bizalmat.[33] Például a hackerek felhasználhatják ezt az ellenséges támadást arra, hogy egy önvezető autót veszélyes viselkedésre kényszerítsenek, és esetleg balesetet okozzanak.
Az algoritmikus döntéshozatal esetében az egyik legvitatottabb szempont a pártatlanság. Az algoritmikus számítások során lehetetlen értelmezni többek között például azt, hogy az algoritmus mit és mikor evett, mennyire fáradt, vagy a nap melyik szakaszában hozza meg az ítéletet. Nem befolyásolják a megérzések és sejtések sem, a személyes értékválasztások és az, hogy szimpatizál-e a felekkel, vagy sem.[34] Ebben az esetben a MI átlépi az emberi kognitív határokat.[35] Ezenkívül a MI felhasználható a bírák döntései és az érvelés közötti hamis összefüggések kiszűrésére is.[36]
A MI sajátos jellemzői a bizonytalansági előítéletek (uncertainty bias) nyomán is láthatók. Ez a jelenség akkor fordul elő, ha egy adott csoport alul-
- 17/18 -
reprezentált a MI mintájában, ezért nagyobb mértékű bizonytalansággal von le ebbe az irányba következtetéseket. Az algoritmus elkerüli a kockázatokat, ezért csak a megbízhatóbb előrejelzések alapján hoz döntéseket. A gyakorlatban ez azt jelentheti, hogy a prediktiv algoritmusok (például szabadlábra bocsátás esetén) a jobban képviselt csoportokat részesítik előnyben.[37] Így például, ha a múltban több fehér embert bocsátottak szabadon, mint színesbőrűt, a MI nagyobb valószínűséggel követi ezt a példát a jövőben, és ezáltal igazolja a lehetséges előítéleteket. Így a gépi tanulás szándék hiányában is lehet elfogult, mivel nem ismeri fel, hogy a statisztikai következtetések nem lesznek automatikusan helyesek.[38] A MI-val kapcsolatos döntéshozatalnak ez az eltérése lesz érvelésünk középpontjában akkor, amikor a tanulmány e folyamatok egyenlő bánásmódra gyakorolt hatását érinti.
Bármely döntéshozatali folyamat során adódhatnak váratlan, kiszámíthatatlan helyzetek, amelyekre a MI nem tud felkészülni. A tudomány ezt a jelenséget hosszú farok problémának (long tail problem) nevezi, ami a MI egy másik hiányosságára mutat rá.[39] Csak egy konkrét kérdésre tud választ adni, de más eseteket már nem tud megoldani.[40] Nem tudja tágabb kontextusba helyezni az ügyet, felmérni, hogy a konkrét jogsértés okai lehetnek-e az adott általános jogrendszer szisztematikus hiányosságai vagy problémái.
A MI nem tud méltányosságot gyakorolni eljárásai során, mivel döntései puszta számításokon alapulnak. Hosszú távon a bírósági döntések többé nem az ügyek eseti indokolásain alapulnának, hanem pusztán statisztikai számításokon, amelyek más bíróságok által korábban már elbírált adatokhoz kapcsolódnak.[41] Még ha a MI kezdetben valamilyen súlyozást is programoz
- 18/19 -
a rendszerbe - amint azt a gépi tanulás folyamatában láttuk -, akkor is teljesen más irányba fejlődhet, amint működni kezd, anélkül, hogy méltányosságot gyakorolna. Ezekre a tényezőkre később visszautalunk majd, amikor a MI-döntéshozatal fő hiányosságait megvizsgáljuk a tisztességes eljáráshoz való jog összefüggésében.
Véleményünk szerint a tudományos és technológiai fejlődés jelenlegi szintjén a MI alkalmazása az igazságszolgáltatás területén három fő kategóriába sorolható, pontos funkcióik és a bíróságon betöltött szerepük alapján. A MI támogathat szoftvereket bizonyos bírósági feladatokhoz; konkrét javaslatokat nyújthat be a bírósági határozatok tartalmára vonatkozóan; és a bíróságon az emberi beavatkozástól teljesen független döntéshozóként működhet közre. Az első két opció tűnik olyannak, amelyek belátható időn belül széles körben elterjedhetnek, ezért tanulmányunkban erre a két kategóriára fogunk összpontosítani. Mindazonáltal a független döntéshozó mesterséges intelligenciával kapcsolatos, már meglévő kísérleteket is felsoroljuk és értékeljük.
A vonatkozó jogszabályok, esetjogi példák és jogi szakirodalom átfogó ismerete elengedhetetlen ahhoz, hogy a bíróság részletesen kibontott indoklásaiban fejlessze joggyakorlatát. Ennek eredményeként minden bírói döntést hosszadalmas és aprólékos jogi kutatómunka előz meg. A MI-alapú jogi kutató szoftvereket ennek a folyamatnak a felgyorsítására tervezték. Az összes releváns adat megadásával a program összefoglalja a kérdést egy kutatási eredményben. A tengerentúlon az egyik, ha nem a leggyakoribb jogi kutató szoftver a LexisNexis. Adatbázisa több mint 83 milliárd jogszabályt és ítélkezési gyakorlatból vett példát, 40 000 jogi szakcikket és 700 millió cégbejegyzési adatot tartalmaz.[42] A hasonlóan elterjedt alkalmazások között
- 19/20 -
a Westlaw[43] és az Anylaw[44] programokat érdemes még megemlíteni, azonban ezek mind olyan szoftverek, amelyeket kereskedelmi társaságok fejlesztettek ki és üzemeltetnek, nem bíróságok vagy más állami szervek. Kivételként áll India Legfelső Bírósága, amely kifejlesztette és bevezette saját jogi kutatásait szolgáló operációs rendszerét, a SUPACE-t (Supreme Court Portal for Assistance in Courts Efficiency).[45]
A jogi kutatási eszköztár továbbfejlesztett változatában ismerhetjük meg az Alexsei nevű megoldást. A program jogi kérdésekre ad választ egy használatra kész memorandum formátumában. A feljegyzés a kutatási kérdésből, a program következtetéseiből és a jogszabályi háttérből áll.[46]
A bírói munka támogatásának másik formája a Prometea nevű MI-n alapuló alkalmazás az Amerikai Emberi Jogok Bíróságán, amely ítéleteken kívül más bírói dokumentumokat hoz létre az emberi bírák számára.[47]
A kínai internetbíróságok támogatják a MI bevezetésének különböző dimenzióit, amelyek segítik az emberi bírókat munkájukban, de nem helyettesítik őket teljesen. A Hangzhou Internet Court intelligens bizonyítékelemző rendszert fejlesztett ki, amely blokklánc, MI, Big Data és cloud computing technológiákat alkalmaz. Elemzi és összehasonlítja a felek által benyújtott összes bizonyítékot, majd a releváns információk szétválogatása és osztályozása után vizuálisan bemutatja az emberi bíró megfontolására érdemes bizonyítékokat.[48]
Következő alkategóriaként olyan példákat mutatunk be, amelyekben a MI rendszer önállóan értékeli a bírósági döntést igénylő kérdést, majd bemutatja a lehetséges válaszokat tartalmazó javaslatot. Az előterjesztett álláspontot A)
- 20/21 -
a bíróság később jóváhagyhatja, és az azonos tartalmú határozat hivatalossá is válhat; B) megváltoztathatja az emberi bíró, ha nem ért egyet bizonyos részekkel saját meggyőződése alapján, vagy saját kutatási eljárásának eredményeként, vagy C) teljes egészében elutasítható, és helyébe kizárólag emberi elbíráláson alapuló ítélet léphet. Az automatizált folyamatból származó javaslat nem feltétlenül terjed ki az ügy minden vonatkozására, de alkalmas a vitás kérdések rendezésére. Az ilyen típusú MI-n alapuló bírósági szoftvereket különböző példákon keresztül mutatjuk be.
Az Amerikai Egyesült Államok egyes tagállamaiban (például New York, Wisconsin, Kalifornia és Florida) a bíróságok büntetőügyekben egy COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) nevű, MI-alapú rendszert alkalmaznak. Ez az eszköz az elkövetők visszaesési arányának meghatározásához elvégzett adatszámításokhoz nyújt segítséget.[49] A COMPAS következtetéseit az alábbi adatokból vonja le: korábbi és függőben lévő vádak, büntetett előélet, lakóhely, foglalkoztatási státusz, közösségi kapcsolatok és kábítószerfogyasztási szokások. Mindezen tényezők összehasonlítása után 1-től 10-ig terjedő skálán értékeli az elkövető visszaesésének esélyeit, amelyekre a bíróság később az esetleges szabadon bocsátásról szóló döntését alapozhatja.[50]
A második példa Malajziából származik. A malajziai bíróságok dönthetnek úgy, hogy MI-t alkalmaznak a kábítószer birtoklásával vagy nemi erőszakkal kapcsolatos bűncselekmények miatt a büntetés kiszabására. Nem találtunk megfelelő magyarázatot arra, hogy miért használják a MI-t kifejezetten e két bűncselekmény esetében. A következtetés olyan paraméterekre támaszkodik, mint az elkövető életkora, foglalkozása és egyéb körülményei, amelyeket eseti értékelés alapján határoztak meg, amennyiben relevánsnak ítélik.[51]
Mexikóban a bíróságok MI segítségével dönthetik el, hogy valaki jogosult-e nyugdíjra vagy sem. Az Expertius nevű program a múltbeli követelésekre, a követelések eredményeire, a meghallgatási jegyzőkönyvekre és a jogerős ítéletekre vonatkozó információkra alapozza számításait.[52]
- 21/22 -
A kolumbiai igazságszolgáltatási rendszer is megoldásokat keres az emberi bíró munkaterhelésének enyhítésére. Az alkotmánybíróságon egy PretorIA nevű MI rendszert tesztelnek jelenleg, amely segíti a gyámsági kiválasztási eljárásokat. A PretorIA nem helyettesíti ezt az emberi feladatot, de megkönnyíti azáltal, hogy először elemzi a gyámügyi iratokat, hogy több feldolgozott információt juttasson azokhoz, akik arról döntenek, hogy melyik gyámot érdemes kiválasztani.[53] Hasonló programokat találunk Kolumbia szomszédjában, Brazíliában. Minas Gerais államban a Radar nevű szoftver elolvassa a bírósághoz benyújtott követeléseket, azonosítva az ismétlődő érveket, és ezekből az információkból levezeti az alkalmazandó jogot. Továbbá, előzetes jogi kutatása alapján javaslatot tesz a szóban forgó ügy megoldására, amelyet a bírók később módosíthatnak.[54]
Utolsó alfejezetként néhány olyan példát mutatunk be, ahol a MI döntése teljes mértékben átveszi az igazságszolgáltatás szerepét. Ebben az esetben az emberi részvétel kizárt az eljárásból, és arra csak a felek külön kérésére lehet hatással fellebbezési fórumként.
A MI által vezetett digitális bíróságok talán legnépszerűbb példája Kínában található: az első internetes bíróságot 2017-ben hozták létre Hangzhou városában,[55] majd további kettőt Pekingben és Kantonban.[56] A bírósági eljárást bárki kezdeményezheti digitalizációval kapcsolatos kérdésekben (pl. fogyasztóvédelmi panaszok, online szerzői jogi viták, elektronikus fizetés).[57] Az egész eljárás az online térben zajlik, a felek videóhívással vehetnek részt a meghallgatáson, és a bizonyítékukat online is feltölthetik titkosított formában, blokklánc-technológia segítségével. A bíró személyében egy MI-vel találjuk szembe magunkat, amely - minden rendelkezésre álló adat alapján - gépi tanulási módszerekkel oldja meg a vitát.[58]
- 22/23 -
Érdemes kitérni a Brazíliából származó, kissé eltérő modellre is. A VICTOR nevű bírósági projekt[59] célja a brazil legfelső bíróság jogi panaszainak minősítése a mintafelismerési mechanizmus segítségével. Brazíliában a Legfelső Bíróság külön befogadhatósági tesztet alkalmaz a beérkezett kérelmek elbírálására. A bíróságnak figyelembe kell vennie az ügy jelentőségét a gazdasági, politikai és társadalmi szempontok tükrében is, meghatározva ez alapján, hogy érdemben fog-e foglalkozni a beadvánnyal.[60] Egy fél keresetét csak akkor veszik érdemben figyelembe, ha azt az befogadhatósági vizsgálat során megfelelőnek ítélik, ellenkező esetben végül elutasítják. A VICTOR rendszer elvégzi ezt a tesztet emberi beavatkozás nélkül.[61] Bár az adott ügy teljes tartalmát nem ítéli meg a VICTOR rendszer, a befogadhatóságról szóló független döntés azonban meggátolhatja az ügy érdemi mérlegelését, ezért úgy véljük, hogy a következményekre tekintettel a MI-t ebben az esetben is döntéshozónak kell tekinteni, és ezen a ponton keresztül jelentős hatással lesz az igazságszolgáltatáshoz való hozzáférésre.
Amint azt az 1.4.1. alfejezetben már említettük, Argentínában Buenos Aires város ügyészsége a Prometea nevű szoftvert állította fel a bírósági eljárás automatizálása érdekében. A dokumentumkészítés automatizálása mellett - amint azt korábban már említettük - a Prometea felhasználható bírósági döntések meghozatalára is. A szoftver chatbotként működik, akivel megbeszélheti a jogi problémáját az ügyfél, ha a lakhatási jogvita bírósági szintet ér el. Kéri az ügyszámot, majd illeszti azt a mögöttes jogi problémához. A megfelelő következtetés elérése érdekében a Prometea több mint 300 000 bírósági döntést dolgoz fel az interneten keresztül. Fellebbezések esetén áttekinti az ügy iratait, beleértve az alacsonyabb fokú bíróságok ítéleteit. Ezt követően kivonja a korábbi ítéletek mintáit, és összehasonlítja őket az ügyészségen már aláírt jogi véleményekkel.[62]
- 23/24 -
Az algoritmikus döntéshozatal ötlete Európában is megvetette a lábát: Észtország azt tervezi, hogy a MI-t bevezetik a 7000 eurót meg nem haladó vagyonjogi ügyekben.[63] Más észt kezdeményezések célja az emberi bírák helyettesítése az automatizált gyorsított fizetési meghagyási eljárásokban.[64] Ezek a projektek még előkészítő szakaszban bár, de megfelelő stádiumban vannak ahhoz, hogy felhívják a figyelmet arra, hogy más országok is értékelhetik és mérlegelhetik ezeket a megoldásokat.
Módszertanunk kifejtését, valamint témánk technológiai hátterének és az elérhető gyakorlati tapasztalatoknak a felvázolását követően rávetítjük mindezeket a tisztességes eljáráshoz való jog egyes elemeire, ami kutatásunk fő újszerűségét jelenti. Annak érdekében, hogy megkönnyítsük a szemben álló érvek összevetését, a MI bírósági jelenlétének feltehető előnyeit X-szel, a hátrányokat kifejtő szövegrészeket pedig Y-nal jelöljük.
A bírósági döntések[65] tiszteletben tartása és megfelelő végrehajtása a bíróságokba vetett társadalmi bizalomból következik, a bírák legitimációjának tehát vitán felül kell állnia, vagy legalább is ilyennek kell látszania.[66]
X1. Egyrészről a MI hozzájárulhat a társadalmi bizalom erősítéséhez különösen az egyszerű megítélésű ügyekben, amelyekben a MI gyorsabban
- 24/25 -
és pontosabban hozhat döntéseket, mint egy emberi bíró, ami hatékonyabbá teheti az igazságszolgáltatás rendszerét.[67]
X2. Emellett a MI igénybevétele egyes részfeladatok ellátására minimalizálhatja az ítélkezést esetlegesen torzító olyan külső körülmények súlyát, mint hogy a bíró az adott napon mikor és mit evett, vagy milyen előítéletekkel rendelkezik embertársait, illetve a társadalmi jelenségeket illetően.[68]
Y1. Másrészről számos mérvadó szerző adott hangot aggodalmainak elsősorban az emberi és a gépi tanulás és érvelés eltérő sajátosságai kapcsán. Az érthetőség, az értelmezhetőség, valamint a kompatibilitás a MI-vel szemben az alapvetően emberi környezet és logika által támasztott elvárás, a MI-nek pedig ebben a környezetben kell kifejtenie hatásait.[69] Amennyiben a MI döntése vagy az ahhoz vezető logikai folyamat nem megismerhető vagy ellenőrizhető az emberek részéről, az számottevő nehézségeket idézhet annak alkalmazói számára.[70]
Y2. Másodsorban, a MI közreműködése esetén feltételezett magasabb szintű pártatlanság is erősen megkérdőjelezhetőnek látszik. A MI nem kerül az emberekéhez hasonló szubjektív előítéletek befolyása alá, jelentős mértékben manipulálható azonban szoftvereinek fejlesztői által, illetve a belé táplált adatokkal, amelyek alapján a MI esetleg torz mintákból vonhat le következtetéseket. E szerint az érvelés szerint tehát kétségtelenül remélhető bizonyos emberi hibák kiküszöbölése, a megszűrt adatokon alapuló statisztikai következtetések azonban nem vezethetnek legitim eredményre.[71]
Y3. Végül, de nem utolsó sorban a hagyományos előmenetel szerint minden bíró hosszú éveket tölt el a jogi felsőoktatásban, továbbá kinevezését megelőzően jelentős gyakorlati tapasztalatokra is szert kell tennie a szükséges jogi készségek elsajátítása, valamint a társadalmi jelenségek alaposabb megismerése érdekében.[72]
A bíróságokba vetett bizalom leginkább azon a feltételezésen alapul,
- 25/26 -
hogy a bírák magasan képzettek, erkölcsileg pedig fedhetetlenek, jelenlegi körülményeink között azonban ezek a kategóriák csak az emberi bírákra, illetve a szoftverek fejlesztőire nézve értelmezhetőek.
Fentiek alapján úgy is érvelhetnénk, hogy a kézzelfogható és tagadhatatlan előnyök ellenére a MI számára potenciálisan elérhető legitimáció jelenlegi szintje távol esik az emberi bírákkal szemben támasztott elvárásoktól.[73] Álláspontunk szerint ezért a MI jelenleg csak a jogi kutatásba vonható be, vagy legfeljebb kisebb jelentőségű ügyekben járhat el szigorú kontroll mellett különösen a MI integrációjának első fázisaiban.
X3. A MI a bírósághoz való könnyebb hozzáférést is szolgálhatja a bíróságok kapacitásának határait jelenleg kijelölő külső akadályok mérséklésével. A MI hatékonyságát nem befolyásolná a munkateher megnövekedése, ráadásul a MI képes lenne egyszerre akár több emberi bíró feladatait is ellátni meggyorsítva ezzel lényegesen a bírósági munka valamennyi fázisát.[74]
X4. Egy további előrelátható előny lenne a számottevő költségmegtakarítás, ami az állami költségvetés, illetve az egyéni peres felek szintjén is éreztetné hatását.[75] Kevesebb bíró tudna elbírálni ugyanannyi ügyet azonos időtartam alatt, ezzel az egyes ügyekre fordítható idő és figyelem megnövekedne, ráadásul kevesebb bírósági alkalmazottra lenne szükség. Emellett a bírósághoz fordulás technikai kivitelezése is nagy mértékben leegyszerűsödne, az adminisztratív költségek pedig gyakorlatilag eltűnnének.
X5. Az iménti előnyökön felül a MI részt vehetne a befogadhatóság vizsgálatában is, ahol jórészt formai szempontokat kellene mérlegelnie. Az emberi bírák legfeljebb az összetettebb befogadhatósági kérdésekkel foglalkoznának, a legtöbb ilyen kérdésben azonban MI is tudna megalapozott döntést hozni. Ez tovább mérsékelné a bíróságok leterheltségét, miközben a peres felek hamarabb értesülnének keresetük befogadásáról vagy formai okból történő visszautasításáról.[76]
- 26/27 -
Y4. Mégis az említett kedvező hatások ellenére a MI jelenléte a bíróságokon hozzájárulhat a társadalmi különbségek erősítéséhez a bíróságokhoz való hozzáférés tekintetében. Azok a marginalizált helyzetben lévő társadalmi csoportok, akik nem rendelkeznek a szükséges kompetenciákkal, infrastruktúrával és attitűddel újabb nehézségekkel szembesülhetnek a bírósághoz fordulás, vagy a peres ügybe történő bekapcsolódás esetén.[77] A MI bírák jelenléte tehát kedvező lehet a megfelelő háttértudással rendelkező emberek számára, a döntéshozatalban hagyományosan alulreprezentált csoportok súlya viszont tovább csökkenhet.
Célszerű tehát álláspontunk szerint prudens módon eljárni a bírósághoz való hozzáférés tekintetében is, a MI kezdetben csak opcionális lehetőségként merülhet fel szigorú emberi felügyelet mellett, a felek kifejezett hozzájárulását kell megkövetelni ahhoz, hogy a MI-t bármilyen formában bevonhassa a bíróság az eljárásba, akár csak részfeladatok ellátására is.
X6. Az észszerű időn belül történő elbírálás követelménye az egyetlen aspektusa a tisztességes eljáráshoz való jognak, ahol a MI előnyei megkérdőjelezhetetlenek. A modern technológia vívmányai időt, pénzt és energiát takaríthatnak meg a bíróságok számára, így számos ügy elhúzódása megelőzhető lehetne a MI bevonásával.[78]
X7. A MI nem szembesül olyan nehézségekkel, mint egy emberi bíró: a munkaidő keretei érdektelenek a MI szempontjából, de a fáradtság, vagy az alváshiány tényezőivel sem kell ez esetben számolnunk. A MI kutathatja az esetjogot és ez alapján akár néhány másodperc alatt jelentéseket készíthet az emberi bírák számára. Az alkalmazható esetjogot lényegesebben gyorsabban be lehet azonosítani és a MI képes lehet azonosítani azt is, hogy a korábbi joggyakorlatban felmerülő mely érvek hívhatóak fel egy adott jogvitában. Könnyen belátható tehát, hogy a MI mint bíró vagy a bíró munkáját segítő algoritmus hozzájárulhat ahhoz, hogy azonos idő alatt több ügyet lehessen elbírálni megközelítőleg a korábbival megegyező alapossággal. Tehát pusztán az ügyek elhúzódásának szempontjából nézve a MI bírósági alkalmazása előremutató kezdeményezésnek tűnhet. Figyelembe kell vennünk azonban
- 27/28 -
e részjogosítvány összefüggéseit a tisztességes eljáráshoz való jog egyéb elemeivel is, ami már jóval összetettebb képet eredményez. Egy Konkrétabb példát említve, a MI hatékonyabban dolgozhatja fel a rendelkezésre álló bizonyítékokat, mérlegelése mégis félrevezető lehet, mert figyelmen kívül hagyhat olyan aspektusokat, amelyek nyilvánvalóak egy ember számára, ugyanakkor idegenek a statisztikai elemzésen alapuló algoritmikus logikájától.
A nyilvánosság a bírósági eljárások fontos garanciája, amelynek érvényre kell jutnia az eljárás valamennyi szakaszában: a tárgyalásokon, az ügyiratokban, de az ítélet tartalmában, valamint indokolásában is.
X8. A MI a tárgyalások nyilvánosságát is elősegítheti, mivel a modern technológiának köszönhetően sokkal egyszerűbb lehet online regisztrálni és csatlakozni a tárgyalásokhoz, mint vállalva az odautazást személyesen megjelenni hallgatóságként a tárgyalóteremben.[79]
Ennek ellenére meglátásunk szerint legalább három komoly aggályra szükséges ezen a ponton felhívni a figyelmet:
Y5. Először is amint arra már részben rámutattunk és később is visszatérünk még rá, egy MI által hozott ítélet indokolása nem hozzáférhető az emberek számára értelmezhető formában.[80]
Y6. Másodszor, a felek nem ismerhetik meg az eljárások dokumentációját az átláthatóság hiánya, illetve a döntéshozatal gyorsasága miatt. Amennyiben a peres fél egy az ügy során keletkező adat rendelkezésre bocsátását kérelmezi, valószínűleg már akkor elkésett, hiszen a MI még azelőtt meghozza döntését, hogy érdemi lehetőség lenne ilyen beadványok előterjesztésére.[81] Ráadásul nehéz rekonstruálni a MI alapú szoftverek tartalmát és működését aktiválásukat követően a fekete doboz hatásának következtében, így a keletkező adatok könnyen elérhetetlenné, vagy archiválhatatlanná válhatnak.[82]
- 28/29 -
Y7. Harmadszor, számos MI fejlesztő cég vagy állami ügynökség titkosíttatja a MI döntéshozatali mechanizmusainak részleteit nemzetbiztonságilag érzékeny információknak, vagy üzleti titoknak minősítve azokat. Szükséges lenne ezért átláthatósági szabályokat alkotni e nem kívánatos következmények kiküszöbölése érdekében, különösen a közhatalom gyakorlásához technológiai hátteret biztosító magánszereplők esetében.[83] Továbbá az engedélyezett MI alapú rendszereknél is biztosítani kell a folyamatos és független emberi felügyeletet,[84] amelyet nem a technológiai vállalatok saját munkatársainak vagy megbízottjainak, hanem a bíróságok alkalmazottainak kell végezniük.
Néhány szerző arra is felhívta a figyelmet, hogy olyan magasszintű átláthatósági követelményeket és olyan részletes indokolási kötelezettséget támasztunk a MI-vel összefüggésben, amelyek messze túlmutatnak az emberi bírákra vonatkozó követelményeken.[85] Ugyanakkor a MI bírákra nézve a standardnak a tisztességes eljáráshoz való jognak kell lennie, nem pedig a bírói tisztséghez kapcsolódó tradicionális elvárásoknak.
A nyilvánosság szempontjából a MI szerepének növelése a bíróságokon vonzó ötletnek tűnhet, két alapvető fenntartást mégis szükséges hangsúlyozni: az átláthatósági deficitet megfelelő garanciák beépítésével el kell kerülni; ezen túl ki kell alakítani egy olyan rendszert, amely megfelelő hozzáférést biztosít a peres ügyek dokumentációjához és lehetővé teszi azok fenntartható és biztonságos hosszútávú archiválását is.
A MI számos formában hívható segítségül a bizonyítékok értékeléséhez. A MI beavatkozhat független szakértőként, amely kizárólag a tudományos érveken és a racionalitáson alapul.[86] Emellett a MI új aspektusokkal egészítheti ki a bizonyítékok értékelését a modern technológia fejlődésének köszönhetően.[87]
- 29/30 -
X9. Felmerülhet továbbá egy olyan érv is, hogy MI szakértő esetén a szakvélemény pártatlansága megkérdőjelezhetetlen lesz,[88] továbbá nem fogják befolyásolni korábbi társadalmi tapasztalatai, az egyes csoportokkal vagy egyénekkel szemben kialakult jó, vagy rossz benyomásai sem, továbbá nem fog túláltalánosítani információ morzsákból kiindulva.[89]
Y8. Ezzel szemben számos releváns és jelentős megfontolás maradhat figyelmen kívül a bizonyítékok mérlegelésekor, mivel a MI logikája egészen más megközelítést alkalmaz, mint az embereké.[90] Az emberi bíró ítélete a társadalmi valóságon nyugszik, a bírónak azt kell megállapítania, hogy egy adott személy viselkedése vagy vélelmezett viselkedése olyan volt-e, amely általában elvárható egy átlagos belátási képességgel és körültekintéssel eljáró személytől.[91] Emellett az emberi bíró képes a bizonyítékokat elhelyezni azok társadalmi kontextusában, ami szintén értékes szempontokat szolgáltathat a szembenálló érdekek teljeskörű és kiegyensúlyozott értékeléséhez.[92] A MI nem képes felismerni azokat az eseteket például, amelyek rendszerszintű visszásságokból erednek, és ha meg is tud oldani egyszerűbb jogi problémákat, a számára ismeretlen tényekkel, vagy jogi helyzetekkel nem tud mit kezdeni (hosszú farok probléma).[93]
Y9. Emellett az emberi bíró esetenként méltányosságot gyakorol, amikor egy alapvetően felróható magatartás a konkrét körülmények, vagy az érintett személy respektálható indítékai fényében nem tekintendő ilyennek.[94] Hasonló rugalmasság a MI-től nem várható, a hosszú farok probléma írja le a vonatkozó szakirodalomban, hogy a MI előre nem látható, vagy statisztikailag le nem írható helyzeteket nem tud kezelni.[95]
- 30/31 -
Úgy véljük, hogy a MI bírósági integrációjának első szakaszában a MI csak szakértői vélemény elkészítésével vehet részt aktívan a bizonyítékok mérlegelésében. Több tapasztalatra, tudásra lenne szükség, illetve a technológiai fejlődésnek is további lépéseket kell még megtennie ahhoz, hogy a bizonyítékok megbízható értékelésére alkalmas algoritmusok jöjjenek létre.
X10. A MI kizárhat az igazságszolgáltatásból bizonyos - emberek által konstruált - előítéleteket,[96] ezeket a feltételezett kedvező hatásokat azonban erős érvek ellensúlyozhatják.[97] A MI látszólag semleges és racionális karaktere ellenére könnyen használható szándékosan vagy körültekintés híján diszkriminatív bírósági ítéletek megalkotására is.[98]
Y10. Egyrészről, az olyan marginalizált társadalmi csoportok, mint az etnikai kisebbségek vagy a fogyatékkal élő személyek általában kedvezőtlenebb bűnelkövetési statisztikával rendelkeznek más közösségekkel összehasonlítva, ezért a MI szemében kevésbé megbízható embereknek számítanak, akik szabadon bocsájtása esetén komoly kockázata lehet a visszaesésnek.[99] Az ilyen szoftverek rendszerint nem veszik közvetlenül figyelembe a bőrszínt, vagy az etnikai hátteret, mégis a mérlegelt szempontok körét úgy lehet megállapítani, hogy az lényegesen kedvezőtlenebb lesz a rosszabb társadalmi helyzetben lévő csoportok számára összehasonlítva a jobban szituáltakkal. A már említett COMPAS szoftver esetében egy elítélt személy kifogásolta e rendszer alkotmányosságát, a bíróság azonban a rendszert helytállónak tartotta mert úgy ítélte meg, hogy az kizárólag a bűnelkövetésse8l objektív összefüggésbe hozható tényezőkön alapul. Mégis néhány tudományos jellegű vizsgálat azt mutatta ki, hogy látszólagos semlegessége ellenére a rendszer tényleges működése súlyosan diszkriminatív a színesbőrű közösségre nézve.[100]
- 31/32 -
Y11. Egy másik a diszkriminációval összefüggő aggály a tanítóadatok összeállításához kötődik: a MI kizárólag azokból az adatokból tud építkezni, amelyeket az adott eljárás során vagy azt megelőzően betápláltak. Következésképpen a MI döntései könnyen manipulálhatóak, torzító tanítóadatokkal a MI könnyen vezethető megalapozatlan következtetésekre.[101]
A MI hatása valószínűleg nehezen lesz kiszámítható a bíróságokon jelenlévő diszkriminációra, ezt egy újabb érvnek tartjuk a prudenciális megközelítés mellett. A jelenlegi körülmények között túlságosan kockázatosnak tartjuk a MI-re bízni például a szabadságvesztés büntetések időtartamának megállapítását, az implementáció kezdeti szakaszában a MI-t ehelyett csak kisebb súlyú büntetések (például pénzbüntetés) mértékének megállapítására alkalmaznánk. További vizsgálatok szükségesek annak tisztázására, hogy a MI térnyerése a bíróságokon hogyan befolyásolja majd a diszkrimináció jelenlétét, illetve hogyan lehet kizárni a modern technológiák esetében a döntéshozatal manipulálását.
A MI bevonása az igazságszolgáltatásba nem csak az eljárás szakaszait, hanem az ítéletek tartalmát és formáját is érinti.[102] Említettük, hogy a MI a technológiai fejlettség jelenlegi fokán nem képes részletes indokolást szolgáltatni döntéseihez, legalábbis az indokolás hagyományos emberi fogalmát tekintve. A MI részvétele esetén is fenn kell tartani a bíróságokba vetett társadalmi bizalmat, ezért ilyen algoritmusok csak akkor juthatnak meghatározó szerephez az igazságszolgáltatásban, amennyiben képessé válnak az emberek számára is értelmezhető részletes indokolásokat megfogalmazni. Ennek jelenlegi hiányát három okból is problémásnak tekintjük.
Y12. A bíróságokba vetett, már hangsúlyozott társadalmi bizalomnak egyik alapja az a feltevés, hogy a bíróság ítéletét fair, kiegyensúlyozott és körültekintő eljárás előzte meg.[103]
Y13. Az indokolás egy teljeskörű ítélet integráns eleme és fontos szerepe van a jogbiztonság fenntartásában is: az érdekeltek a bíróság korábbi indokolásait górcső alá véve felmérhetik folyamatban lévő ügyeik előrelátható végkime-
- 32/33 -
neteleit.[104] Érdemi indokolás nélkül az előreláthatóság és a normavilágosság puszta fogalmakká süllyed valódi tartalom nélkül, ami alááshatja a tisztességes eljáráshoz való jog, és ezen keresztül a jogállamiság érvényesülését is. Az emberi bírák továbbá számos értelmezési módszert alkalmaznak (szöveghű, teleologikus, történeti, rendszertani, morális, kontextuális, precedensen alapuló, összehasonlító) és az adott ügy elbírálásakor az összes körülmény mérlegelésével a lehető legkonzekvensebb érvelést készítik el. A MI technológiák ismeretében erősen kérdéses, hogy ezek az értelmezési dilemmák mennyire kódolhatók a MI részére is feldolgozható formában.
Y14. A logikai folyamat puszta eredménye nem elegendő a bíróság gondolatmenetének alaposabb tanulmányozásához, és annak eldöntéséhez, hogy a határozat mögött meghúzódó érvek elfogadhatóak-e a felek számára. A jogorvoslati eljárásban az azt kezdeményező félnek ki kell fejtenie álláspontja ténybeli és jogi alapját, ez azonban nem reális elvárás akkor, ha az elsőfokú bíróság érvelése nem áll a felek rendelkezésére.[105] Az emberekkel folytatott többpólusú hatékony kommunikáció, valamint a számukra is értelmezhető részletes indokolás megfogalmazásának képességei elengedhetetlen előfeltételei a MI érdemi integrációjának a bíróságok munkájába. Mindaddig, amíg a technológiai fejlődés nem jut el erre a szintre, a MI álláspontunk szerint nem hozhat önállóan bírósági döntéseket,[106] pusztán a bíróság munkáját támogató eszközként vehető számításba és csak szigorú emberi felügyelet mellett játszhat szerepet az igazságszolgáltatás bármely részfolyamatában.
Az előző alfejezetekben számos potenciális előnyét és hátrányát vettük sorra a MI bírósági használatának, most elérkeztünk arra a pontra, hogy mérlegre tegyük a szembenálló érveket és ez alapján meghatározzuk az általunk javasolt intézkedéseket a MI bíróságokon történő prudenciális alkalmazásának előmozdítására. Kitértünk már a nem kielégítő indokolás összefüggéseire a jogorvoslathoz való joggal, most azonban a probléma egy további aspektusára
- 33/34 -
hívjuk fel a figyelmet. Felvethető az a kérdés is, hogy a MI-t érdemes lenne-e bevonni az igazságszolgáltatás valamennyi szintjének munkájába, vagy csak az elsőfokú eljárásba, vagy pedig mint egy opcionális többletlehetőséget az elsőfokú bíróság eljárását megelőzően.[107]
A magunk részéről a harmadik modellt támogatjuk: a MI akár támogató eszközként is csak az elsőfokú bíróság eljárását megelőzően vehető igénybe, valamennyi félnek pedig kifejezett hozzájárulását kell adnia ehhez. Amennyiben bármely fél ellenzi a MI akár szakértőként, akár a jogesetet elemző szoftverként történő igénybe vételét, az elsőfokú bíróságnak a hagyományos szabályok szerint kell lefolytatnia az elsőfokú eljárást. Ha az eljárásban résztvevők elfogadták a MI közreműködését, az ilyen módon hozott elsőfokú ítélet joghatásai azonosak bármely más elsőfokú bírósági ítéletével, a feleknek azonban biztosítani kell az egyébként irányadó fellebbezési határidőt arra, hogy kifogást emeljenek a MI szerepvállalásának az ítélet konkrét tartalmára gyakorolt hatásaival szemben. Amennyiben a rendelkezésre álló határidőn belül valamely fél az említett kifogást benyújtja, az elsőfokú bíróságnak a hagyományos eljárási szabályok szerint kell újratárgyalnia az ügyet MI bevonása nélkül, figyelmen kívül hagyva a MI bevonásával zajló eljárást: az ügy tárgyalását a legelejétől újra kell kezdeni. A MI bevonásával zajló quasi előzetes eljárás lehetősége ugyanakkor nem zárhatja ki azt sem az implementáció első időszakában, hogy az elsőfokú emberi bíróság döntéseivel szemben a hagyományos szabályok szerint a felek fellebbezést terjesszenek elő. Első körben a MI opcionális igénybevételét is elsősorban a kisebb pertárgyértékű polgári, illetve a kisebb súlyú büntetésekkel sújtható bűncselekmények elkövetőivel szemben zajló büntető eljárásokban tartjuk helyesnek azzal, hogy e két kör lehatárolását természetesen pontosítani szükséges.
Elképzelésünk szerint a MI az implementáció első szakaszában mintegy alternatív vitarendezési eszközként kapcsolódna be az igazságszolgáltatásba, bármely eljárási cselekményének csak akkor lenne kötelező ereje a felekre nézve, amennyiben azok kifejezetten hozzájárultak ehhez. Vitán felül áll, hogy a MI térnyerésének vázolt prudenciális modellje az ügyek további elhúzódását idézheti elő, mindez azonban a felek akaratából történne és ugyanakkor lehetőséget biztosítana a teljes jogkereső közösség számára, hogy a gyakorlatban is tapasztalatot szerezhessen egy kétségtelen előnyökkel járó új technológiáról anélkül, hogy az az eljárási garanciák maradéktalan
- 34/35 -
érvényesülését befolyásolná. A bírósági igazgatásban a MI esetleg kevésbé szigorú standardok mentén is átvehetne bizonyos feladatokat, például a felek kifejezett hozzájárulása nélkül, mivel az ilyen vonatkozásoknak kevésbé közvetlen a hatása a felek alapvető jogainak tiszteletben tartására. Érdemes ezen a ponton megjegyezni, hogy e szabályozási konstrukcióhoz némileg hasonló szisztémát jelenít meg a hatályos államigazgatási rendtartásunk is, amikor a fél kérelmére az automatikus döntéshozatalt követően a rendes eljárási szabályokra történő áttérésről rendelkezik.[108]
A tisztességes eljáráshoz való jog főbb elemeinek és a MI azokra gyakorolt feltehető hatásainak számbavételét követően arra fókuszálunk, mindez hogyan érinti a jogállamiság alapvető standardjainak érvényesülését, amelyekre gondolatmenetünk kiindulópontjaiként korábban már utaltunk.
Amint korábban már kifejtettük, a tisztességes eljáráshoz való jog részjogosítványai valójában a jogállamiság elvének az igazságszolgáltatásban kulcsszereppel bíró leképeződései. Az igazságszolgáltatás a jogállamiság őrzője és ebben a minőségében minden hozzá forduló személy számára tisztességes eljárást kell garantálnia.
Idézve Ulenaerts figyelemfelkeltő gondolatát: "A MI nem képes tiszteletben tartani a tisztességes eljáráshoz való jog bizonyos alapértékeit, az pedig, hogy nem képes döntéseihez részletes indokolást csatolni, különösen nagy problémát jelent."[109] Mindez nem csupán a részletes indokoláshoz és a jogorvoslathoz való jog szempontjából komoly probléma, hanem a jogbiztonság szempontjából is. Az első kockázat már a jog kódokká átalakítása során jelentkezne.[110] Másrészről a bírósági ítéletek gyakran alakítják, vagy legalábbis kibontják a jogszabályok tartalmát. Annak mélyreható magyarázata nélkül tehát, hogy hogyan jutott a bíróság egy adott következtetésre, egyrészt nehéz lenne ezt kifogásolni, másrészt nehéz lenne kiszámítható jogi környezetet teremteni. Az Európai Parlament is felismerte ezeket a kockázatokat és állásfoglalásában
- 35/36 -
- összhangban az Európai Unió alapértékeivel - elvi éllel rögzítette, hogy a MI alapú technológiák használata nem vezethet a jogbiztonság sérelméhez és a MI egyelőre nem helyettesítheti az emberi bírákat semmilyen döntés meghozatalában.[111] Mindezek összhangban vannak az Európai Parlament korábbi, az Európai Bizottság számára megfogalmazott javaslataival: a MI nem helyettesítheti a bíróságot még olyan döntések meghozatalában sem, mint a kaució elfogadása, vagy a próbára bocsájtás, hiszen az egyének számára kötelező jogkövetkezményt előíró, vagy őket más módon jelentősen befolyásoló döntés nem hozható meg kizárólag automatizált rendszerek által, érdemi emberi közreműködés nélkül.[112] Az európai parlamenti állásfoglalás pedig ismételten leszögezi: "A MI bírósági felhasználása hatékonyabbá teheti az adatok gyűjtését és rendszerezését, valamint az áldozatok védelmét, ezért fontos kutatni az ebben rejlő lehetőségeket, illetve hatástanulmányokat készíteni a témában különös tekintettel a tisztességes eljáráshoz való jog védelmére és a visszaélések megelőzésére, ugyanakkor a MI szerepvállalása egyelőre nem helyettesítheti az érdemi emberi közreműködést a döntéshozatalban."[113]
Ezzel ellentétben a Mesterséges Intelligencia Rendelet arányos kockázati elemzést követően európai szinten harmonizált szabályokat helyezett kilátásba a MI alapú technológiák fejlesztéséről, piacra juttatásáról, valamint használatáról. A MI azon felhasználásait a tervezet megtiltaná, mint például amelyek ellentétesek az Európai Unió alapértékeivel, míg speciális korlátozásokat és garanciákat javasol a tervezet bizonyos, a jogszabályok érvényre juttatása érdekében használt távirányítású biometrikus azonosításon alapuló rendszerekkel szemben. A tervezet kockázatuk szerint osztályozza a MI alapú rendszereket és azonosítja azokat a magas kockázatúnak minősített felhasználási módokat, amelyek fokozott kockázatot hordoznak az emberek egészségére, biztonságára, illetve alapvető jogaik érvényesítésére nézve. Ezeknek a MI alapú rendszereknek számos kötelező horizontális előírásnak kell megfelelniük a társadalmi bizalom fenntartása és a kockázatok minimalizálása érdekében az uniós piacra való belépésüket megelőzően.[114] A Mesterséges Intelligencia Rendelet erőteljes horizontális emberi jogi szemléletet képvisel,
- 36/37 -
és a kockázatok alapján tesz különbséget a MI alapú technológiák között, (I) az elfogadhatatlan kockázatot okozó és ezért tiltott (II) magas kockázatú és (Ill) minimális kockázatú alkalmazások között. Ebből kiindulva a javaslat megerősíti, hogy "[b]izonyos, a bíróságok igazgatásában és egyéb demokratikus folyamatokban közreműködő MI alapú rendszereket magaskockázatúnak kell tekintenünk, a demokráciára, a jogállamiságra, valamint az egyének alapvető jogaira, különös tekintettel a jogorvoslathoz és a tisztességes eljáráshoz való jogra gyakorolt jelentős potenciális hatásaik miatt. A hibák, a visszaélések és az átláthatatlanság veszélyei miatt magaskockázatúnak kell minősíteni azokat az MI alapú technológiákat, amelyek az esetjog, vagy a tények kutatásában, értelmezésében, illetve a jogszabályi környezetnek a konkrét tényekre vetítésében segítik az igazságszolgáltatást. Mindez azonban nem vonatkozik az olyan eszközökre, amelyek csak kisegítő és az egyének alapvető jogait közvetlenül nem érintő feladatokban támogatják a bíróságokat, mint az ügyiratok, adatok és ítéletek anonimizálása, vagy archiválása, a bírósági alkalmazottak közötti kommunikáció, illetve feladatmegosztás."[115]
A MI bírósági alkalmazására vonatkozó jövőbeni európai szabályozás jelenleg kirajzolódó irányai arra mutatnak, hogy egyelőre nem kell számolnunk azzal, hogy a MI az emberi bírók helyett ítéleteket hozna, és támogató eszközként is csak prudenciális keretek között vehető igénybe még a bíróságok igazgatásában is.[116] Szükséges kidolgozni e rendszerek hitelesítésének, engedélyeztetésének, valamint a felettük gyakorolt folyamatos és érdemi emberi kontroll részletes szabályait.
Tanulmányunkban rámutattunk a gépi tanulás néhány olyan sajátosságára, mint az átláthatatlanság, illetve a korlátozottság, amelyek alapvetően meghatározzák a MI esetleges részvételét az igazságszolgáltatásban.
Pillanatnyilag a MI bíró, vagy az igazságszolgáltató applikáció az okostelefonokon nem tűnik reális jövőképnek. A bírósági munkával összefüggésben a jogalkotásnak folyamatosan figyelemmel kell kísérnie a technológiai fejlődés alakulását, valamint az újabb megoldások esetleges hatásait a tisztességes eljáráshoz való jog egyes részelemeinek érvényesülésére és megfelelő ga-
- 37/38 -
ranciák beépítésével kell reflektálnia az újabb és újabb kihívásokra úgy, hogy ugyanakkor a modern technológiák előnyei is kiaknázhatóak maradjanak.[117]
Álláspontunk szerint a MI hasznos lehet az esetjog elemzésében, kisebb jelentőségű és gyakran előforduló ügytípusokban akár önállóan is hozhat döntéseket, mint például az online vásárlással vagy szolgáltatásokkal összefüggő jogvitákban, azonban ilyenkor is kizárólag emberi felügyelet mellett. A MI akár támogató eszközként is csak az elsőfokú eljárást megelőzően lenne bevonható mindaddig, ameddig nem rendelkezünk kellő gyakorlati tapasztalattal ezen a téren és ehhez is valamennyi fél kifejezett hozzájárulására lenne szükség. Az emberi méltóságból következően a fél gyakorolhatja a választás és az önrendelkezés szabadságát akkor, amikor peres útra tereli jogvitáját. Az emberi méltóság tiszteletben tartása érdekében pedig különösen fontosak a büntetőjogi garanciák a MI ilyen eljárásokban történő igénybe vétele esetén.
Lord Sales, az Egyesült Királyság Legfelső Bíróságának tagja egyik előadásában a MI és az algoritmusok helyét és lehetséges szerepét járta körbe az alkotmányos demokráciában, és így fogalmazott: "A MI és az algoritmus a hatalom egy olyan új formáját testesítik meg, amely új jogalkotási kihívásokat vet fel az alapvető jogok definiálását és szabályozását, valamint az illegitim és nem kívánatos hatalomgyakorlással szembeni garanciákat illetően. Ugyanakkor a hatalommal való visszaélés megakadályozása és az alapvető jogok újtípusú kockázatokkal szembeni oltalmazása mellett a jogi környezetnek lehetővé kell tennie azt is, hogy ezt az az eddig ismeretlen formájú hatalmat társadalmilag értékes célokra fel lehessen használni. A jognak tehát az élére kell állnia a modernizációnak ahelyett, hogy ellenállna annak."[118]
Egyetértve Lord Sales főbb gondolataival, előremutatónak tartjuk a MI bírósági alkalmazása lehetőségeinek folyamatos vizsgálatát, szem előtt kell viszont tartanunk a prudencia és a technológiai vívmányok igazságszolgáltatásba történő fokozatos bevonásának az elveit, továbbá meg kell teremteni az előzetes és folyamatos emberi kontroll eszközrendszerét a jogállamiság és az emberi jogok jelenlegi garanciarendszerének fenntartása érdekében. ■
JEGYZETEK
[1] A tanulmány a 138965. számú NKFIH pályázat és a Mesterséges Intelligencia Nemzeti Laboratórium keretében készült, az Innovációs és Technológiai Minisztérium, valamint a Nemzeti Kutatási, Fejlesztési és Innovációs Hivatal támogatásával.
[2] Az újabb szakirodalomból lásd például: Reiling, A. D. Dory: Courts and artificial intelligence. International Journal for Court Administration, 2020, 11(2), 1-8.
[3] Lásd például: Nakad, Henriette et. al.: The Rise Of The Robotic Judge In Modern Court Proceedings. 2015, 59-67.; https://www.researchgate.net/publication/300720949_The_Rise_of_the_Robotic_Judge_in_Modern_Court_Proceedings (2021. 08. 11.); Yilmaz, Oğuz Gökhan: Using ai in judicial practice - can AI sit on the bench in the near future? Law Justice Review, 2019/10, 67-102.
[4] Részletekért lásd: Székely János: Lawyers and the machine. Contemplating the future of litigation in the age of AI. Acta Universitatis Sapientiae, Legal Studies, 2019, 8(2), 231-244.; Volokh, Eugene: Chief justice robots. Duke Law Journal, 2019, 68, 1135-1192.; Siboe, Nancy: Use of Artificial Intelligence by the Judiciary in the Face of Covid-19. Oxford Human Rights Hub, 2020. https://ohrh.law.ox.ac.uk/use-of-artificial-intelligence-by-the-judiciary-in-the-face-of-covid-19/covid-19/ (2021. 10. 04.).
[5] A releváns források válogatását lásd az 1.4. pontban.
[6] https://www.europarl.europa.eu/doceo/document/TA-9-2021-0009_HU.html (2021. 09. 14.).
[7] https://eur-lex.europa.eu/legal-content/HU/TXT/?uri=CELLAR%3Ae0649735-a372-11eb-9585-01aa75ed71a1 (2021. 09. 03.)
[8] A kiemelkedően gazdag szakirodalom szemléltetéseképp lásd: Badiul Islam, Mohammad - Governatori, Guido: RuleRS: A rule-based architecture for decision support systems. Artificial Intelligence and Law, 2018, 26(4), 318-344.; Gideon, Christian: Predictive coding: adopting and adapting artificial intelligence in civil litigation. Canadian Bar Review, 2019, 97(4), 486-525.; Gunkel, David J.: The other question: Can and should robots have rights? Ethics And Information Technology, 2018/20, 87-99.
[9] https://eur-lex.europa.eu/legal-content/HU/TXT/?uri=CELLAR%3Ae0649735-a372-11eb-9585-01aa75ed71a1 3. cikk (1) bekezdés (2021. 09. 03.)
[10] Az automatizáció és a mesterséges intelligencia komplex kapcsolatát elemző szakirodalomhoz lásd bővebben: Branting, L. Karl: Data-centric and logic-based models for automated legal problem solving. Artificial Intelligence and Law, 2017, 25(1), 5-27.; Morison, John - Harkens, Adam: Re-engineering justice? Robot Judges, Computerised Courts and (semi) automated legal decision-making. Legal Studies, 2019, 39(4), 1-25.; Karanasiou, Argyro - Pinotsis, Dimitris: A study into the layers of automated decision making: emergent normative and legal aspects of deep learning. International Review of Law, Computers & Technology, 2017, 31(1) 1-35.; Dymitruk, Maria: The right to a fair trial in automated civil proceedings. Masaryk University Journal of Law and Technology, 2019, 13(1), 27-44.
[11] Lásd: https://eur-lex.europa.eu/legal-content/HU/TXT/HTML/?uri=CELEX:52020DC0580&from=EN (2021. 08. 31.)
[12] Az Emberi Jogok Európai Egyezménye 6. cikk. https://www.echr.coe.int/documents/convention_hun.pdf (2021. 08. 31) A tisztességes eljáráshoz való alapvető jogot az Európai Unió Bírósága is mint "az EJEE 6. cikkéből fakadó jogot" ismeri el, lásd például: A Bíróság 2000. január 11.-ei ítélete: Holland Királyság és Gerard van der Wal kontra az Európai Közösségek Bizottsága. C-174/98. P. és C-189/98. P. sz. egyesített ügyek. Lásd továbbá az Európai Unió Alapjogi Chartájának 47. cikkét. https://eur-lex.europa.eu/legal-content/HU/TXT/PDF/?uri=CELEX:12016P/TXT&from=EN (2021. 08. 31.)
[13] Joggal a Demokráciáért Európai Bizottság (Velencei Bizottság): Jogállamisági ellenőrzőlista. Elfogadva a Velencei Bizottság 106. Plenáris Ülésén, Velence, 2016. március 11-12. (a továbbiakban: Velencei Bizottság RoL Checklist) 5, 40-46.
[14] Uo. 25.
[15] Eszteri Dániel: Hogyan tanítsuk jogszerűen a mesterséges intelligenciánkat? Magyar Jog, 2019/12, 669-681.
[16] Yavar, Bathaee: The artificial intelligence black box and the failure of intent and causation. Harvard Journal Of Law & Technology, 2018/30, 890., 893-894.
[17] Surden, Harry: Machine learning and law. Washington Law Review, 2014, 89(1), 89-92.
[18] Ferencz Bálint: Az algoritmikus döntéshozatal aktuális kérdései. HUNEXPERT, 2020. https://hunexpert.hu/wp-content/uploads/2020/03/Ferencz-Bálint-Az-Algoritmikus-Döntéshozatal-Aktuális-Kérdései.pdf (2021. 09. 23.)
[19] https://towardsdatascience.com/the-7-steps-of-machine-learning-2877d7e5548e (2021. 08. 27.)
[20] Rai, Arun: Explainable AI: from black box to glass box. Journal of The Academy of Market Science, 2020/48, 137-141.
[21] A felügyelet nélküli gépi tanuláshoz kapcsolódóan lásd továbbá: Ayodele, Taiwo Oladipupo: Types of Machine Learning Algorithms. In: Zhang, Yagang (ed.): New Advances in Machine Learning, London, IntechOpen, 2010, 19, 19-48.
[22] Eszteri i. m. 669-681.
[23] Chen, Xue-Wen - Lin, Xiaotong: Big Data Deep Learning: Challenges and Perspectives. IEEE Access, 2014/2, 514-515.
[24] de Saint-Laurent, Constance: In defence of machine learning: debunking the myths of artificial intelligence. Europe's. Journal of Psychology, 2018/14, 734-737.
[25] Johnson, Christopher W.: The Increasing Risks of Risk Assessment: On the Rise of Artificial Intelligence and Non Determinism in Safety-Critical Systems. Safety-Critical Systems eJournal, 2018, 1-15. http://www.dcs.gla.ac.uk/~johnson/papers/SCSC_18.pdf (2021. 09. 27.)
[26] Burrel, Jenna: How the machine 'thinks': Understanding opacity in machine learning algorithms, Big Data & Society, 2016, 1-12. https://journals.sagepub.com/doi/10.1177/2053951715622512 (2021. 10. 09.)
[27] Dr. Bodon Ferenc: Adatbányászati algoritmusok, 2009. https://web.archive.org/web/20090205011458/ http://www.cs.bme.hu/~bodon/magyar/adatbanyaszat/tanulmany/adatbanyaszat.pdf (2021. 10. 03.)
[28] Lásd: https://www.turing.ac.uk/sites/default/files/2019-06/understanding_artificial_intelligence_ethics_and_safety.pdf (2021. 10. 10.)
[29] https://towardsdatascience.com/explainable-artificial-intelligence-14944563cc79 (2021. 09. 17.).
[30] Eszteri Dániel: Elosztott mesterséges intelligencia-fejlesztés blokklánc alapon az adatvédelem érdekében. Pro Futuro, 2020/1, 9-27.
[31] Molnár Péter: A felhőalapú számítástechnika szabályozását befolyásoló tényezők és ezek vizsgálata. In: Erdős Csaba (szerk.): Doktori Műhelytanulmányok 2019. Budapest, Gondolat Kiadó, 173-176.
[32] Scherer Matthew, U: Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies. Harvard Journal of Law & Technology, 2016, 29(2), 1-48.
[33] Biggio, Battista - Roli, Fabio: Wild Patterns: Ten years after the rise of adversarial machine learning. Pattern Recognition, 2018/1, 1-17.
[34] Sourdin, Tania: Judge v robot? Artificial intelligence and judicial decision-making. University of New South Wales Law Journal, 2018/4, 1131-1133.
[35] Scherer i. m. 48.
[36] Surden i. m. 93-95.
[37] Goodman, Bryce - Flaxman, Seth F.: European Union regulations on algorithmic decision-making and a "right to explanation". AI Magazine, 2016/3, 1-9.
[38] Karácsony G. Gergely: A mesterséges intelligenciák szabályozásának közjogi kérdései. In: Glavanics Judit (szerk.): A gazdasági jogalkotás aktuális kérdései. Budapest-Pécs, Dialóg Campus, 2019, 53. 53-67.
[39] Bodon i. m. 1-320.
[40] Re, Richard M. - Solov-Niederman, Alicia: Developing Artificially Intelligent Justice. Stanford Technology Law Review, 2019/22, 242., 261.
[42] https://www.lexisnexis.com/en-us/products/lexis.page (2021. 09. 23.)
[44] https://blog.anylaw.com/2020/06/10/new-machine-learning-technology-by-anylaw-disrupts-20b-legal-research-industry/ (2021. 09. 30.)
[45] https://www.indiatoday.2021.india/story/supreme-court-india-sc-ai-artificial-intellegence-portal-supace-launch-1788098-2021-04-07 (2021. 09. 29.)
[46] https://www.alexsei.com/solution/#structure (2021. 10. 10.)
[47] https://medium.com/astec/prometea-artificial-intelligence-in-the-judicial-system-of-argentina-4dfbde079c40 (2021. 10. 05.)
[48] https://www.chinacourt.org/article/detail/2019/12/id/4747683.shtml (2021. 10. 10.)
[49] Czenczer Orsolya - Bottyán Sándor: Büntetés-végrehajtási algoritmusok - Tallózás a büntető igazságszolgáltatásban alkalmazott technikai nóvumok és fejlett technológiai megoldások tárházából a büntetés-végrehajtás vonatkozásában. Magyar Rendészet, 2021/3, 18-19.
[50] http://www.northpointeinc.com/downloads/compas/Practitioners-Guide-COMPAS-Core-_031915.pdf (2021. 09. 18.)
[51] https://www.utusanborneo.com.my/2020/01/17/mahkamah-sabah-dan-sarawak-bakal-guna-aplikasi-ai-dalam-sistem-perundangan (2021. 10. 29.)
[52] Goretty, Carolina Martínez Bahena: La inteligencia artificial y su aplicación al campo del Derecho. Alegatos, 2012/82, 827.
[53] A PretorIA bemutatásához lásd: https://ialab.com.ar/pretoria/ (2021. 10. 03.)
[54] https://www.globallegalinsights.com/practice-areas/ai-machine-learning-and-big-data-laws-and-regulations/brazil (2021. 10. 19.)
[55] Hangzou internetes bíróság hivatalos oldalához lásd: https://www.netcourt.gov.cn/ (2021. 10. 10.)
[56] http://www.cac.gov.cn/2019-12/12/c_1577686244875634.htm (2021. 10. 09.)
[57] https://hznews.hangzhou.com.cn/jingji/content/2019-06/14/content_7210416.htm (2021. 09. 30.)
[58] https://www.business-standard.com/article/pti-stories/ai-judges-and-verdicts-via-chat-app-the-brave-new-world-of-china-s-digital-courts-119120600902_1.html (2021. 10. 04.)
[59] Supremo Tribunal Federal de Brazil: Inteligencia artificial vai agilizar a tramitação de processos no STF. JUSBRASIL, 2018. https://stf.jusbrasil.com.br/noticias/584499448/inteligencia-artificial-vai-agilizar-a-tramitacao-de-processos-no-stf (2021. 10. 15.)
[60] https://www.mondaq.com/brazil/constitutional-administrative-law/57864/the-supreme-federal-tribunal-and-the-general-repercussion-requirement (2021. 10. 05.)
[61] Nilton, C. Silva et. al.: Document type classification for Brazil's supreme court using a Convolutional Neural Network. The Tenth International Conference on forensic computer science and cyber law, 2018, 7-11. https://www.researchgate.net/publication/328582117_Document_type_classification_for_Brazil's_supreme_court_using_a_Convolutional_Neural_Network (2021. 10. 05.)
[62] https://publications.iadb.org/publications/spanish/document/PROMETEA-Transformando-la-administracion-de-justicia-con-herramientas-de-inteligencia-artificial.pdf (2021. 09. 01.)
[63] https://150sec.com/estonia-to-empower-ai-based-judge-in-small-claims-court/10985/ (2021. 10. 09.)
[64] Jan-Matthias, Mandri: Kohtunikud saavad robotabilised: riik otsib voimalusi kohtusüsteemis tehisintellekti rakendamiseks [A bírák robotikus asszisztensekké válnak: az állam a mesterséges intelligencia alkalmazásának útjait keresi] FORTE, 2019. https://forte.delfi.ee/artikkel/85777829/kohtunikud-saavad-robotabilised-riik-otsib-voimalusi-kohtususteemis-tehisintellekti-rakendamiseks.
[65] A bírósági ítélet fogalmához és mibenlétéhez lásd Bragyova András: A bírósági ítélet alkotmányellenessége. Alkotmánybíráskodás és rendes bíráskodás az alkotmányjogi panasz vizsgálatában. In: Gárdos-Orosz Fruzsina (szerk.): Normativitás és empíria. A rendes bíróságok és az Alkotmánybíróság kapcsolata az alapjog-érvényesítésben, 2012-2016, Budapest, TK JTI, 2020, 17-30.
[66] Michelman, Frank I.: Legitimacy and moral support. International Journal of Constitutional Law, 2019/17, 1059-1063.
[67] Saint Laurent. i. m. 738-739.
[68] Julius Buocz, Thomas: Artificial intelligence in court. Legitimacy problems of AI assistance in the judiciary. Retskraft - Copenhagen Journal of Legal Studies, 2018, 2(1), 41.
[69] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2983045 (2021. 10. 24.)
[70] Ződi Zsolt: The code of AI and human laws. Acta Universitatis Sapientiae Legal Studies, 2018/8, 253., 260.
[71] Barroso, Luís Roberto: Technological revolution, democratic recession, and climate change: The limits of law in a changing world. International Journal of Constitutional Law, 2020/8, 334., 339-340.
[72] Sourdin, Tania: Justice and technological innovation. Journal of Judicial Administration, 2015/28, 96.
[73] Sourdin (2018) i. m. 1123-1124.
[74] Katsh, Ethan - Rabinovich-Einy, Orna: Access to Digital Justice: Fair and efficient processes for the modern age. Cardozo Journal of Conflict Resolution, 2017/18, 637, 655-657.
[75] Цувіна, T. A.: Online courts and online dispute resolution in terms of the international standard of access to justice:international experience. Problems of legality, 2020/149, 62-79.
[76] Rabinovich-Einy - Katsh i. m. 655-657.
[77] Salter, Shannon: Online dispute resolution and justice system integration: British Columbia's Civil Resolution Tribunal. Windsor Yearbook of Access to Justice, 2017, 34(1), 112., 114-115.
[78] Dymitruk i. m. 37-38.
[79] Guihot, Michael - Matthew, Anne F. - Suzor, Nicolas P: Nudging Robots: Innovative Solutions to Regulate Artificial Intelligence. Vanderbilt Journal of Entertainment & Technology Law, 2017/20, 422-423.
[80] Kelemen Katalin: Constitutional reasoning: A flourishing field of research in comparative law. International Journal of Constitutional Law, 2019/17, 1336-1344, 1536.
[81] Huq, Aziz Z. et al: Algorithmic Decision Making and The Cost of Fairness Kdd'17. In: Proceedings Of The 23rd Acm Sigkdd International Conference On Knowledge Discovery And Data Mining. Halifax, NS, 2017, 1-10.
[82] Jootaek, Lee: Artificial intelligence and human rights: four realms of discussion, research, and annotated bibliography. Rutgers International Law & Human Rights Journal, 2020 https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3625848 (2021. 11. 24.)
[83] Chief Justice Warren, Marilyn: Embracing technology: the way forward for the courts. Journal of Judicial Administration, 2015/24, 227-232.
[84] https://rm.coe.int/feasability-study-en-cepej-2020-15/1680a0adf4 (2021. 10. 24.)
[85] Binns, Reuben: Fairness in Machine Learning: Lessons from Political Philosophy. Conference on Fairness, Accountability, and. Transparency, Proceedings of Machine Learning Research, 2017/81, 1-11,
[86] Walton, Douglas: When expert opinion evidence goes wrong. Artificial Intelligence and Law, 2020/27, 361., 369-401.
[87] Petit, Nicolas: Law and regulation of artificial intelligence and robots-conceptual framework and normative implications. Department of Law, 2017/31, 1-31.
[88] Bench-Capon, Trevor - Modgil, Sanjay: Norms and value-based reasoning: justifying compliance and violation. Artificial Intelligence And Law, 2017/26, 29.
[89] Raso, Filippo A. et al: Artificial Intelligence & Human Rights: Opportunities & Risks. Berkman Klein Center Research Publication, 2018/6, 1-63.
[90] Marques Martins, João: A system of communication rules for justifying and explaining beliefs about facts in civil trials. Artificial Intelligence and Law, 2020, 28(1), 135-150.
[91] Seda, Fabian: Artificial intelligence and the law: will judges run on punch cards, Common Law Review, 2020/16, 4-6.
[92] https://www.coe.int/en/web/cepej/cepej-european-ethical-charter-on-the-use-of-artificial-intelligence-ai-in-judicial-systems-and-their-environment (2021.10.24.)
[93] Verheij, Bart: Proof with and without probabilities. Artificial Intelligence and Law, 2017/25, 127-154.
[94] Roth, Andrea: Trial by machine, Georgetown Law Journal, 2016/104. 48.
[95] Pastukhova, Alina: Artificial Intelligence as a Judge: Can We Rely on a Machine? https://lib.ugent.be/fulltxt/RUG01/002/376/194/RUG01-002376194_2017_0001_AC.pdf?fbclid=IwAR36TWzQ8OdciwzHDYlIteVQNStxy481EjKdaMz-2aAmv2PeGlt9grgIRxY36 (2021. 10. 24.)
[96] Borgesius, Frederik: Strengthening legal protection against discrimination by algorithms and artificial intelligence. The International Journal of Human Rights, 2020, 24(10), 1572., 1575-1578.
[97] https://carrcenter.hks.harvard.edu/files/cchr/files/humanrightsai_designed.pdf (2021. 10. 24.)
[98] Rovena, Rodrigues: Legal and human rights issues of AI: Gaps, challenges and vulnerabilities. Journal of Responsible Technology, 2020/4, 1-12.
[99] Nizan Geslevich, Packin - Yafit, Lev Aretz: Learning algorithms and discrimination. In: Barfield, Woodrow - Pagallo, Ugo (eds.): Research Handbook on The Law of Artificial Intelligence. Cheltenham (UK), Edward Elgar Publishing, 2018. 45-63.
[100] https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm (2021. 10. 24.)
[101] https://www.relativity.com/data-solutions/ediscovery/ (2021. 10. 24.)
[102] Morison, John - Harkens, Adam i. m. 3.
[103] https://fr.euronews.com/2019/01/28/l-intelligence-artificielle-s-invite-aupres-de-la-justice (2021. 11. 24.)
[104] Scherer, Matthew U. i. m. 364.
[105] Edwards, Lilian - Veale, Michael: Slave to the algorithm? Why a 'right to an explanation' is probably not the remedy you are looking for, Duke Law & Technology Review, 2017/16, 18-84.
[106] Ulenaers, Jaspers: The Impact of Artificial Intelligence on the Right to a Fair Trial: Towards a Robot Judge? Asian Journal of Law and Economics, 2020/11, 37-38.
[107] Schmitz, Amy J.: Expanding access to remedies through e-court initiatives. Buffalo Law Review, 2019/67, 89-91.
[108] Az államigazgatási rendtartásról szóló 2016. évi CL. törvény, 42. §
[109] A szerzők fordítása. "AI is at odds with some of the core values of fair trial rights, and »its inability to provide legal reasoning and justification for a decision« is a significant impediment." Ulenaers, Jasper i. m. 37-38.
[110] https://www.law.kuleuven.be/citip/blog/robot-judges-and-legal-certainty/ (2021. 10. 24.)
[111] https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_HU.html (2021. 10. 24.)
[112] Uo. 71. pont.
[113] https://www.europarl.europa.eu/doceo/document/TA-9-2021-0009_HU.html 69. pont (2021. 10. 24.)
[114] https://eur-lex.europa.eu/legal-content/HU/TXT/?uri=CELLAR%3Ae0649735-a372-11eb-9585-01aa75ed71a1 3. pont (2021. 11. 20.)
[115] Uo. 40. cikk.
[116] De Gregorio, Giovanni: The rise of digital constitutionalism in the European Union. International Journal of Constitutional Law, 2021/19, 41, 61-64.
[117] Uo. 61-64.
[118] A szerzők saját fordítása. "[AIs] and algorithms give rise to a form of power which raises new challenges for the law, in its traditional roles of defining and regulating rights and of finding controls for illegitimate or inappropriate exercise of power. At the same time, alongside controlling abuse of power and abuse of rights, law has a function to provide a framework in which this new power can be deployed and used effectively for socially valuable purposes. In that sense, law should go with the flow and channel it, rather than merely resist it." https://www.bailii.org/bailii/lecture/06.pdf (2021. 10. 24.)
Lábjegyzetek:
[1] A szerző tudományos főmunkatárs, MTA TK JTI, egyetemi oktató, NKE RTK.
[2] A szerző kutatási asszisztens, MTA TK JTI.
[3] A szerző tudományos munkatárs, MTA TK JTI.
Visszaugrás