A jogállami büntetőeljárás hagyományos kérdéseinek megválaszolása napjainkban összetett bírói mintafelismerést igényel. A mesterséges intelligencia pontosan ebben a sokváltozós adatelemzésben válhat a büntetőbíróságok segédeszközévé. A gépi tanulás nyomán jelenleg zajló paradigmaváltás ugyanis ezen a területen is felveti a tudományelméleti kérdést: milyen mértékben automatizálható a büntetőbíró tevékenysége? A nagy nyelvi modellek közelmúltbéli elterjedésével vajon a háttérbe szorulnak vagy inkább felértékelődnek azok a készségek és kompetenciák, amelyek a büntető bíráskodást is humánussá teszik? E kérdések megválaszolása során nem feledkezhetünk meg az emberi döntéshozatal fekete dobozairól, mint ahogy a technológia biztonságos, megbízható és etikus jogi kereteinek a megteremtéséről sem.
Answering the traditional questions of criminal proceedings under the rule of law today requires complex judicial pattern recognition. Artificial intelligence can become an aid to criminal courts precisely in this multivariate data analysis. The paradigm shift currently taking place due to machine learning also raises the theoretical question in this field: to what extent can the criminal judge's activities be automated? With the recent spread of large language models, are the skills and competences that make criminal justice more humane relegated to the background, or are they rather enhanced? When answering these questions, we cannot forget the black boxes of human decision-making, as well as the creation of safe, reliable, and ethical legal frameworks for technology.
A büntetőeljárás terrénumában ugyanazokra a kérdésekre keressük a választ évszázadok óta: történet-e bűncselekmény, és ha igen, azt ki követte el, ugyanakkor kell-e vele szemben büntetőjogi jogkövetkezményt alkalmazni.[1] A különbség, hogy az említett kérdések eldöntéséhez napjainkban több változót használunk. A bűncselekmények összetettsége, a bizonyítási eszközök sokrétűsége, az elkövetői alakzatok társassága, a bűnügyi együttműködés nemzetköziesedése, a szankciórendszer automatizmusai és a korlátozott precedensrendszer hatályba lépése csupán néhány azon tényezők köréből, amelyek megsokszorozták a jogállami büntetőeljárásban elvárható bírói mintafelismerés dimenzióit.[2] A mesterséges intelligencia (a továbbiakban: MI) pontosan ebben a sokváltozós adatelemzésben válhat a büntetőbíróságok segédeszközévé.[3]
Jelen tanulmány keretében előbb a technológia használata körül zajló paradigmaváltásra hívom fel a figyelmet, amelyet ezután a szűkebb értelemben vett büntető igazságszolgáltatás[4] terrénumában értelmezek a szakirodalomban formálódó érvcsoportok ütköztetésével. A téma aktualitását tükrözi, hogy az MI-alapú eszközök a közelmúltban teljesen nyitottá váltak a világ számára, és azzal nem csupán a magánszemélyek, de a bírák is nyíltan kísérleteznek. A kolumbiai bíróságokon példának okáért már több döntésben is megjelentek a nagy nyelvi modellek[5] által generált szövegrészek. Utóbbiakra persze nem egy egyszerű "másolással és beillesztéssel" került sor: a bírák a chatbottal folytatott jogi, illetve technikai diskurzusukat értelmezték, és azt rendeltetésszerűen, kvázi munkaeszközként használták a döntéshozataluk során.[6] Kérdés, hogy a ChatGPT-hez hasonló MI-rendszerek milyen mértékben automatizálhatják a büntetőbíróság tevékenységét[7].
- 1298/1299 -
Az MI több annál, mint nagy nyelvi modellek és ChatGPT. Az MI kifejezés olyan számítógépes rendszerek fejlesztésére utal, amelyek tipikusan emberi intelligenciát igénylő feladatok ellátására képesek[8]. Másképp fogalmazva: "[a]z intelligenciánk az, ami emberré tesz minket, és a mesterséges intelligencia e minőségi tulajdonságunknak a kiterjesztése."[9]
Az MI alapvetően három alkalmazási területre bontható. Az első az analitika, ami azt az elképzelést takarja, hogy az adatok gyűjthetők és rendszerezhetők. Ebből általában gazdasági, tudományos és adminisztratív értékeket nyerhetünk. A másik fő terület az automatizálás, amely szerint az emberek bizonyos funkcióikban gépekkel helyettesíthetők. A nagy nyelvi modelleknek köszönhetően egyre több olyan feladat végezhető, amivel részben vagy egészben helyettesíteni lehet az embereket. Ez növelheti a különféle eljárások hatékonyságát. A harmadik fő terület pedig a mesterséges általános intelligencia, vagyis az az elképzelés, hogy a technológia fejlesztésével ezek a rendszerek közelebb kerülnek az emberi viselkedéshez és kreativitáshoz.[10] Ettől persze még messze vagyunk és nem igazán tudjuk pontosan mit tegyünk, hogy idáig eljussunk, vagy egyáltalán szükséges-e idáig eljutnunk. Egy dolog viszont biztos: a technológia használata kapcsán éppen egy paradigmaváltásnak lehetünk tanúi.
A gépi tanulás megváltoztatja a számítógéphasználat módját. Hagyományosan úgy használjuk a számítógépeket, hogy programként írunk le egy eljárást, ami ezután feldolgozza az adatokat és kimeneti információkat generál. A gépi tanulás jelensége viszont megváltoztatja ezt a paradigmát, mert most már nem kell minden feladathoz programot írnunk, hanem pusztán párosítanunk kell több bemeneti és kimeneti adatot, majd a számítógép megtanulja: miként kell a bemeneti információkból a helyes kimeneti információkat létrehozni.[11] A rendszer tehát előállítja azt a programot, amely képes megválaszolni például az adott jogkérdést.
A legerősebb módszerek ezek közül a nagy nyelvi modellek (így különösen a konnekcionista, és ezen belül a transzformátor modellek), amelyek az emberi agyban lévő idegsejtek leegyszerűsített (neurális) hálózatára épülnek. A konnekcionista modellek esetében a mesterséges neuronok összekapcsolásával (egy függvény optimalizálásával) a rendszer megtanulja hogyan kell a bemenetet a megfelelő kimenethez társítani. A transzformátor modellek sokrétű neurális hálózatként a nagy adatmennyiséggel való betanításukat követően (statisztikai alapon) jósolják meg a soron következő szavak valószínűségét az adott szósorozatban (szóbeágyazás). Az agyunk is többé-kevésbé ezt csinálja: az adott kontextustól függő sorrendben hozza létre a különböző szósorozatokat.[12]
Csakhogy a legkorszerűbb transzformátor modelleket - így a ChatGPT-t is - szinte minden interneten tárolt adattal tanítottak be. A ténykérdésekre ezért nagy valószínűséggel értelmetlen, vagy egész egyszerűen téves válaszokat fognak generálni (hallucináció). Merőben más helyzet áll elő, ha tényadatbázisokkal kapcsoljuk össze őket, mert ilyenkor a természetes nyelven feltett kérdéseinkre kapott válaszokat egyszerűbb finomhangolni a forrásmegjelölések felhasználásával.[13] A válaszok mögött tehát valójában matematikai folyamatok rejlenek, és a különböző formában megjelenő számítási eredményeket embereknek kell visszaellenőrizniük az adathalmazok gondos kiválasztása ellenére is.[14]
Arra a kérdésre viszont, hogy az adott szöveget vajon nyelvi modell írta vagy sem, jelenleg csupán statisztikai jellegű válasz adható. A nyelvi modell ismeretében tudniillik meg lehet határozni, hogy nagyobb vagy kisebb annak a valószínűsége, hogy a kérdéses szöveg az adott nyelvi modellből eredeztethető. Ebből két dolog is következik: egyrészt nem lehetünk biztosak abban, hogy a szövegalkotás emberi vagy gépi eredetű, másrészt nem tudunk az eredetmeghatározás kérdésében állást foglalni, ha nincs információnk magáról a nyelvi modellről[15]. Minthogy a nyelvi modellek egyre több eszközön válnak elérhetővé, meg kell tanulnunk együtt élni egy olyan helyzettel, amelyben a
- 1299/1300 -
rendszerek megértik ugyan a nyelvünket, de az általuk generált szöveg eredete utólag nehezen meghatározható.
Következésképpen egy olyan új korszak felé haladunk, ahol már nem programozni kell a gépeket, hanem inkább megkérdőjelezni őket. Ily módon egyre fontosabbá válnak azok a készségek és kompetenciák, amelyek emberré tesznek bennünket, mert csak az tudja kihozni a legtöbbet ebből a helyzetből, aki a legjobban tudja kikérdezni ezeket a technológiákat. Kritikusnak kell lennünk a gépi válaszok elemzésekor, amihez szakértői józan észre, tudásra és tapasztalatra van szükség. Elvégre azoknak az embereknek lesz haszna ezekből az eszközökből, akik képesek megérteni a válaszok és az alapul szolgáló adatok minőségét[16].
Mit jelent ez a technológiai paradigmaváltás a szűkebb értelemben vett büntető igazságszolgáltatás körében?
Az érvek első csoportja az MI belső jellemzőihez kapcsolódik, rámutatva azokra a nehézségekre, amelyek a rendszer betanítása során jelentkeznek. Az Mi-rendszereknek tudniillik úgy van szükségük adatokra, mint ahogy az embereknek élelemre, és amennyiben ezek az adatok nem kielégítőek, akkor az eredmények sem lesznek azok. Példának okáért ahhoz, hogy az MI 95% feletti pontossággal legyen képes megkülönböztetni egy kutyát a macskától, összesen 25000 képre van szüksége.[17] Ez meglehetősen sok ahhoz képest, hogy az ember számára egy rendkívül egyszerű feladatról van szó. Mennyivel válik bonyolultabbá ez a folyamat, ha olyan összetett kérdésekben kell döntést hozni, mint amelyekben a büntetőbíróságok határoznak?
Digitális társadalmunkban persze nem is az adatok mennyisége jelenti a kihívást, hanem inkább a felhasználásukat szabályozó jogi keretek megalkotása. Minthogy az Európai Unióban van a legszigorúbb adatvédelmi szabályozás a világon, számos javaslat született az MI-rendszerek betanítására. Egy részük szerint a nem személyes adatok felhasználhatók erre a célra, mert sem az általános adatvédelmi rendelet[18] sem a bűnügyi irányelv[19] tárgyi hatálya nem terjed ki rájuk. Valójában ez nem ennyire egyértelmű, mert mindkét adatvédelmi forrás szerint személyes adatnak minősül minden olyan információ, ami egy azonosított vagy "azonosítható" természetes személyre vonatkozik. Éppen az utóbbi a probléma: manapság minden adat - még akkor is, ha úgy tűnik, hogy az el van különítve a természetes személytől - személyes adattá válhat az MI segítségével.[20] A javaslatok másik csoportja olyan szintetikus adatok felhasználását preferálja, amelyeket maga az MI állít elő a rendszer fejlesztése céljából. A fő probléma velük mégis ugyanaz: nincs rá garancia, hogy a szintetikus adatok nem személyes adatok, és ha kétely merül fel a minősítésükkel kapcsolatban, akkor ugyanúgy az adatvédelmi normák alkalmazandók.[21]
Az EU viszont nem a személyes adat fogálmának megváltoztatása, hanem közös európai adatterek létrehozása mellett döntött: olyan adatbuborékokat kíván létrehozni, amelyekben az információk könnyebben és biztonságosabban feldolgozhatók. Ezek az adatterek az igazságszolgáltatás terrénumát is érinteni fogják és központi szerepet fognak betölteni az MI-rendszerek betanításában.[22]
Az érvek második csoportja az elfogultsághoz kapcsolódik. Az elfogultság egy előzetes elképzelés (előítélet), ami arra készteti az embereket, hogy bizonyos módon cselekedjenek. Ez a legrosszabb esetben diszkriminatív döntéshozatalhoz vezethet. A technológiának viszont önmagában nincsenek torzításai: az abszolút semleges. Csakhogy a technológiát emberek alkotják, és az emberek közvetítik (belekódolják) saját elfogultságaikat. Ezért működnek úgy az algoritmusok ahogy.[23] Az elfogultság másik fő okát az adatok képezik. Ha a kezdetektől fogva arra neveljük gyermekeinket, hogy óvakodjanak a különböző rasszokba és
- 1300/1301 -
etnikumokba tartozó emberektől, így fogják megítélni őket. Ugyanez történik az MI-rendszerekkel is, ha azokat olyan adatokkal tanítjuk be, amelyek látszólagos összefüggést mutatnak az etnicitás és a normakövetés között. Ilyenkor az MI döntései is előítéletesek lesznek. Példaként hozható fel a Correctional Offender Management Profiling for Alternative Sanctions (a továbbiakban: COMPAS) szoftver, amelyet az Egyesült Államok bírói testülete széles körben használ a terheltek visszaesésének és távolmaradásának előrejelzésére[24]. Betanításához az USA börtönpopulációjáról vezetett nyilvántartás és a fogvatartottak körében végzett kérdőíves kutatás adatai szolgáltak. Az USA börtönpopulációjának többségét afroamerikai és más kisebbséghez tartozók képezik, ami teljes aránytalanságot mutat az általános népességhez viszonyítva. A kérdőívben ráadásul a szegénységbűnözéshez kapcsolódó kérdések is szerepeltek. A válasz ezekre a kérdésekre nagymértékben függ az egyén makrokörnyezeti tényezőitől. A létbizonytalanságból származó lakosság többségét ugyancsak afroamerikai és más kisebbségek alkotják.[25] Az elfogult adatokkal betanított COMPAS algoritmus így szisztematikusan magasabb kockázati értéket társított az említett tulajdonságokkal rendelkező terheltekhez.[26]
Ez kétségkívül nagyon erős érv az MI bírósági használatának mellőzése mellett, mert ezeknek a rendszereknek ilyen elfogultságai lehetnek, a bíráknak viszont nem. Ha viszont tényszerűen igaz, hogy a börtönpopuláció jelentős részét kisebbségek alkotják, akkor az is igaz, hogy nem az MI küldte oda őket. A szabadságvesztés végrehajtására vonatkozó döntéseket emberek hozták meg. Milyen következtetést vonhatunk le mindebből? Térjünk vissza Lombroso elméletéhez és ismerjük el, hogy a különböző rasszokba és etnikumokba tartozó emberek hajlamosabbak a bűnelkövetésre, vagy lássuk be, hogy minden embernek, így a bíráknak is vannak elfogultságaik?[27] Vajon az eljárási normákkal ki tudjuk küszöbölni maradéktalanul az emberi természet részét képező diszkriminatív döntéshozatalt? Feltehetően nem, ahogyan azt az Mi-rendszerek esetében sem. Csupán minimalizálni tudjuk azt jobb normaalkotás, kódolás és adatszolgáltatás révén.
Az érvek harmadik csoportja az emberi sajátosságokhoz kapcsolódik. Egy bíró átfogóan ismerheti a jogi dogmatikát és a rá épülő ítélkezési gyakorlatot, ugyanakkor az egyedi ügyeket olykor új perspektívából (a dobozon kívülről) is szükséges megközelítenie. Az MI erre nem képes, elvégre az csupán egy algoritmus. Persze manapság az MI rendkívül összetett rendszer, de a dobozon kívüli megközelítés nem lehet az algoritmus logikájának része, erre csak az ember képes.[28] A hangsúly tehát az intuíción van. A múltban hajlamosak voltunk azt gondolni, hogy a jog olyan, mint a matematika: teljesen logikai és racionális. A pozitivista irányzat tanulságait levonva, napjaink büntető ítélkezésében az intuíciónak mint emberi tulajdonságnak is meghatározó szerepe van, különösen a büntetéskiszabásnál.[29]
Nem feledkezhetünk meg az empátiáról sem, amikor más emberek sorsáról döntünk. A bíróságokon rendkívül fontos az emberhez méltó bánásmód, mert csak így tudjuk megérteni, hogy mit érez a másik.[30] Az érzelmi intelligencia ugyanúgy emberi tulajdonság. Persze nem minden ember empatikus, és bár vannak olyan MI-rendszerek, amelyek az arc-és gesztusos kifejezések alapján képesek érzékelni az érzelmeinket, jelenleg azonban nem értük el a mesterséges általános empátiát, ahogy a dobozon kívül gondolkodást sem.[31]
Úgy is fogalmazhatunk, hogy az MI jelenleg egy "szűk MI", ami bizonyos feladatokat és funkciókat ellát, de nem hasonlít ahhoz az intelligenciához, amivel mi emberek rendelkezünk.[32] A jogi nyelvezet
- 1301/1302 -
ráadásul egyedi, mert olyan fogalmakat használ, amelyek sajátosak vagy a hétköznapitól eltérő értelmet hordoznak. Miként fog a gép megérteni olyan fogalmakat, mint például az erős felindulásban elkövetett emberölés vagy a jogos védelem? A jogi tudás összetett, mert annak egyszerre képezik részét a magatartásra és a döntéshozatalra vonatkozó szabályok. Az elsődleges normák mellett ráadásul olyan másodlagos normák is léteznek, amelyek kijelölik az előbbiek alkalmazási körét. Az általánosan megfogalmazott jogi normákat ráadásul a konkrét esetre kell vonatkoztatni, amelynek során a jogi tudás konkretizálódik.[33]
Végül, az érvek negyedik csoportja a megmagyarázhatóság hiányával függ össze. A "fekete doboz" kifejezést széles körben használják a számítástechnikában, különösen az olyan kifinomult tanulási algoritmusokra, amelyek elrejtik a belső működésüket és ezzel megakadályozzák a megmagyarázhatóságot. Vagyis ismerjük a bemenetet és a kimenetet, de fogalmunk sincs, mi történt középúton. Fontos azonban leszögezni, hogy nem minden MI fekete doboz. Vannak fehér dobozok, ahol világosan érthető miként jutott el az MI bizonyos döntésekhez. Mindemellett vannak szürke dobozok is, ahol ez már nem teljesen egyértelmű: van némi rálátásunk, de bizonyos paramétereket meg kell becsülnünk.[34]
A legkifinomultabb MI, ami a jövőben talán képes lesz helyettesíteni egy büntetőbírót, jelenleg a fekete dobozok körébe sorolható. Egy bírónak viszont közérthetően és logikusan kell megindokolnia döntéseit, elvégre a felek ezeket az indokokat felhasználva tudják érvényesíteni a jogorvoslathoz való alapvető emberi jogukat. Ez rendkívül erős érv amellett, hogy a fekete doboz MI sosem fogja átvenni a bírói döntéshozatal szerepét, de ne feledkezzünk meg arról sem, hogy a valódi fekete doboz a fejünkben van. A memória az agyban is hálózatba van kódolva, nem pedig meghatározott helyeken tárolva, mint a hagyományos adatbázisokban. Annak ellenére, hogy mi hozzuk létre ezeket a mesterséges neurális hálózatokat, semmivel sem vagyunk közelebb a megértésükhöz, mint az emberi agy megértéséhez.[35] Hisz mindannyiunknak vannak logikus, kevésbé logikus vagy irracionális döntéseink. Sokszor csak utólag tudjuk megindokolni miért döntöttünk úgy az adott helyzetben ahogy. Ugyanezt megtehetjük az MI-vel is: válaszolhatunk.
A fenti érveket mérlegelve összességében megállapítható, hogy az MI jelen állás szerint inkább a mesterséges büntetőbíró vízióját vetíti előre, mintsem a valóságát. Sok szakma el fog tűnni és létre fog jönni az MI miatt, de ez így van már az ipari forradalom óta. Utóbbi persze nem zárja ki annak lehetőségét, hogy az MI a büntető igazságszolgáltatás értékes eszközévé váljon. Ehhez viszont elengedhetetlen megteremteni azokat a normatív kereteket, amelyek képesek bizalmat ébreszteni a felhasználókban az MI-alapú megoldások alkalmazása iránt.
A biztonságos, megbízható és etikus MI jogi kereteinek kialakítása ezért napjainkban egyre nagyobb globális problémává válik. Az EU e tekintetben egy kockázatalapú megközelítést alkalmaz, amelyet a mesterséges intelligenciáról szóló jogszabály javaslat[36] (a továbbiakban: Javaslat) tovább erősít. A Javaslat deklarált célkitűzése, hogy az Unió globális vezető szerepet töltsön be az MI jogi szabályozásában. Az általános adatvédelmi rendelethez hasonló "Brüsszel effektus" viszont több okból kifolyólag is elmaradhat. A Javaslat különbséget tesz az MI elfogadhatatlan-, nagy-, illetve alacsony- vagy minimális kockázattal járó felhasználása között, de ezek a kategóriák csak az MI-rendszer rendeltetésétől függően vezetnek tényleges tilalmakhoz. Az MI-rendszerek rendeltetésére viszont a gyakorlatban sokszor csak utólag derül fény. A rendeletnek ezért nem a szánt célra, hanem az előrelátható célra lenne érdemes építkeznie, amelyet az MI-rendszer műszaki és funkcionális jellemzőinek, valamint a hozzá kapcsolódó emberi magatartások és más termékek fényében lehetne meghatározni. A Javaslat megfelelőségértékelési eljárása emellett túlságosan rugalmas, mert ugyan előírja a nagy kockázatú MI-rendszerek harmadik fél által történő megfelelőségértékelését, abból a legtöbb esetben nem maradhat ki a gyártó sem. Elvégre a gyártó az, aki a legjobban ismeri a terméket, és ezért a legjobban képes igazolni a jogszabályoknak való megfelelőségét. Egy szabályozás alatt álló entitás mégis jogosan kelthet bizalmatlanságot önmaga szabályozásával. A Javaslat egyes követelményeinek ugyanakkor a gyakorlatban kifejezetten nehéz lesz megfelelni. Ilyen lehet például az MI-rendszerek hibamentességének követelménye, amely rendelkezés nem konkretizálja a hiba típusát és figyelmen kívül hagyja, hogy tökéletes adatkészletek nem léteznek. A Javaslat ráadásul nem tisztázza a fejlesztőkkel, a szállítókkal vagy a felhasználókkal szembeni jogérvényesítés
- 1302/1303 -
lehetőségét, és nem tér ki az MI által okozott károk jogkövetkezményeire sem.[37] E kérdések tisztázása viszont elengedhetetlen fontosságú a büntetőjog terrénumában, mert az ide tartozó normáknak "[...] mindig fenn kell tartaniuk az emberi elszámoltathatóságot, és mindenekelőtt arra kell irányulniuk, hogy elkerüljék a káros hatások bekövetkeztét."[38]
[1] Asada, Minoru: Towards Artificial Empathy: How Can Artificial Empathy Follow the Developmental Pathway of Natural Empathy?, International Journal of Social Robotics, 2015/7, 19-33.
[2] Bharadiya, Jasmin P.: Driving Business Growth with Artificial Intelligence and Business Intelligence, International Journal of Computer Science and Technology, 2022/4, 28-44.
[3] Büntetőeljárási jog (szerk.: Király Tibor), Osiris, Budapest, 2008.
[4] Carneiro, Davide-Guimarães, MiguelSilva, Fábio-Novais, Paulo: A predictive and user-centric approach to Machine Learning in data streaming scenarios, Neurocomputing, 1 May 2022, 238-249.
[5] Choi, Jonathan H.-Hickman, Kristin E.-Monahan, Amy-Schwarcz, Daniel B.: ChatGPT Goes to Law School. Journal of Legal Education (Forthcoming), 23 January 2023, 116. https://papers.ssrn.com/sol3/papers.cfm?abstractjd=4335905
[6] Chronowski Nóra-Kálmán Kinga-Szentgáli-Tóth Boldizsár: Régi keretek, új kihívások: a mesterséges intelligencia prudens bevonása a bírósági munkába és ennek hatása a tisztességes eljáráshoz való jogra, Glossa Iuridica, 2022/4, 7-38.
[7] Fantoly Zsanett-Herke Csongor: A mesterséges intelligencia a hatékonyabb büntetőeljárás szolgálatában, Magyar Jog, 2023/4, 223-228.
[8] Foysal, Sojib-Hossan, Arafat-Jubair, Ahmad-Ahmed, Sakib-Jamin, Nafiur R.Islam, Jakaria: Importance of Human Judgment in AI (Artificial Intelligence) Technology, Journal of Electronics and Communication Engineering Research, 2023/1, 1-8.
[9] G. Karácsony Gergely-Glavanits Judit: A mesterséges intelligencia által támogatott jogtalálás lehetőségei a bírósági gyakorlatban, Jog-Állam-Politika, 2022/2. ksz., 131-139.
[10] Giomi, Matteo-Boenisch, FranziskaWehmeyer, Christoph-Tasnádi, Borbála: A unified framework for quantifying privacy risk in synthetic data, ArXiv, 18 November 2022, 117. https://arxiv.org/abs/2211.10459
[11] Gubelmann, Reto: A Loosely Wittgensteinian Conception of the Linguistic Understanding of Large Language Models like BERT, GPT-3, and ChatGPT, Grazer Philosophische Studien, 2022/4, 485-523.
[12] Gutiérrez, Juan D.: ChatGPT in Colombian Courts: Why we need to have a conversation about the digital literacy of the judiciary, VerfBlog, 2023/2/23.
https://verfassungsblog.de/colombian-chatgpt/
[13] Haranen, Michael - Pakkanen, Pekka -Kariranta, Risto - Salo, Jouni: White, Grey and Black-Box Modelling in Ship Performance Evaluation, In: 1st Hull Performance & Insight Conference (ed.: Bertam, Volker), HullPIC, Castello di Pavone, 2016, 115-127.
[15] Huyen, Chip: Designing Machine Learning Systems: An Iterative Process for Production-Ready Applications, O'Reilly, Beijing, 2022.
[16] Ignácz György: A büntetéskiszabási gyakorlatra irányuló empirikus kutatások elmélete és módszertana, MTA Law Working Papers, 2020/1, 1-14.
[17] Iman, Mohammadreza-Arabnia, Hamid R.-Branchinst, Robert M.: Pathways to Artificial General Intelligence: A Brief Overview of Developments and Ethical Issues via Artificial Intelligence, Machine Learning, Deep Learning, and Data Science, In: Advances in Artificial Intelligence and Applied Cognitive Computing: Proceedings from ICAI'20 and ACC'20 (eds.: Arabnia, Hamid R.-Ferens, Ken-Fuente, David d.l.-Kozerenko, Elena B.-Varela, José A.O.-Tinetti, Fernando G.), Springer, Cham, 73-87.
[18] Kálmán Kinga-Kiss Laura O.-Szentgáli-Tóth Boldizsár: Mesterséges intelligencia alapú szoftverek a világ bíróságain: gyakorlati tapasztalatok, perspektívák és kihívások, In: Jogi technológiák: Digitális jogalkalmazás (szerk.: Ződi Zsolt), Ludovika Egyetemi Kiadó, Budapest, 2022, 107-138.
[19] Kovács Zsófia D.: Az érzelmek felfedezése -avagy a "Law and Emotion Scholarship" a jogelméletben, Debreceni Jogi Műhely, 2021/34, 47-53.
[20] Li, Yubin L.: Algorithmic Discrimination in the U.S. Justice System: A Quantitative Assessment of Racial and Gender Bias Encoded in the Data Analytics Model of the Correctional Offender Management Profiling For Alternative Sanctions (COMPAS), Johns Hopkins, Baltimore, 2017.
[21] Mitrović, Sandra - Andreoletti, Davide -Ayoub, Omran: ChatGPT or Human? Detect and Explain. Explaining Decisions of Machine Learning Model for Detecting Short ChatGPT-generated Text, ArXiv, 30 January 2023, 1-11.
https://arxiv.org/pdf/2301.13852
- 1303/1304 -
[22] Nagy Anita: Mesterséges intelligencia szerepe a bírósági büntető ügyvitelben, Büntetőjogi Szemle, 2022/1, 62-72.
[23] Nelson, Gregory S.: Bias in Artificial Intelligence, North Carolina Medical Journal, 2019/4, 220-222.
[24] Nyilas Anna: A mesterséges intelligencia hatása a bírói döntéshozatalra, Acta Juridica Et Politica, 2021/3, 303-312.
[25] Oliveira, Arlindo L.: Artificial Intelligence and Large Language Models [Presentation], Courts and Artificial Intelligence: an Odyssey in the 21st Century, Supreme Court of Justice of Portugal, Lisbon, 2 May 2023.
[26] Raposo, Vera L.: Judge-AI: Future, Utopia or Dystopia? [Presentation], Courts and Artificial Intelligence: an odyssey in the 21st Century, Supreme Court of Justice of Portugal, Lisbon, 2 May 2023.
[27] Raposo, Vera L.: The European Draft Regulation on Artificial Intelligence: Houston, We Have a Problem, In: Progress in Artificial Intelligence (eds.: Marreiros, Goreti-Martins, Bruno-Paiva, Ana-Ribeiro, Bernadete-Sardinha, Alberto), Springer, Cham, 2022, 6673.
[28] Rátai Balázs: Jogi szemantikus keretek, In: Ünnepi konferencia az ELTE megalakulásának 375. évfordulója alkalmából II. köt. (szerk.: Nagy Marianna), Eötvös Loránd Tudományegyetem Állam- és Jogtudományi Kar, Budapest, 2010, 147-163.
[29] Scerri, Simon-Tuikka, Tuomo-Vallejo, Irene L. d.-Curry, Edward: Common European Data Spaces: Challenges and Opportunities, In: Data Spaces: Design, Deployment, and Future Directions (eds.: Curry, Edward-Scerri, Simon-Tuikka, Tuomo) Springer, Cham, 337-357.
[30] Sharma, Shruti-Chaturvedi, Vatsal: Ethical and legal issues of AI technology and its applications, International Journal of Law and Legal Jurisprudence Studies, 2020/1, 49-72.
[31] Sloot, Bart van der: Regulating non-personal data in the age of Big Data, In: Health Data Privacy under the GDPR (ed.: Tzanou, Maria), Routledge, London, 2020.
[32] Vastelvecchi, Davide: Can we open the black box of AI?, Nature, 6 October 2016, 20-23.
[33] Wu, Wnbo - Pan, Yun: Adaptive Modular Convolutional Neural Network for Image Recognition, Sensors, 2022/15, 1-12.
[34] Zhang, Junkai-Han, Yuxuan: Algorithms Have Built Racial Bias in Legal System-Accept or Not?, In: Proceedings of the 2021 International Conference on Social Development and Media Communication (SDMC 2021) (eds.: Allen, C.Hertz, S.-Greene, W. H.-Hewings, G. J. D.- Lovell, K.), Atlantis Press, 2022, 1217-1221.
[1] Az Európai Parlament és a Tanács (EU) 2016/679 rendelete (2016. április 27.) a természetes személyeknek a személyes adatok kezelése tekintetében történő védelméről és az ilyen adatok szabad áramlásáról, valamint a 95/46/EK rendelet hatályon kívül helyezéséről (általános adatvédelmi rendelet).
[2] Az Európai Parlament és a Tanács (EU) 2016/680 irányelve (2016. április 27) a személyes adatoknak az illetékes hatóságok által a bűncselekmények megelőzése, nyomozása, felderítése, a vádeljárás lefolytatása vagy büntetőjogi szankciók végrehajtása céljából végzett kezelése tekintetében a természetes személyek védelméről és az ilyen adatok szabad áramlásáról, valamint a 2008/977/IB tanácsi kerethatározat hatályon kívül helyezéséről.
[3] Javaslat, az Európai Parlament és a Tanács rendelete a mesterséges intelligenciára vonatkozó harmonizált szabályok (a mesterséges intelligenciáról szóló jogszabály) megállapításáról és egyes uniós jogalkotási aktusok módosításáról, Brüsszel, 2021. 4. 21., COM(2021), 206 final, 2021/0106(COD).
[4] Mesterséges intelligencia a büntetőjogban, és annak a rendőrség és igazságügyi hatóságok általi felhasználása büntetőügyekben: Az Európai Parlament 2021. október 6-i állásfoglalása a mesterséges intelligenciáról a büntetőjogban, és annak a rendőrség és az igazságügyi hatóságok általi felhasználásáról büntetőügyekben (2020/2016(INI)), (2022/C 132/02), J. ■
JEGYZETEK
[1] Büntetőeljárási jog (szerk.: Király Tibor), Osiris, Budapest, 2008, 15.
[2] Nyilas Anna: A mesterséges intelligencia hatása a bírói döntéshozatalra, Acta Juridica Et Politica, 2021/3, 305.
[3] Az MI tisztességes eljárásra gyakorolt lehetséges hatásához lásd Chronowski Nóra-Kálmán Kinga-Szentgáli-Tóth Boldizsár: Régi keretek, új kihívások: a mesterséges intelligencia prudens bevonása a bírósági munkába és ennek hatása a tisztességes eljáráshoz való jogra, Glossa Iuridica, 2022/4, 7-38.
[4] Az MI bűnfelderítési kérdéseihez lásd Fantoly Zsanett-Herke Csongor: A mesterséges intelligencia a hatékonyabb büntetőeljárás szolgálatában, Magyar Jog, 2023/4, 223-228.
[5] A nagy nyelvi modellek olyan fejlett mesterséges intelligencia rendszerek, amelyek hatalmas mennyiségű információ feldolgozásával képesek szövegeket felismerni, összefoglalni, fordítani és létrehozni. Az igazságszolgáltatás területén hasznosíthatók például dokumentumok elemzésére és összefoglalására, jogszabályok és bírósági határozatok keresésére, jegyzőkönyvek szerkesztésére és bírósági döntések előrejelzésére, szakirodalmi kutatásra és nyelvi fordításra, továbbá virtuális asszisztensek működtetésére, ezzel növelve a hatékonyságot és hozzáférhetőséget.
[6] Gutiérrez, Juan D.: ChatGPT in Colombian Courts: Why we need to have a conversation about the digital literacy of the judiciary, VerfBlog, 2023/2/23. https://verfassungsblog.de/colombian-chatgpt/ (2024. június 17-i letöltés).
[7] Az MI büntetőbírósági ügyvitelben betöltött lehetséges szerepéhez lásd Nagy Anita: Mesterséges intelligencia szerepe a bírósági büntető ügyvitelben, Büntetőjogi Szemle, 2022/1, 62-72. Az MI büntetőjogi döntéshozatalban betöltött lehetséges szerepéhez lásd Herke Csongor: Mesterséges intelligencia a büntetőjogi döntéshozatalban, Jogtudományi Közlöny, 2023/4, 172-173.
[8] Bharadiya, Jasmin P.: Driving Business Growth with Artificial Intelligence and Business Intelligence, International Journal of Computer Science and Technology, 2022/4, 28.
[9] LeCun, Yann Idézi Sharma, Shruti-Chaturvedi, Vatsal: Ethical and legal issues of AI technology and its applications, International Journal of Law and Legal Jurisprudence Studies, 2020/1, 49. (Fordította a Szerző.)
[10] Oliveira, Arlindo L.: Artificial Intelligence and Large Language Models [Presentation], Courts and Artificial Intelligence: an Odyssey in the 21st Century, Supreme Court of Justice of Portugal, Lisbon, 2 May 2023.
[11] Huyen, Chip: Designing Machine Learning Systems: An Iterative Process for Production-Ready Applications, O'Reilly, Beijing, 2022, 22., 331.
[12] Gubelmann, Reto: A Loosely Wittgensteinian Conception of the Linguistic Understanding of Large Language Models like BERT, GPT-3, and ChatGPT, Grazer Philosophische Studien, 2022/4, 488-492.
[13] Choi, Jonathan H. - Hickman, Kristin E. -Monahan, Amy - Schwarcz, Daniel B.: ChatGPT Goes to Law School. Journal of Legal Education (Forthcoming), 23 January 2023, 8-9. https://papers.ssrn.com/sol3/papers.cfm7abstract_id=4335905 (2024. június 19-i letöltés).
[15] Mitrović, Sandra-Andreoletti, Davide-Ayoub, Omran: ChatGPT or Human? Detect and Explain. Explaining Decisions of Machine Learning Model for Detecting Short ChatGPT-generated Text, ArXiv, 30 January 2023, 9-10.
https://arxiv.org/pdf/2301.13852 (2023. augusztus 31-i letöltés).
[16] Carneiro, Davide-Guimarães, Miguel-Silva, Fábio-Novais, Paulo: A predictive and user-centric approach to Machine Learning in data streaming scenarios, Neurocomputing, 1 May 2022, 238.
[17] Wu, Wnbo-Pan, Yun: Adaptive Modular Convolutional Neural Network for Image Recognition, Sensors, 2022/15, 7-8.
[18] Az Európai Parlament és a Tanács (EU) 2016/679 rendelete (2016. április 27.) a természetes személyeknek a személyes adatok kezelése tekintetében történő védelméről és az ilyen adatok szabad áramlásáról, valamint a 95/46/EK rendelet hatályon kívül helyezéséről (általános adatvédelmi rendelet).
[19] Az Európai Parlament és a Tanács (EU) 2016/680 irányelve (2016. április 27) a személyes adatoknak az illetékes hatóságok által a bűncselekmények megelőzése, nyomozása, felderítése, a vádeljárás lefolytatása vagy büntetőjogi szankciók végrehajtása céljából végzett kezelése tekintetében a természetes személyek védelméről és az ilyen adatok szabad áramlásáról, valamint a 2008/977/IB tanácsi kerethatározat hatályon kívül helyezéséről.
[20] Sloot, Bart van der: Regulating non-personal data in the age of Big Data, In: Health Data Privacy under the GDPR (ed.: Tzanou, Maria), Routledge, London, 2020, 90-94.
[21] Giomi, Matteo-Boenisch, FranziskaWehmeyer, Christoph-Tasnádi, Borbála: A unified framework for quantifying privacy risk in synthetic data, ArXiv, 18 November 2022, 1. https://arxiv.org/abs/2211.10459 (2023. augusztus 31-i letöltés).
[22] Scerri, Simon-Tuikka, Tuomo-Vallejo, Irene L. d.-Curry, Edward: Common European Data Spaces: Challenges and Opportunities, In: Data Spaces: Design, Deployment, and Future Directions (eds.: Curry, Edward-Scerri, Simon-Tuikka, Tuomo). Springer, Cham, 339.
[23] Nelson, Gregory S.: Bias in Artificial Intelligence, North Carolina Medical Journal, 2019/4, 220.
[24] Más ügyszakokban is alkalmazott MI-rendszerekhez lásd Kálmán Kinga-Kiss Laura O.-Szentgáli-Tóth Boldizsár: Mesterséges intelligencia alapú szoftverek a világ bíróságain: gyakorlati tapasztalatok, perspektívák és kihívások, In: Jogi technológiák: Digitális jogalkalmazás (szerk.: Ződi Zsolt), Ludovika Egyetemi Kiadó, Budapest, 2022, 107-138.
[25] Zhang, Junkai-Han, Yuxuan: Algorithms Have Built Racial Bias in Legal System-Accept or Not?, In: Proceedings of the 2021 International Conference on Social Development and Media Communication (SDMC 2021) (eds.: Allen, C.Hertz, S.-Greene, W. H.-Hewings, G. J. D.-Lovell, K.), Atlantis Press, 2022, 1219.
[26] Li, Yubin L.: Algorithmic Discrimination in the U.S. Justice System: A Quantitative Assessment of Racial and Gender Bias Encoded in the Data Analytics Model of the Correctional Offender Management Profiling For Alternative Sanctions (COMPAS), Johns Hopkins, Baltimore, 2017, 2.
[27] Raposo, Vera L.: Judge-AI: Future, Utopia or Dystopia? [Presentation], Courts and Artificial Intelligence: an Odyssey in the 21st Century, Supreme Court of Justice of Portugal, Lisbon, 2 May 2023.
[28] Foysal, Sojib-Hossan, Arafat-Jubair, AhmadAhmed, Sakib-Jamin, Nafiur R.-Islam, Jakaria: Importance of Human Judgment in AI (Artificial Intelligence) Technology, Journal of Electronics and Communication Engineering Research, 2023/1, 3.
[29] Ignácz György: A büntetéskiszabási gyakorlatra irányuló empirikus kutatások elmélete és módszertana, MTA Law Working Papers, 2020/1, 2.
[31] Asada, Minoru: Towards Artificial Empathy: How Can Artificial Empathy Follow the Developmental Pathway of Natural Empathy?, International Journal of Social Robotics, 2015/7, 19.
[32] Iman, Mohammadreza-Arabnia, Hamid R.-Branchinst, Robert M.: Pathways to Artificial General intelligence: A Brief Overview of Developments and Ethical Issues via Artificial Intelligence, Machine Learning, Deep Learning, and Data Science, in: Advances in Artificial intelligence and Applied Cognitive Computing: Proceedings from ICAI'20 and ACC'20 (eds.: Arabnia, Hamid R.-Ferens, Ken-Fuente, David d.l.-Kozerenko, Elena B.-Varela, José A.O.-Tinetti, Fernando G.), Springer, Cham, 75.
[33] Rátai Balázs: Jogi szemantikus keretek, In: Ünnepi konferencia az ELTE megalakulásának 375. évfordulója alkalmából II. köt. (szerk.: Nagy Marianna), Eötvös Loránd Tudományegyetem Állam- és Jogtudományi Kar, Budapest, 2010, 150151.
[34] Haranen, Michael-Pakkanen, Pekka-Kariranta, Risto-Salo, Jouni: White, Grey and Black-Box Modelling in Ship Performance Evaluation, In: 1st Hull Performance & Insight Conference (ed.: Bertam, Volker), HullPIC, Castello di Pavone, 2016, 116-117.
[35] Vastelvecchi, Davide: Can we open the black box of AI?, Nature, 6 October 2016, 22.
[36] Javaslat, az Európai Parlament és a Tanács rendelete a mesterséges intelligenciára vonatkozó harmonizált szabályok (a mesterséges intelligenciáról szóló jogszabály) megállapításáról és egyes uniós jogalkotási aktusok módosításáról, Brüsszel, 2021.4.21., COM(2021), 206 final, 2021/0106(COD).
[37] Raposo, Vera L.: The European Draft Regulation on Artificial Intelligence: Houston, We Have a Problem, In: Progress in Artificial Intelligence (eds.: Marreiros, Goreti-Martins, Bruno-Paiva, Ana-Ribeiro, Bernadete-Sardinha, Alberto), Springer, Cham, 2022, 66-73.
[38] Mesterséges intelligencia a büntetőjogban, és annak a rendőrség és igazságügyi hatóságok általi felhasználása büntetőügyekben: Az Európai Parlament 2021. október 6-i állásfoglalása a mesterséges intelligenciáról a büntetőjogban, és annak a rendőrség és az igazságügyi hatóságok általi felhasználásáról büntetőügyekben (2020/2016(INI)), (2022/C 132/02), J.
Lábjegyzetek:
[1] A szerző LL.M. PhD, főtanácsadó, Kúria; adjunktus, Széchenyi István Egyetem Deák Ferenc Állam- és Jogtudományi Kar. A tanulmány a szerző álláspontját tartalmazza, az nem értelmezhető a Kúria állásfoglalásaként.
Visszaugrás