Megrendelés
Gazdaság és Jog

Fizessen elő a Gazdaság és Jogra!

Előfizetés

Ződi Zsolt: Az Európai Bizottság Mesterséges Intelligencia Kódexének tervezete (GJ, 2021/5., 1-3. o.)

Az Európai Unió (EU) különböző döntéshozó szerveit nagyjából a 2010-es évek közepe óta foglalkoztatja a mesterséges intelligencia (MI) problematikája. Több tucatnyi, az Európai Bizottság, az Európai Parlament és a mesterséges intelligenciával foglalkozó magas szintű szakértői csoport által írt tanulmány és dokumentum után a munka most mérföldkőhöz érkezett: az Európai Bizottság beterjesztette az Európai Parlementnek a Mesterséges Intelligencia Rendelet (a továbbiakban: MI kódex, Kódex, Rendelet)[1] tervezetét.

A mesterséges intelligencia néhány éve már az EU érdeklődésének centrumában van. A témakör először az "adatgazdaság",[2] majd a robotika[3] kontextusában merült fel a 2010-es évek közepén, általában olyan felhanggal, hogy az EU lemaradásban van a világ többi részéhez képest, és ezt a lemaradást az egységes piac még hatékonyabb működésének elősegítésével, a gátak, korlátok lebontásával, kutatás-fejlesztéssel és más eszközökkel kell ösztönözni.

Az első EU-s anyag - amely kifejezetten az MI-vel foglalkozott - a 2018-as Artificial Intelligence for Europe című bizottsági dokumentum volt.[4] Ez is abban a narratívában tárgyalta az MI kérdéskörét, hogy Európa ezen a területen le van maradva. A dokumentum a McKinsey-jelentésre támaszkodva állította, hogy míg - a 2016-os évben - Ázsiában az MI-be áramló magánbefektetések értéke hat-tízmilliárd eurónak megfelelő összeg, az amerikai kontinensen pedig tizenkét-tizen- nyolcmilliárd, addig ugyanez a szám Európában két-hárommilliárd euró volt.[5] Ehhez még hozzátehetjük, hogy ráadásul ennek a nagy része, 55%-a az azóta az EU-ból kilépett Egyesült Királyságban realizálódott.[6]

Az EU attitűdje az MI-vel kapcsolatban éppen 2018-ban kezdett megváltozni, és az egységes piac, gazdaságösztönzés, versenyképesség kulcsszavakat a kockázat, emberi jogok, etika kifejezések váltották fel. A váltás véleményem szerint alapvetően két tényezőnek köszönhető. Egyrészt kétségtelenül van egy világtendencia, amely főként a nagy platformokhoz köthető botrányok hatására kezdett a platformokat "meghajtó" mesterséges intelligencia alapú szoftverekhez is gyanakodva viszonyulni. Másrészt azonban szerintem az EU-nak vannak speciális motivációi is az MI értékalapú megközelítésére. Az EU sosem volt olyan erősen szabadpiac- és kapitalizmuspárti, mint az Amerikai Egyesület Államok (USA), teljesen más az adatokhoz és az adatvédelemhez való viszonya is, végül pedig a 2010-es évek végére nagyon erősek lettek azok a hangok az EU-ban, amelyek az unió "értékközösség" jellegét kezdték el hangsúlyozni.

Mindezen tényezők együtt a 2018-ban felállított, a mesterséges intelligenciával foglalkozó magas szintű szakértői csoporttal azt eredményezték, hogy az MI-vel és annak szabályozásával kapcsolatos diskurzus erős etikai hátteret kapott, valamint a gazdaságösztönzési, kutatás-fejlesztési és főként az EU versenyképességét hangsúlyozó hangok kissé háttérbe szorultak, habár el nem csitultak. A Mesterséges intelligenciával foglalkozó magas szintű szakértői csoport 2018-2019 folyamán több anyagot készített, az etikai kérdésekről,[7] a politikai és befektetési ajánlásokról,[8] az MI működésének (ön)értékelési módszertanáról,[9] és az MI-vel kapcsolatos szektorális követelményekről.[10] Az Európai Bizottság az adatiparral kapcsolatos anyagokkal együtt csaknem egy tucatnyi, az Európai Parlament pedig szintén legalább féltucatnyi anyagot gyártott le a témában. Ebben a cikkben nincs tér hosszan foglalkozni ezekkel az anyagokkal, de az mindenesetre feltűnő, hogy az idő előrehaladásával egyre kevesebb szó esik az MI lehetséges előnyeiről, és a mesterséges intelligencia ipar felfuttatásáról, és egyre több a kockázatokról.

Habár az Európai Bizottság fehér könyvében és a jelen tanulmányban ismertetett Kódex tervezetéhez fűzött indokolásban is hangsúlyozza, hogy meg kell találni az egyensúlyt az MI használata és a veszélyeinek és kockázatainak szabályozása között, ennek érdekében programok indultak, pénzeket allokáltak a megfelelő szervezetek, de egyelőre sajnos nem úgy tűnik, hogy a vágyott egyensúly létrejött volna. Korlátozó és tiltó szabály már rengeteg van, valódi virágzó MI "ökoszisztéma" azonban még nem annyira. Mindenesetre remélhetjük, hogy ez a helyzet még változik majd az elkövetkező években.

Ebben az összefüggésrendszerben érdemes vizsgálni az MI kódex tervezetét, amelynek egyelőre csak az anyagi jogi rendelkezéseit mutatom be ebben az írásban, de jelzem, hogy a tervezet igen részletes eljárási és szervezetstatuáló rendelkezéseket is tartamaz.

A Kódex tervezete a horizontális - mindenféle területen, mindenféle MI-re vonatkozó - szabályozás minimumát célozza meg. Ahhoz, hogy megértsük mit jelent a "kockázatalapú horizontális" szabályozás, érdemes felidézni a magyarázó anyagban található többféle lehetséges szabályozási módszert. Így például lehetne az MI-t szektorális alapon is közelíteni, de lehetne alkotni egy szektortól és kockázattól független, minden MI-re vonatkozó normát is. A Kódex tervezete megkülönböztet teljesen tiltott MI-alkalmazásokat, kockázatos MI-alkalmazásokat (amelyekre kötelező szabályokat alkot, ez teszi ki a normaszöveg anyagi jogi részének legnagyobb hányadát), és kevésbé kockázatos, de valamilyen szempontból még mindig kiemelt figyelmet érdemlő egyéb MI-alkalmazásokat (ahol csak néhány, viszonylag könnyen betartható szabállyal operál), végül pedig semelyik korábbi kategóriába nem eső MI-alkalmazásokat (amelyek "féken tartását" magatartási kó-

- 1/2 -

dexekre, lényegében tehát önszabályozó mechanizmusokra bízza).

A Kódex tervezete tehát egyáltalán nem követi a "szektorális logikát", nem tartalmaz speciális szabályokat az egyes gazdasági ágazatokban vagy területeken - például az egészségügyi, pénzügyi, oktatási vagy közigazgatási területeken - "tevékenykedő" MI-kre. Az egyetlen kivételt ez alól a pénzügyi intézmények által használt MI-k jelentik, amelyek néhány ponton speciális anyagi- és eljárásjogi követelményeknek kell megfeleljenek. A kockázatokat az anyag elsősorban az életre, a testi épségre és az alapjogokra gyakorolt hatás mentén sorolja be.

A Kódex tervezete 89 preambulumbekezdésből, és 12. cím alatt 85 cikkből áll, kifejezetten hosszú normának számít tehát. A bevezető, általános rendelkezések a Rendelet hatályát úgy határoznák meg, hogy az az MI rendszerek előállítóira és felhasználóira egyaránt kiterjedjen, amennyiben az EU területén tevékenykednek, sőt azokra a nem európai uniós alkalmazásokra is, amelyeknek "a kimeneteit" az Európai Unióban használják fel. A Rendelet kizárná a tárgyi hatálya alól a katonai MI-ket.

Az első és legfontosabb definíciós kérdés, hogy mi minősül MI-nek, hiszen a világ tele van nagyon "okos" szoftverekkel, amelyek nagyon összetett feladatokat oldanak meg, adott esetben olyanokat, amelyek néhány éve még kizárólag az emberi problémamegoldás területére tartoztak. A Rendelettervezet a közelmúltban kialakult konszenzusnak megfelelően nem valamiféle funkcionális ("az emberi cselekvést/gondolkodást imitálni képes"), vagy működési ("nem-determinisztikus/kiszámíthatatlan/átláthatatlan működés) jellegzetességgel, kockázattal definiálja az MI-t, hanem három konjunktív feltétellel.

Egyfelől az MI-nek valamelyik, a Rendelettervezet mellékletében felsorolt speciális technológiát kell alkalmaznia. Másrészről képesnek kell lennie arra, hogy egy ember által definiált célrendszert figyelembe véve működjön. Végül a kimeneti oldalán - példálózó jelleggel - az alábbiaknak kell megjelennie: tartalom, előrejelzés, ajánlás, döntés. Mindezen outputok "befolyásolják a környezetet, amellyel kapcsolatban vannak".

A definíció mindhárom eleméről lehetne hosszan írni, ám én most csak az első elemre utalok. Ennek kibontása a Kódex tervezetének I. számú mellékletében található, amely három általános technológia jelenlétére utal. Tehát MI az, amelyik a következő technológiák valamelyikére, vagy ezek közül többre épül: (1) gépi tanulási technológiák, (2) logikai vagy tudásbázis-alapú technológiák, következtető és deduktív gépek, tudásreprezentációt, szimbolikus érvelést alkalmazó szakértői rendszerek, (3) statisztikai megközelítést, bayes-i becslést, keresési és optimalizációs módszertanokat használó technológiák.

A Rendelettervezet, ahogy fentebb említettem négy MI kategóriát állít fel. Az első kategória a tiltott MI-k kategóriája. Ezek azok, amelyek tudatalatti manipulálásra képesek; bizonyos sérülékenységeket - például fogyatékosságot - használnak ki; társadalmi pontozást valósítanak meg; valamint az arcfelismerést közterületen végzik.

A négy tiltott kategóriáról önmagában könyveket lehetne írni, itt csak annyit érdemes megjegyezni, hogy egyrészt mind a négy bizonyosan sok értelmezési kérdést fog felvetni a közeljövőben, hiszen például a marketing bizonyos fajtái nagyon is hatnak a tudattalanra. Másrészt - különösen az utolsó kettőn - jól látszik, hogy szabályozni csak az elképzelhetőt lehet, ez utóbbi kettő pedig már konkrét felzúdulást és ellenkezést váltott ki bizonyos országokban.

A kínai társadalmi pontrendszert[11] az elmúlt években sokat emlegette a nyugati sajtó, itt nyilvánvaló az előzmény. Az arcfelismerés pedig főleg az USA-ban váltott ki nagy indulatokat, sok város már be is tiltotta a közterületeken működtetett arcfelismerő algoritmusokat.[12] A tiltás az arcfelismerés tekintetében ugyanakkor nem abszolút, kivételt jelentenek például a bűnelkövetők, terroristák vagy elveszett gyerekek célzott keresésére irányuló rendszerek. Más kérdés, hogy meddig "célzott" egy repülőtér megfigyelése, ha ott egy terrorista felbukkanása várható.

Igen érdekes a magas kockázatú MI-k szabályozása. Magas kockázatúnak akkor minősül egy MI, ha vagy biztonsági komponense egy egyébként is szorosan szabályozott termékcsoportnak - ezeket a II. számú melléklet sorolja fel a játékoktól a vízijárműveken keresztül az orvosi műszerekig -, vagy "saját jogon" képvisel kockázatokat, különösen azért, mert olyan területen tevékenykedik, amely az emberi jogokat érinti.

Ez utóbbi lista nyolc területen kéttucatnyi konkrét alkalmazást sorol fel, amelyeknek a részletes bemutatásától itt eltekintek, és csak néhányat sorolok fel közülük, illusztráció gyanánt. Magas kockázatú minden olyan rendszer, amely természetes személyek biometrikus azonosítását végzi, amely kritikus infrastruktúrák - például közlekedés, gáz-, víz-, villanyellátás - vezérlését végzi, és még néhány, különösen az amerikai szakirodalomból ismert területeken tevékenykedő MI, így a munkaerőfelvétel, egyetemi felvétel, hitelbírálat és a bírói munkához adott tanácsok területén. Itt az olvasó nehezen tud szabadulni attól a gondolattól, hogy ezeket a rendszereket lehet, hogy nem volt célszerű ugyanolyan kockázati osztályba sorolni.

A tervezet hét - az MI-hez kötődő etikai kódexekből már jól ismert - előírást, vagy elvet igyekszik aprópénzre váltani a magas kockázatú MI-k esetén, melyek a következők. A magas kockázatú MI-ket mindig kockázatértékelési rendszerekkel és megfelelő adatmenedzsment (data governance) rendszerekkel együtt kell működtetni. A tanító, validáló és tesztelő adatoknak "tisztának" kell lennie. A magas kockázatú MI-khez részletes dokumentációt kell csatolni. A magas kockázatú MI-khez az eseményeket naplózó rendszereket kell társítani. Átláthatóan kell működniük. A magas kockázatú MI-k felett mindig meg kell maradnia az emberi felügyeletnek és beavatkozási lehetőségnek és mindig meg kell felelniük a pontosság, a robosztusság és a kiberbiztonság követelményeinek.

- 2/3 -

Itt kell megjegyezni, hogy az átlátható működés elve nem azonos azokkal az átláthatósági követelményekkel, amelyek minden MI-re, tehát nem csak a magas kockázatúakra vonatkoznak. Ezeket a Kódextervezet egy másik helyen, az 52. cikknél sorolja fel, és voltaképp három szabályt tartalmaznak. Ezek alapján az MI-nek mindig tájékoztatnia kell az embert, hogy MI-vel áll szemben. Ez különösen a chatbotok esetén neuralgikus kérdés. Az érzelmek felismerésére képes rendszereknek úgyszintén tájékoztatniuk kell az érintetteket, végül a deepfake videókat kell felcímkézni, ezzel tudatva, hogy gépi eszközökkel hamisított mozgóképről van szó. Ez egyúttal azt is jelenti, hogy ezek a kategóriák nem minősülnek önmagukban sem tiltottnak, sem magas kockázatúnak.

A Rendelettervezetről még bizonyosan cikkek ezrei és könyvek százai fognak szólni, és egyelőre nem is sejthető hogyan fog a gyakorlatban működni, illetve mekkora hatása lesz az európai MI iparra. Két dolog azonban már most látható, és ezen érdemes elgondolkodni.

Miközben a szoftvergyártók felelőssége meglehetősen korlátozott a szoftverek működéséért, a jóval bonyolultabb MI alkalmazásokra jóval szigorúbb követelményeket állapít meg a Kódex tervezete. Ennek a törekvésnek két következménye lehet. Ha a szoftvergyártók meg akarnak felelni ezeknek a követelményeknek, akkor az adminisztratív terheik és költségeik jelentősen emelkedni fognak. Az MI előállítása drága mulatság lesz, ez már szinte biztos. Sajnos azonban az is a lehetséges forgatókönyvek között van, hogy a tervezet dermesztő hatással lesz az MI iparra, és ezzel együtt az egész európai gazdaság működésére, hiszen az MI alkalmazásoknak egy hatalmas része a gazdasági körforgásnak integráns, legtöbbször hatékonyságjavító eleme. Nagyon remélem, hogy nem a második forgatókönyv fog megvalósulni.

Másrészt a tervezettel lezárulni látszik egy korszak. Úgy tűnik, hogy az MI-vel kapcsolatos nagy filozófiai és etikai viták ugyan nem zárultak le, de a problémák aprópénzre váltása megkezdődött. Ez sokkal nehezebb lesz, mint az - egyébként senki által nem vitatott - etikai elvek számbavétele és kinyilatkoztatása. Most itt az idő, hogy sok-sok zsákutcával, vitával, kemény munkával és rengeteg unalmas technikai részletszabállyal egyszerre próbáljuk meg az MI erejét kihasználni, miközben hatékony, működőképes, de az innovációt nem béklyózó részletszabályokkal, eljárásokkal és intézményekkel féken tartjuk. ■

JEGYZETEK

[1] Javaslat az Európai Parlament és a Tanács rendelete a mesterséges intelligenciára vonatkozó harmonizált szabályok (a mesterséges intelligenciáról szóló jogszabály) megállapításáról és egyes uniós jogalkotási aktusok módosításáról, 2021/0106 (COD).

[2] Például a 2016 április 19-én az Európai Bizottság által kibocsátott, Az európai ipar digitalizálása, a digitális egységes piac előnyeinek teljes körű kiaknázása című, SWD(2016)110 számú szolgálati munkadokumentumban.

[3] Jelentés a Bizottságnak szóló ajánlásokkal a robotikára vonatkozó polgári jogi szabályokról, 2015/2103(INL).

[4] A Bizottság közleménye az Európai Parlamentnek, az Európai Tanácsnak, a Tanácsnak, az Európai Gazdasági és Szociális Bizottságnak és a Régiók Bizottságának, Mesterséges intelligencia Európa számára, COM(2018) 237.

[5] Uo. 5.

[6] OECD: Artificial Intelligence in Society. OECD Publishing, Párizs, 2019. 38-40.

[7] Mesterséges intelligenciával foglalkozó magas szintű szakértői csoport: Etikai iránymutatás a megbízható mesterséges intelligenciára vonatkozóan. Brüsszel, 2019. április 8.

[8] Mesterséges intelligenciával foglalkozó magas szintű szakértői csoport: Policy and Investment Recommendations for Trustworthy AI. Brüsszel, 2019. június 26.

[9] Mesterséges intelligenciával foglalkozó magas szintű szakértői csoport: Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment. Brüsszel, 2020. július 17.

[10] MI a gyártásban, a kormányzatban, az igazságszolgáltatásban és rendészetben, valamint az egészségügyben.

[11] Yongxi Chen - Anne S. Y. Cheung: The Transparent Self Under Big Data Profiling: Privacy and Chinese Legislation on the Social Credit System. The Journal of Comparative Law, 2017/2. 356-378.

[12] Antoaneta Roussi: Resisting the rise of facial recognition. Nature, 2020. november 18.

Visszaugrás

Ugrás az oldal tetejére