Megrendelés
Magyar Jog

Fizessen elő a Magyar Jogra!

Előfizetés

Mezei Kitti[1][1]: Diszkrimináció az algoritmusok korában[2] (MJ, 2022/6., 331-338. o.)

Bevezetés

A mesterséges intelligencia (a továbbiakban: MI)[3] alkalmazása az élet egyre több területére terjed ki (például javíthatja az egészségügyi ellátást, előmozdíthatja a bűnüldöző hatóságok számára a bűnözés elleni hatékonyabb fellépést, illetve biztonságosabbá teheti a közlekedést, vagy akár segíthet a csalás és a kiberbiztonsági fenyegetések észlelésében stb.). Ezért kétségtelenül korunk egyik legnagyobb kihívását jelenti, mind gazdasági, mind szabályozási szempontból.

Ezt nem utolsósorban az is mutatja, hogy az EU Bizottsága 2020-ban közzétette a mesterséges intelligenciáról szóló Fehér Könyvet, amely az MI fejlesztéseinek és alkalmazásainak uniós szintű egyedi szabályozása alapját képezi.[4] Ebben rögzítik, miszerint az MI jelentős hatást gyakorolhat társadalmunkra, és szükséges, hogy kiépüljön az abba vetett bizalom, kulcsfontosságú, hogy az MI-ágazat olyan alapvető jogokon és értékeken alapuljon, mint az emberi méltóság és a magánélet védelme. Az emberközpontú MI olyan technológiát tételez fel, amelyben az emberek bíznak, mivel megfelel az emberi társadalmak alapjául szolgáló értékeknek. A megbízhatóság megteremtése, a kockázatok felmérése és szabályozási kezelése szempontjából meghatározó szerepe van az etikai elveknek. Az MI szabályozásának általános kialakítása kapcsán négy fő etikai irányt kell kiemelni: emberi autonómia tiszteletben tartása: ne irányítsa/manipulálja az embert, demokratikus folyamatokat ne veszélyeztesse; kár megelőzése: ideértve a kár bekövetkezését eredményező nem kívánt külső behatásoknak való ellenállást; méltányosság: az MI-rendszerek kifejlesztésének, elterjesztésének és használatának méltányosnak kell lennie; magyarázhatóság: a működés átláthatóságát jelenti (a megbízható MI-rendszerek nyomon követhetők, döntéseik pedig megmagyarázhatók, különösen tájékoztatni kell a használókat, hogy MI-rendszerrel kerültek kapcsolatba, és arról is, hogy az MI-rendszer milyen módon működik, milyen képességei vannak, milyen módon és megbízhatósággal használja a rendelkezésére bocsátott adatkészleteket).[5]

A legfontosabb előrelépés az MI szabályozása terén, hogy 2021 áprilisában a Bizottság közzétette a mesterséges intelligenciáról szóló rendelettervezetére (Artificial Intelligence Act, a továbbiakban: rendelettervezet)[6] tett javaslatát, amely fontos korlátozásokat tartalmaz az EU-ban vagy azzal összefüggésben használt MI-rendszerekre vonatkozóan. A sajátos jellemzőkkel (például átláthatatlanság a fekete doboz hatás miatt, összetettség, adatoktól való függés, autonóm magatartás) rendelkező MI használata hátrányosan érinthet számos, az Európai Unió Alapjogi Chartájában (a továbbiakban: Charta) rögzített alapvető jogot. Ezért a javaslat biztosítani kívánja ezen alapvető jogok magas szintű védelmét, és egyértelműen meghatározott kockázatalapú megközelítéssel kezelni kívánja a kockázatok különböző forrásait. A Fehér Könyv, a mesterséges intelligencia felelősségéről és biztonságáról szóló kísérő bizottsági jelentés,[7] valamint a rendeletter-

- 331/332 -

vezet azonban több alkalommal is említ egy olyan területet a jog és az MI metszéspontjában, amelyet eddig alig elemeztek jogi szempontból, és amely e tanulmány középpontjában áll: a következők az MI-alkalmazások tanításához használt adatok és adatkészletek szabályozása.

Ezzel szoros összefüggésben az egyik legnagyobb veszélynek kitett alapvető jog: az esélyegyenlőséghez való jog és a diszkrimináció tilalma. Legfőbb kiváltó oka ennek az MI által alkalmazott, illetve az MI betanításában alkalmazott adatkészlet hiányossága, hibája, vagy a rendszerben rejlő elfogultság. Az algoritmikus döntéshozatal előítéletessége, amelyet az adatkészlet előbbi problémái okozhatnak, anélkül is jogsértéshez vezetnek, hogy amögött szándékosság vagy emberi tudatosság állna. Az MI a döntéshozatal során diszkriminatív eredményeket is hozhat, ha a rendszer diszkriminatív tanító adatokból tanul. A torzított tanító adatoknak az alábbi diszkriminatív hatásai lehetnek: az MI-t előítéletes adatokon taníthatják; problémák merülhetnek fel, ha az MI-rendszer egy diszkriminatív mintából tanul; mindkét esetben az MI-rendszer reprodukálni fogja ezt az előítéletességet. A szakemberek egyre inkább kutatják az olyan algoritmusok felderítésének és javításának módjait, amelyek potenciálisan diszkriminatívak lehetnek egyénekkel vagy bizonyos csoportokkal szemben meghatározott tulajdonságok - például nem vagy etnikai származás - alapján. Ez akkor fordul elő, ha egy adott csoport esetében az eredmény szisztematikusan eltér a többi csoporttól, és ezért az egyik csoportot következetesen másként kezelik, mint a többit. Ez akkor fordulhat elő, ha az algoritmus tanításához használt adatok védett tulajdonságokra (pl. nem, etnikai hovatartozás, vallás stb.) vonatkozó információkat tartalmaznak. Továbbá az adatokban néha ún. "helyettesítő információk" is szerepelnek. Ilyen lehet például az irányítószám, amely közvetve utalhat az etnikai származásra a városok szegregált területein, vagy közvetlenebbül a személy születési országa. Az egyenlőtlen eredményeket és az eltérő bánásmódot, különösen a helyettesítő információkkal kapcsolatban, értékelni kell annak megállapítása érdekében, hogy ezek diszkriminációnak minősülnek-e. A megkülönböztetés nem csak a csoportok eredményeiben mutatkozó különbségeken alapulhat, hanem akkor is, ha a felhasználásra szánt kiválasztott adatok nem semlegesek. Ez azt jelenti, hogy az algoritmus felépítéséhez használt adatok előítéletet tükröznek, például egy csoport ellen irányulnak, akkor az algoritmus megismétli az emberi előítéletet a kiválasztás során, és megtanulja az adatokat, vagyis diszkriminálja ezt a csoportot. Az adatok több okból előítéletet tükrözhetnek, beleértve az adatok kiválasztása, gyűjtése és előkészítése során hozott döntéseket. Például egy automatizált kép leírást tanította ki, több ezer kép alapján, amelyeket emberek írtak le. Az emberek azonban nem semlegesen írják le a képeket. Nevezetesen, egy csecsemő fehér bőrszínű babát "babaként" írták le, de egy fekete bőrszínű babát úgy írtak le, mint egy "fekete baba". Ez torzított adat, mert a csak egy bizonyos csoporthoz rendelte a további tulajdonságokat, miközben objektíven mindkét esetet le kellene írni a bőrszínt is beleértve, vagy egyiket sem. Ha az ilyen információt tartalmaznak a tanító adatok, és ezeket használják az algoritmusok fejlesztéséhez, akkor az eredmények nem lesznek semlegesek. Az adatok lehetnek rosszul kiválasztott adatok, hiányosak, helytelenek vagy elavultak. A rosszul kiválasztott adatok közé tartozhatnak a "nem reprezentatív adatok", amelyek nem teszik lehetővé más csoportokra vonatkozó általánosításokat. Ha például egy algoritmust az álláspályázók egy bizonyos csoportjára vonatkozó adatok alapján hoztak létre, akkor a más csoportra vonatkozó előrejelzések nem biztos, hogy helytállóak. Ráadásul egy algoritmus csak olyan jó lehet, mint az adatok, amelyekkel dolgozik, ami azt jelenti, hogy az adatmodell, amely az algoritmus elemzésével döntéseket hoz, lehet elfogult, diszkriminatív. Ez esetben is igaz a statisztikában alkalmazott elv, az ún. "garbage in, garbage out", ami azt jelenti, hogy a rossz minőségű bevitt adat önmagában is rossz minőségű eredményt (előrejelzést) fog eredményezni. Ezért az algoritmusok (továbbra is) hátrányos helyzetbe hozhatják a történelmileg hátrányos helyzetű csoportokat, ha negatív és megalapozatlan feltételezéseken alapulnak. Ebben az értelemben az adatminőség-ellenőrzés, valamint az adatok és metaadatok megfelelő dokumentálása elengedhetetlen a magas színvonalú adatelemzéshez és az algoritmusok döntéshozatalra való felhasználásához.[8]

Az algoritmusok első pillantásra úgy válogatják, kategorizálják és rendszerezik az információkat, hogy kiküszöbölik az emberre jellemző előítéleteket és elfogultságokat. Ezért képesnek kell lenniük arra, hogy biztosítsák az elvárt egyenlő bánásmódot azáltal, hogy alkalmazzák az azonos kritériumokat és súlyozást, függetlenül például az adott személy származásától. A valóságban azonban nincs technológiai varázslat vagy matematikai semlegesség: az algoritmusokat emberek tervezik olyan adatok felhasználásával, amelyek az emberi gyakorlatot tükrözik. Az előítélet és elfogultság bekerülhet az algoritmus rendszerek fejlesztésének bármely szakaszába.

A tanító adatok könnyedén magukban hordozzák az előítéleteket, hiszen diszkriminatív emberi döntéseket tükröznek. Az 1980-as években ilyen helyzet állt elő az Egyesült Királyság egyik orvosi karán. Az egyetemre sokkal több jelentkező érkezett, mint amennyi hallgatót felvehettek. Ezért kifejlesztettek egy olyan számítógépes programot, amely segített a kiválasztásban. A számítógépes program tanító adatai a korábbi évek felvételi adatlapjai voltak, amelynek keretében emberek választották ki, hogy mely jelentkezők kerülhettek be az orvosi egyetemre. A tanító adatok megmutatták a szoftvernek, hogy

- 332/333 -

mely jellemzők (a bemeneti adatok) korrelálnak a kívánt kimenettel (az orvosi egyetemre való felvétellel). A számítógép pedig reprodukálta ezt a kiválasztási rendszert. Kiderült, hogy a program diszkriminálta a nőket és a bevándorló hátterű jelentkezőket, és ez azzal magyarázható, hogy azokban az években, amelyek a tanító adatokat szolgáltatták, a hallgatókat kiválasztó emberek diszkriminatív döntést hoztak a felvétel kapcsán a nőkkel és a bevándorló hátterű jelentkezőkkel szemben. A program nem új diszkriminatív gyakorlatot teremtett meg, hanem csupán a rendszerbe táplált kiválasztási feltételek már a korábban meglévő előítéletet tükrözték. Ez az eset is jól szemlélteti, ha a tanító adatok diszkriminatívak, az MI-rendszer is azt a kockázatot hordozza, hogy ezt fogja reprodukálni a döntésében.[9] A következőkben áttekintem azokat a területeket, amelyek esetében az MI alkalmazása diszkriminációs kockázatot rejt magában.

Diszkrimináció a büntető igazságszolgáltatásban

A diszkriminatív hatású MI-rendszer hírhedt példája a "Correctional Offender Management Profiling for Alternative Sanctions" - röviden COMPAS - néven ismert rendszer. A COMPAS rendszert az Egyesült Államok egyes részein a büntető igazságszolgáltatás keretében arra használják, hogy előre jelezzék annak a valószínűségét, hogy a terheltek újra elkövetnek-e majd bűncselekményt. E rendszer alkalmazásának alapja, hogy a COMPAS segítheti a bíróság munkáját a konkrét döntési javaslatokkal. A COMPAS az érintett személy vonatkozásában három mutatót képes jelezni: a tárgyalás előtti szabadon bocsátás kockázatát; a visszaesési és az erőszakos visszaesési együtthatót. Bár a COMPAS nem tartalmazhat kifejezetten faji tényezőt, vitathatóan úgy programozható, hogy nagymértékben korreláljon a terhelt etnikai hátterével, és így a használatával összefüggésben, különösen a tisztességes eljárással kapcsolatban aggályok merülnek fel.

Egy 2016-ban végzett kutatás azonban rávilágított arra, hogy a COMPAS rendszer általi kockázati besorolás előítéletet tükröz a fekete bőrű terheltekkel szemben. Az esetek 61 százalékában ugyanis helyesen jelzi előre a visszaesést, a fekete bőrű terhelteknél azonban majdnem kétszer nagyobb valószínűséggel a magasabb kockázatú besorolást eredményezi, mint a fehér bőrű terhelteknél. Sőt, az ő esetükben éppen az ellenkező hibát követi el a rendszer, mert nagyobb valószínűséggel minősíti őket alacsonyabb kockázatúnak. Továbbá a fekete bőrű terheltek esetében kétszer olyan valószínű, mint a fehér bőrűeknél, hogy tévesen magasabb kockázatúnak minősítették őket az erőszakos visszaesés szempontjából is. A fehér bőrű erőszakos visszaesők pedig 63 százalékkal nagyobb valószínűséggel voltak tévesen alacsony kockázatúnak minősítve.[10]

Bármilyen ígéretesek is ezek a rendszerek, az adatforrásaikban rejlő előítélet és megkülönböztetés, az algoritmikusokban rejlő "fekete doboz" probléma jelen van. Ezért az adatelemzésből származó téves értelmezések és következtetések gyorsan hatalmas vitákat váltottak ki a politikai döntéshozók, a gyakorlati szakemberek és az akadémikusok között. Ennek következményei egy közelmúltbeli ügyben, a State v. Loomis ügyben mutatkoztak meg, amelyben a Wisconsini Legfelsőbb Bíróság helyben hagyta a COMPAS kockázatértékelő rendszer alapján hozott alacsonyabb szintű bírósági ítéletet, és elutasította a terhelt fellebbezését, amelyben a tisztességes eljáráshoz való jogának megsértésére hivatkozott.[11]

Ezenkívül érdemes megemlíteni, hogy a rendőrség is használ MI-rendszereket prediktív rendészeti tevékenységre, amely olyan automatizált előrejelzésekre irányul, hogy ki, mikor és hol fog bűncselekményt elkövetni. Ugyanígy a prediktív rendészeti rendszerek is megismételhetik, sőt felerősíthetik a már meglévő diszkriminációt.[12]

A diszkrimináció és az online hirdetések

Az algoritmikus döntéshozatalnak a magánszektorban is lehetnek diszkriminatív hatásai. Erre jó példa, az egyre gyakrabban alkalmazott munkaerőfelvétellel kapcsolatos automatikus döntéshozatal esetei. Például egy új munkavállaló felvétel, "kiszervezhető" egy olyan elemző szoftverre, amely importálja és átalakítja az önéletrajzokat, és automatikusan kivonja, tárolja, elemzi, rendszerezi és átnézi a benyújtott információkat, esetleg más adatforrásokat is felhasználva, például a pályázó közösségi média fiókjait. Az ilyen szoftverek algoritmusokból állnak, amelyeket logikai műveletek formálisan meghatározott sorozataiként definiálnak, valamint lépésről lépésre utasításokat adnak a számítógépeknek az adatokon való működésre és ezáltal a döntések automatizálására. Az algoritmusokat egy adott probléma megoldására tervezték, amely ez esetben a megfelelő munkavállaló megtalálását jelenti a meghirdetett állásra. Ilyen szoftver például a

- 333/334 -

Textkernel Extract! 4.0, amely lehetővé teszi az ún. önéletrajz-elemzést, amely kiváltja az önéletrajzok kézi szűrését.[13]

Az egyik kiemelkedő példa erre az Amazon önéletrajz szűrőszoftvere, amelyet torzított múltbeli adatokon tanították, ami a férfi jelöltek előnyben részesítését eredményezte, mivel a múltban az Amazon gyakrabban alkalmazott férfiakat szoftvermérnökként, mint nőket, és az algoritmust ezen adatok alapján tanították. A hírek szerint az Amazon le is állította az MI-rendszer használatát az álláspályázók szűrésére, mert rájöttek, hogy az új rendszer nemi szempontból nem semleges módon értékelte a szoftverfejlesztői állásokra és más műszaki állásokra jelentkezőket.[14] Éppen ezért javasolják az emberi elfogultság forrásainak, például a nem, faj, etnikai hovatartozás, vallás, szexuális irányultság, életkor és olyan információk eltávolítását a rendszerből és az adatkészletből, amelyek a védett csoporthoz való tartozásra utalhatnak.

A big data és a gépi tanulás már átalakította a reklámozást, manapság a fogyasztók online látják a hirdetéseket, például a Google és a Facebook oldalán. A vállalatok pedig úgy toboroznak alkalmazottakat, hogy a közösségi médián keresztül hirdetnek álláslehetőségeket, ez a gyakorlat valószínűleg egyre elterjedtebb lesz. A közösségi médiavállalatok azon képessége, hogy a hirdetéseket a felhasználók jellemzői alapján pontosan megcélozzák az egyes felhasználók számára, megváltoztatja az álláslehetőségek hirdetésének módját. Az olyan vállalatok, mint a Facebook, gépi tanulást használnak hirdetéseik elhelyezéséhez, és a gépi tanulási rendszerek a diszkrimináció kockázatát hordozzák magukban.[15] Azok a hirdetések, amelyek előnyhöz juttatják a címzetteket azáltal, hogy felhívják a figyelmüket a jó lehetőségekre, diszkriminatívak lehetnek azokkal szemben, akiket kizárnak az ilyen kommunikációból (pl. az állásokat csak vagy főleg férfi jelentkezőknek ajánlják fel, a házakat a meglévő etnikai háttérrel rendelkező személyeknek biztosítják stb.). Azok az MI-rendszerek, amelyek az ilyen kommunikáció során kiválasztják a címzetteket, nem feltétlenül irányulnak a szándékos megkülönböztetésre abban az értelemben, hogy tevékenységük célja csupán a sikeres válaszok maximalizálása azáltal, hogy csak azoknak küldenek hirdetéseket és ajánlatokat, akik a rendszer értékelése szerint valószínűleg érdeklődnének irántuk, vagy csak azoknak, akikkel van megfelelő egyezés. Az ilyen jellegű értékelés általában azon alapul, hogy hasonló személyek a múltban már éltek ilyen lehetőségekkel, vagy hogy ezeket a lehetőségeket a múltban megfelelőnek találták számukra. Ez a múltbeli gyakorlatra vagy értékelésre való támaszkodás azonban kirekesztésen és előítéleten alapulhat, és tisztességtelen megkülönböztetéshez vezethet.[16]

Például egy kutatás során azonos felhasználókkal tesztelték a hirdetéseket, akik között voltak férfiak és nők egyaránt. A kutatók ezután elemezték a Google által megjelenített hirdetéseket, és a Google a férfiaknak gyakrabban mutatta az egyik karrier-tanácsadó ügynökség által közéttett magas fizetést ígérő hirdetéseit, mint a nőknek, ami diszkriminációra utaló eredmény. A kutatók megjegyezték, hogy a rendszer átláthatatlansága miatt nem világos, hogy a nőknek miért mutattak kevesebb hirdetést a jól fizető állásokról. Nem tudták meghatározni, hogy mi okozta ezt az eredményt, mert nincs rálátásuk a hirdetési ökoszisztémára, amely magában foglalja a Google-t, a hirdetőket, a weboldalakat és a felhasználókat. Ez egy olyan példa, ahol az MI-rendszerek átláthatatlansága megnehezíti a diszkrimináció és annak okának feltárását. Az embereket anélkül diszkriminálhatják, hogy tudnának róla. Ha egy MI-rendszer csak férfiaknak szóló álláshirdetéseket céloz meg, a nők nem biztos, hogy észreveszik, hogy kizárják őket a hirdetésekből.[17]

Az algoritmusok auditálása

Az adat és a jól kiválasztott tanítóadat (a példák), kulcsfontosságúvá válnak. A kód előállítójának felelőssége pedig annyiban változik, hogy nem a kódolásért (a hibátlan programért), hanem elsősorban az adat minőségéért és a példák helyes kiválasztásáért kell felelnie.[18] Az adatminőségi kockázatok központi szerepet játszanak a gépi tanulásban. Közvetlen hatással vannak a felügyelt tanulási technikákra, mivel az objektíve hibás tanító adatok (jellemzően) hibás modell előrejelzésekhez vezetnek. Az adatminőség azonban nem korlátozódik az objektív helyességre, hanem például az adatok időszerűségét és reprezentativitását is magában kell foglalnia. Ezért gyakran követelik a tanító

- 334/335 -

adatokra vonatkozó, jogilag operacionalizálható minőségi kritériumok kidolgozását. A helyzet még összetettebb a megerősített tanulás területén, mivel gyakran hiányoznak a tanító környezet "helyességének" értékelésére szolgáló objektív szabványok. Ha például egy autonóm járművet irányító rendszer egy szimulátorban különböző problémás helyzetekkel szembesül, ezek a konstellációk ritkán lesznek objektíven helytelenek. Legfeljebb valószínűtlennek vagy kiegyensúlyozatlannak minősíthetők. A probléma így átalakul a reprezentatív használati helyzetek megfelelő kiválasztásának problémájává, amelyekkel a rendszernek meg kell birkóznia.

A tanító adatok szintén az algoritmikus diszkrimináció egyik fő forrásai. Ezt az arcfelismerés, az MI toborzás és a személyre szabott reklámozás valós esetei bizonyítják. A diszkriminációs kockázatok részben az adatminőségi kockázatokhoz kapcsolódnak, vagy azok következményei lehetnek, ha és amennyiben egy adott védett csoport adatminőségét átlagosan negatívan befolyásolják. Ez a kapcsolat azonban nem feltétlenül áll fenn; a diszkriminációs kockázatok a minőségi kockázatoktól függetlenül is felmerülhetnek. Még ha az adatminőség azonos is a különböző védett csoportok tekintetében, a csoportegyensúly hiánya egy adathalmazban (pl. egy védett csoport alulreprezentáltsága, ún. mintavételi torzítás) szisztematikus torzításokhoz és diszkriminációhoz vezethet. Mindazonáltal el kell ismerni, hogy az emberek által hozott döntéseket jelentős mértékben tudatos vagy tudattalan elfogultság is vezérelheti. Az emberi döntésekkel ellentétben azonban a gépi modellek paraméterei explicit módon és közvetlenül szabályozhatók, amihez a diszkrimináció-tudatos gépi tanulással (algoritmikus méltányosság) foglalkozó informatikai szakirodalom sokrétű kiindulópontot kínál.[19]

A diszkriminációnak az algoritmusokban való felderítése nem egyszerű feladat, mint ahogy a diszkrimináció formáinak felderítése is általában véve is nehéz lehet. A modern algoritmusokban használt gépi tanulás és az MI-alkalmazásai egyre összetettebbek. Ennek következtében, az eredményeket nehéz vagy szinte lehetetlen értelmezni, hogy az adatokban lévő információk milyen mértékben és milyen módon befolyásolják az előrejelzéseket. Ez összefügg azzal is, hogy hatalmas mennyiségű adatot lehet felhasználni bizonyos kimenetelek előrejelzéséhez. Például a gyakran használt algoritmusok az ún. neurális hálózatokon alapulnak, amelyek rejtett kapcsolati rétegekkel dolgoznak és a különböző jellemzők kombinációi jelennek meg az adatokban. Ez megnehezíti annak értékelését, hogy egy személyt megkülönböztetés ér-e a neme, etnikai származása, vallási meggyőződése vagy egyéb szempontok alapján. Ha azonban egy prediktív algoritmust táplálnak különböző csoportokra vonatkozó információkkal, és különbözőségeket mutat ezen információk alapján, akkor diszkriminatív kimenetet adhat.

A bonyolultság ellenére az algoritmusokat audit alá kell vetni annak bizonyítására, hogy jogszerű a működésük. Más szóval, be kell bizonyítani, hogy az adatokat nem olyan módon dolgozzák fel, amely diszkriminációhoz vezet. Ebben az összefüggésben az auditálás valójában a valós élethelyzetekben végzett ún. diszkriminációs tesztelést (vagy szituációs tesztelést) jelent. Egy ilyen tesztelés során például két azonos, fiktív álláspályázatot küldenek el a munkáltatóknak, és csak az érdeklődésre számot tartó védett csoporthoz tartozás (pl. etnikai származás) különbözik. Gyakran egyszerűen csak a pályázó nevét változtatják meg, jellemzően etnikai származásra utaló nevek használatával. Ilyen módon egy kísérleti helyzetet hoznak létre, és az állásinterjúra történő visszahívási arányok közötti különbségek közvetlenül diszkriminációként értelmezhetők. Hasonló megközelítések alkalmazhatók a megkülönböztetés kimutatására az algoritmusok használata során.

Az algoritmusok auditálása történhet a számítógépes szoftverhez és a kódhoz való teljes hozzáféréssel, amit majd egy informatikus szakértő értékelhet. Azonban ez nem mindig egyszerű, mert a diszkrimináció nincs közvetlenül kódolva a számítógépes szoftver szintaxisában. Emellett léteznek módszerek az információ kinyerésére arról, hogy mely adatok járulnak hozzá leginkább az algoritmus eredményéhez. Így ellenőrizhető, hogyha védett alapon, például etnikai származás alapján gyűjtött információkról van-e szó, és ezek fontosak az előrejelzések szempontjából. Ez esetben a védett jellemzőkkel kapcsolatos információkat ki kell nyerni az algoritmusból, hogy megértsük az eredmények közötti különbségeket. Ha például a jövedelemben mutatkozó különbség magyarázza, hogy egy személynek miért nem ajánlották fel a kölcsönt, ez észszerű lehet. Azonban, ha a csoporthoz tartozás különbséget jelent egy döntés szempontjából, például egy kölcsönfelvétel esetében, akkor az diszkriminációnak minősülhet. A diszkrimináció legkönnyebben akkor mutatható ki, ha a teljes átláthatóság biztosított, abban az értelemben, hogy a kód és az algoritmus felépítéséhez használt adatkészlet az auditorok számára hozzáférhetőek. Azonban még ebben sem mindig egyszerű a helyzet. Néhány eredmény diszkriminatívnak tűnhet, de közelebbről megvizsgálva nem feltétlenül az. Például egy csoport esetében tűnhet úgy, hogy összességében eltérő bánásmódban részesül, de az eredmények magyarázható különbségekre bontása azt mutatja, hogy nincs diszkrimináció. Az alapvető jogok megsértésének elkerülése érdekében alapvető fontosságú, hogy az emberek életéről szóló automatizált döntések meghozatalához használt eszközök átláthatóak legyenek. A teljes átláthatóság számos okból nem biztos, hogy megvalósítható. Ilyen okok lehetnek például a szellemi tulajdonjogok vagy nemzetbiztonsági kérdések. Az adatkezelőknek azonban gondoskodniuk kell arról, hogy az automatizált döntéshozatali folyamatot világosan és egyszerűen elmagyarázzák az érintetteknek, különösen akkor, ha profilalkotáson ala-

- 335/336 -

puló döntéshozatali folyamatról van szó. Problémát jelenthet, hogy az algoritmus által használt adatok azonban gyakran nem állnak rendelkezésre az adott vállalaton vagy intézményen kívüli személyek számára. Így csak az adatok tulajdonosai végezhetnek könnyen ilyen vizsgálatokat. Ebben az esetben vagy a megkülönböztetés felderítésére szolgáló módszerek anélkül, hogy az adathalmazhoz való hozzáférés nélkül, ki kell dolgozni és engedélyezni kell (pl. diszkriminációs tesztelés), vagy pedig az algoritmusok ellenőrzésére - az üzleti titkokat védő eljárás révén - olyan módszereket kell bevezetni, amelyek az adatokhoz és a kódhoz hozzáférő külső szakértő auditorok segítségével valósulnak meg, hasonlóan a pénzügyi ellenőrök által végzett ellenőrzésekhez. Ebben a tekintetben megfontolandó az olyan állami szervek létrehozása, amelyeknek jogosultságuk és hatáskörük van az emberek alapvető jogait érintő MI-rendszerek használatának vizsgálatára, és például erre irányuló törekvést olvashatunk már az uniós MI rendelettervezetben is.[20]

Az Európai Unió mesterséges intelligencia rendelettervezete

Az MI uniós rendelettervezet a horizontális szabályozás minimumát célozza meg, méghozzá egy kockázatalapú megközelítést alkalmaz, az MI-alkalmazásokat kockázati osztályokba sorolja. A tervezet megkülönböztet teljesen tiltott kategóriát (II. cím), amelybe tartoznak az arcfelismerő programok (kivételt engedő)[21] tiltása közterületen; a tudatalatti manipuláció; a tömeges megfigyelés vagy a (Kínában használthoz hasonló) társadalmi pontrendszer jogellenességének rögzítése. Ezenkívül a nagy kockázatú MI-alkalmazásokat (III. cím) határozza meg, amelyekre kötelező szabályokat alkot, és kevésbé kockázatos (IV. cím), de valamilyen szempontból még mindig kiemelt figyelmet érdemlő egyéb alkalmazásokat (átláthatóságot erősítő rendelkezésekkel támogatva kezeli az ezekkel kapcsolatos kockázatokat[22]), végül semelyik kategóriába nem eső MI-alkalmazásokat, amelyeket a magatartási kódexekre, vagyis az önszabályozásra bízza.[23]

A téma szempontjából a legérdekesebb számunkra a nagy kockázatú MI-k szabályozása. Nagy kockázatúnak akkor minősül egy MI, ha vagy biztonsági komponense egy egyébként is szorosan szabályozott termékcsoportnak (ezeket a II. melléklet sorolja fel a játékoktól a vízi járműveken keresztül az orvosi műszerekig), vagy azért, mert olyan területen alkalmazzák, amely az emberi jogokat különösen érinti. Utóbbi lista nyolc területen kéttucatnyi konkrét alkalmazást sorol fel, mint például a természetes személyek biometrikus azonosítását, kritikus infrastruktúrák (közlekedés, gáz, víz, villanyellátás) vezérlését végző MI-k, és még néhány, különösen az amerikai szakirodalomból ismert területeken "tevékenykedő" MI (így a munkaerő felvétel, egyetemi felvétel, hitelbírálat és a bírói munkához adott tanácsok területén működő alkalmazások).[24]

A rendelettervezet ugyanis rögzíti, hogy nagy kockázatúnak kell tekinteni azokat az MI-rendszereket, amelyeket a foglalkoztatás, a munkavállalók irányítása és az önfoglalkoztatáshoz való hozzáférés, különösen személyek felvétele és kiválasztása, az előléptetéssel és felmentéssel kapcsolatos döntések meghozatala, valamint a munkával kapcsolatos szerződéses jogviszonyban lévő személyek részére történő feladatkiosztás, továbbá az ilyen személyek nyomon követése vagy értékelése során használnak, mivel ezek a rendszerek érzékelhetően befolyásolhatják e személyek jövőbeli karrierlehetőségeit és megélhetését.

A bűnüldöző hatóságok MI-rendszerek bizonyos használatával járó fellépéseit az erőviszonyok jelentős mértékű kiegyensúlyozatlansága jellemzi, és egy természetes személy megfigyeléséhez, letartóztatásához vagy szabadságának elvonásához, valamint a Chartában garantált alapvető jogokra gyakorolt egyéb kedvezőtlen hatásokhoz vezethetnek. Különösen akkor, ha az MI-rendszert nem tanítják jó minőségű adatokkal, nem felel meg a pontos-

- 336/337 -

sága vagy stabilitása tekintetében támasztott megfelelő követelményeknek, vagy a forgalomba hozatalt vagy a más módon történő üzembe helyezést megelőzően nem megfelelően tervezték és tesztelték, akkor e rendszer diszkriminatív vagy más tekintetben tisztességtelen vagy igazságtalan módon válaszhat ki embereket. Akadályozhatja továbbá a fontos alapvető eljárási jogoknak - például a hatékony jogorvoslathoz és a tisztességes eljáráshoz való jognak, valamint a védelemhez való jognak és az ártatlanság vélelmének - az érvényre juttatását, különösen akkor, ha az ilyen MI-rendszerek nem eléggé átláthatók, megmagyarázhatók és dokumentálhatók.[25]

A migrációkezelésben, a menekültügyben és a határigazgatásban használt MI-rendszerek[26] olyan embereket érintenek, akik gyakran különösen kiszolgáltatott helyzetben vannak, és akiknek életét befolyásolja az illetékes hatóságok intézkedéseinek kimenetele. Az ilyen összefüggésben használt MI-rendszerek pontossága, megkülönböztetésmentes jellege és átláthatósága ezért különösen fontos az érintett személyek alapvető jogai, nevezetesen a szabad mozgáshoz, a megkülönböztetés mentességhez, a magánélet és a személyes adatok védelméhez, a nemzetközi védelemhez és a megfelelő ügyintézéshez való jogaik tiszteletben tartásának biztosítása szempontjából.

Az igazságszolgáltatásra és a demokratikus folyamatok irányítására szánt egyes MI-rendszereket nagy kockázatúnak kell tekinteni, figyelembe véve a demokráciára, a jogállamiságra, az egyéni szabadságokra, valamint a hatékony jogorvoslathoz és a tisztességes eljáráshoz való jogra gyakorolt jelentős hatásukat. Különösen az esetleges torzítások, hibák és átláthatatlanság kockázatának kezelése érdekében indokolt nagy kockázatúnak minősíteni azokat az MI-rendszereket, amelyek célja, hogy segítsék az igazságügyi hatóságokat a ténybeli és a jogi elemek kutatásában és értelmezésében, valamint a jog konkrét tényekre történő alkalmazásában. Ez a minősítés azonban nem terjedhet ki azokra az MI-rendszerekre, amelyeket olyan, tisztán járulékos adminisztratív tevékenységekre szánnak, amelyek az egyedi esetekben nem befolyásolják a tényleges igazságszolgáltatást; ilyen tevékenységek például a bírósági határozatok, dokumentumok vagy adatok anonimizálása vagy álnevesítése, a személyzet közötti kommunikáció, az adminisztratív feladatok vagy a források elosztása.

A nagy kockázatú MI-vel szemben támasztott követelmények a rendeletben következők (2. fejezet): mindig kockázatértékelési rendszereket kell létrehozni, bevezetni, dokumentálni és fenntartani (9. cikk). Megfelelő adatmenedzsment (data governance) rendszerekkel kell együtt működtetni, valamint a tanító, validáló és tesztelő adatoknak "tisztának" kell lenni (10. cikk). A nagy kockázatú MI-khez részletes dokumentációt kell csatolni, az eseményeket naplózó rendszereket kell társítani (11-12. cikk). Az ilyen típusú rendszereknek átláthatóan kell működniük, valamint mindig meg kell maradnia az emberi felügyeletnek és beavatkozási lehetőségnek (13-14. cikk). Ezenkívül meg kell felelnie a pontosság, a robosztusság és a kiberbiztonság követelményeinek (15. cikk).

Érdemes közelebbről megvizsgálni a tanító adatokkal kapcsolatos 10. cikkben foglalt rendelkezéseket, amelyek meghatározzák a tanító adatokra vonatkozó irányítási rendszert, amely átfogó követelményeket tartalmaz az ilyen adathalmazok teljes életciklusára vonatkozóan, amikor azokat nagy kockázatú MI-alkalmazások tanítására használják. A rendelettervezet a nagy kockázatú rendszerekre vonatkozó konkrét minőségi kritériumok három fontos csoportjának meghatározásával folytatódik. Először is, a 10. cikk (3) bekezdése szerint a tanító adatoknak "relevánsnak, reprezentatívnak, hibamentesnek és teljesnek" kell lenniük, ami a fent tárgyalt informatikai szakirodalomban található számos adatminőségi követelményt tükrözi, de ezeket részletesen nem fejti ki. Másodszor, a tanító adatoknak megfelelő statisztikai tulajdonságokkal kell rendelkezniük, beleértve azon személyek vagy személyek azon csoportjainak tekintetében, akikre vagy amelyekre a nagy kockázatú MI-rendszert alkalmazni kívánják. Bár a védett tulajdonságok által alkotott csoportok nem szerepelnek kifejezetten ebben a szakaszban, úgy tűnik, hogy a kritérium mégis magában foglalja az adatkészletek védett csoportok tagjai közötti egyensúly kérdését. A statisztikai megfelelőségnek azonban minden kellően megkülönböztethető csoport tekintetében teljesülnie kell, függetlenül attól, hogy a védett tulajdonságok által meghatározott vagy nem meghatározott csoportról van-e szó, ami a rendelkezést egyformán tágítja (gondoljunk például a különböző társadalmi-gazdasági csoportokra) és homályossá teszi. Minden csoport esetében megfelelő statisztikai tulajdonságokat ír elő, anélkül azonban, hogy további útmutatást adna arra vonatkozóan, hogy mit jelent ebben az összefüggésben a megfelelőség. Harmadszor, a reprezentativitás kritériumát a 10. cikk (4) bekezdése tovább pontosítja, amely kimondja, hogy a tanító adatoknak - a rendeltetéstől függően szükséges mértékben - figyelembe kell venniük és tükrözniük kell azokat a jellemzőket vagy elemeket, amelyek azon sajátos földrajzi, magatartási vagy funkcionális környezethez kapcsolódnak, amelyben a nagy kockázatú MI-rendszert használni kívánják. Ez a rendelkezés tehát arra kényszeríti a fejlesztőket, hogy figyelembe vegyék a rendszer tervezett alkalmazásának konkrét kontextusát. A rendelettervezet a 42. cikk (1) bekezdésében vélelmezi, hogy a kontextus reprezentativitási kritérium teljesül, ha a tanító adatok a tervezett földrajzi, viselkedési és funkcionális környezetből származnak.

A rendelettervezet fontos kivételt tesz az Általános Adatvédelmi Rendelet (a továbbiakban: GDPR) 9. cikkének (1) bekezdésében foglalt, az érzékeny adatok feldolgozásá-

- 337/338 -

ra vonatkozó tilalom alól. A 10. cikk (5) bekezdése helyesen oldja fel a feszültséget az adatvédelmet és a megkülönböztetés mentességet biztosító jogterületek között. Amennyiben a nagy kockázatú MI-rendszerekkel kapcsolatosan a torzítás nyomon követésének, észlelésének és korrekciójának biztosításához feltétlenül szükséges, az ilyen rendszerek szolgáltatói kezelhetik a személyes adatoknak különleges kategóriáit, a természetes személyek alapvető jogaira és szabadságaira vonatkozó megfelelő biztosítékokra is figyelemmel, ideértve a legkorszerűbb biztonsági és magánéletvédelmi intézkedések - köztük az álnevesítés, vagy ha az anonimizálás jelentősen befolyásolja a kitűzött célt, a titkosítás - további felhasználására és használatára vonatkozó technikai korlátokat is.[27]

A rendelettervezet szigorú szankciót helyez kilátásba (71. cikk), ha az MI-rendszer nem felel meg a 10. cikkben meghatározott követelményeknek, valamint az MI-vel kapcsolatos gyakorlatok 5. cikkben említett tilalmának be nem tartása esetén, legfeljebb 30 000 000 EUR összegű közigazgatási bírsággal, illetve vállalkozások esetében az előző pénzügyi év teljes éves világpiaci forgalmának legfeljebb 6 %-át kitevő összeggel sújthatók; a kettő közül a magasabb összeget kell kiszabni. Amennyiben az MI-rendszer nem felel meg az e rendelet szerinti - az 5. és 10. cikkben meghatározottaktól eltérő - követelményeknek vagy kötelezettségeknek, legfeljebb 20 000 000 EUR összegű közigazgatási bírsággal, illetve vállalkozások esetében az előző pénzügyi év teljes éves világpiaci forgalmának legfeljebb 4 %-át kitevő összeggel sújtható; a kettő közül a magasabb összeget kell kiszabni.

Ezenkívül a rendelettervezetben foglalt előzetes tesztelésre, a kockázatkezelésre és az emberi felügyeletre vonatkozó kötelezettségek is elő fogják segíteni egyéb alapvető jogok tiszteletben tartását azáltal, hogy minimálisra csökkentik az MI-n alapuló téves vagy elfogult döntések kockázatát olyan kritikus területeken, mint az oktatás és képzés, foglalkoztatás, fontos szolgáltatások, bűnüldözés és igazságszolgáltatás. Abban az esetben, ha továbbra is sor kerül az alapvető jogok megsértésére, az MI-rendszerek átláthatóságának és nyomon követhetőségének biztosítása, valamint a szigorú utólagos ellenőrzés lehetővé teszi a hatékony jogorvoslatot az érintett személyek számára. A fokozott átláthatósági kötelezettségek csak az egyének hatékony jogorvoslathoz való jogának gyakorlásához szükséges minimális információkra, valamint a felügyeleti és végrehajtó hatóságok számára szükséges átláthatóságra korlátozódnak, megbízatásuknak megfelelően, ezáltal a szellemi tulajdon védelméhez való jogot [17. cikk (2) bekezdés] sem érintik aránytalanul. Ha a lényeges kötelezettségeknek való megfelelés vizsgálata céljából hozzáférést kell biztosítani a hatóságok és a bejelentett szervezetek számára a bizalmas információkhoz vagy a forráskódhoz, akkor kötelező titoktartási kötelezettség vonatkozik rájuk.

Összefoglalás

Az algoritmikus diszkriminációval kapcsolatban a jogi normák egyértelműek. Társadalmaink nem fogadják el, és nem is szabad elfogadniuk a védett tulajdonságok, például az etnikai származás vagy a nem alapján történő megkülönböztetést. Felmerül a kérdés, hogy hogyan lehetne javítani a diszkriminációt tiltó normák érvényesítését az algoritmikus döntéshozatal területén? Amint arra már utaltam, az MI-rendszerek egyik fő problémája a fekete doboz jellegük. Ez az átláthatatlanság önmagában is problémának tekinthető, de az átláthatatlanság a megkülönböztetés felderítését is akadályozza. A megfelelő jogi szabályozás azonban segíthet az algoritmikus döntéshozatal átláthatóbbá tételében. Például az Európai Unióban az MI rendelettervezet már olyan minimumkövetelményeket támaszt a nagy kockázatú MI-k esetén, hogy ezeket rendszereket úgy fejlesszék, hogy azok lehetővé tegyék az ellenőrzést és a magyarázhatóságot, valamint a rendszer által használt adatkészletekre vonatkozó konkrét rendelkezéseket tartalmaz. Azonban még mindig vannak megválaszolatlan kérdések a szabályozás kapcsán. Továbbá fontos lépés, hogy a nagy kockázatú MI-k esetén az arra illetékes szervek az algoritmikus rendszerek mögöttes kódjához (szoftveréhez), valamint adatkészletéhez hozzáférjenek, ha súlyos jogsértés merül fel, mert a kód vizsgálata információt nyújthat a rendszer működéséről. Azzal az állásponttal azonban egyet lehet érteni, hogy a kódvizsgálatok akkor lehetnek a leghasznosabbak, ha van egy világosan meghatározott kérdés arra vonatkozóan, hogy egy algoritmus hogyan működik a szabályozott térben, és vannak olyan konkrét szabványok, amelyekhez képest mérni lehet a rendszer viselkedését vagy teljesítményét.[28] ■

JEGYZETEK

[1] A szerző tudományos munkatárs, Társadalomtudományi Kutatóközpont Jogtudományi Intézet; egyetemi adjunktus, Budapesti Műszaki és Gazdaságtudományi Egyetem Gazdaság- és Társadalomtudományi Kar Üzleti Jog Tanszék.

[2] A tanulmány a 138965. számú NKFIH pályázat és a Mesterséges Intelligencia Nemzeti Laboratórium keretében készült, az Innovációs és Technológiai Minisztérium, valamint a Nemzeti Kutatási, Fejlesztési és Innovációs Hivatal támogatásával.

[3] Az Európai Unió is egyre intenzívebben foglalkozik az MI-vel és hoz nyilvánosságra a témával foglalkozó dokumentumokat. Például az Európai Bizottság által 2018 júniusában létrehozott MI szakértői csoport egyik szakmai anyagában meghatározással is szolgál: "A mesterséges intelligencia (MI) olyan rendszerekre utal, amelyek intelligens viselkedést tanúsítanak a környezetük elemzésével és bizonyos célok elérése érdekében, illetve meghatározott fokú autonómiával rendelkeznek. Az MI-alapú rendszerek lehetnek tisztán szoftveralapúak, a virtuális világban működnek (például hangasszisztensek, képelemző szoftverek, keresőmotorok, beszéd- és arcfelismerő rendszerek), vagy az MI beépíthető a hardvereszközökbe (például fejlett robotok, autonóm járművek, drónok vagy az Internet of Things alkalmazásai)." Lásd High Level Expert Group on Artificial Intelligence: A definition of AI: Main Capabilities and Disciplines. Brüsszel, 2019. 1. o. Ezenkívül a címben feltüntetett "algoritmus" kifejezést széles körben használják a big data, a gépi tanulás és a mesterséges intelligencia kontextusában. Az algoritmus egy számítógép számára adott parancsok sorozata, amely egy bemenetet kimenetté alakít át. Például, ha egy személyekből álló listát életkoruk szerint kell rendezni. A számítógép fogadja a listán szereplő személyek életkorát (bemenet), és létrehozza a lista új rangsorát (kimenet). A gépi tanulás az MI egyik csoportja, amely algoritmusokkal azonosít mintákat az adatokban, amelyekkel ezután adatmodellt készít, és előrejelzéseket végez. A mély tanulás pedig a gépi tanulás egy fejlett típusa, amely az emberi agy szerkezete által ihletett algoritmus hálózatokat, ún. neurális hálózatokat használ. A neurális hálózatok egyik legfőbb jellemzője az adaptációs, tanulási képesség.

[4] Fehér könyv a mesterséges intelligenciáról: a kiválóság és a bizalom európai megközelítése. Brüsszel, 2020.2.19. COM(2020) 65 final.

[5] High Level Expert Group on Artificial Intelligence: Ethics guidelines for trustworhy AI. Brüsszel, 2019. 14-17. o.

[6] Javaslat az Európai Parlament és a Tanács Rendelete a mesterséges intelligenciára vonatkozó harmonizált szabályok (a Mesterséges Intelligenciáról Szóló Jogszabály) megállapításáról és egyes uniós jogalkotási aktusok módosításáról. Brüsszel, 2021.4.21. COM(2021) 206 final 2021/0106(COD).

[7] A Bizottság jelentése a Tanácsnak, az Európai Parlament és az Európai Gazdasági és Szociális Bizottságnak: Jelentés a mesterséges intelligencia, a dolgok internet és a robotika biztonsági és felelősségi vonatkozásairól. Brüsszel, 2020.2.19. COM(2020) 64 final.

[8] Kullmann, Miriam: Discriminating job applicants through algoritmic decision-making. 5. o., https://bit.ly/3vr6NaF, valamint lásd European Union Agency for Fundamental Rights: Data quality and artificial intelligence - mitigating bias and error to protect fundamental rights. Bécs, 2019.; Körtvélyesi Zsolt: Kódolt egyenlőtlenségek? Diszkrimináció az algoritmusok korában. JTI blog, https://bit.ly/3K0Zfk5.

[9] Borgesius, Frederik Zuiderveen: Discrimination, artificial intelligence, and algorithmic-decision making. Council of Europe, 2018. 17-18. o.

[10] Borgesius: i. m. 23- 25. o., valamint lásd erről részletesen Dieterich, William - Mendoza, Christina - Brennan, Tim: COMPAS Risk Scales: Demonstrating Accuracy Equity and Predictive Parity. Northpointe, 2016.; Angwin, Julia et al.: Machine Bias: There's Software Used Across the Country to Predict Future Criminals. And It's Biased Against Blacks. ProPublica, 2016., Larson, Jeff et al.: How We Analyzed the COMPAS Recidivism Algorithm. ProPublica, 2016.

[11] United States, Supreme Court of Wisconsin, State of Wisconsin v. Eric L. Loomis, No. 2015AP157-CR, 13 July 2016.

[12] Lásd erről bővebben Richard Berk: Criminal justice forecasts of risk: a machine learning approach. Springer, 2012.; Harmati Barbara - Szabó Imre: A prediktív rendészet és az automatizált igazságszolgáltatás. Belügyi Szemle 2020/5.; Szabó Imre: Automatizált döntéshozatal és a büntetőeljárás. Ügyészek Lapja 2020/4-5.

[13] Kullmann: i. m. 1-2. o.; valamint lásd erről Köchling, Alina - Wehner, Marius Claus: Discriminated by an algorithm: a systematic review of discrimination and fairness by algorithmic decisionmaking in the context of HR recruitment and HR development. Business Research 2020/13. 795-848. o.; Grozdanovski, Ljupcho: In search of effectiveness and fairness in proving algorithmic discrimination in EU law. Common Market Law Review 2021/1. 99-136. o.

[14] Dastin, Jeffrey: Amazon Scraps secret AI recruiting tool that showed bias against women. Reuters, https://reut.rs/3vvkHsh

[15] Blass, Joseph: Algorithmic Advertising Discrimination. Northwestern University Law Review 415. 2019. 418. o.

[16] Lásd bővebben erről Barocas, Solon-Selbst, Andrew D.: Big data's disparate impact. California Law Review. 104. 2016. 671-732. o.; Kroll, Joshua A. et al.: Accountable algorithms. University of Pennsylvania Law Review 165. 2016. 613-705. o.; Hacker, Philipp: Teaching fairness to artificial intelligence: Existing and novel strategies against algorithmic discrimination under EU law. Common Market Law Review 2017. 1143-1185. o.

[17] Datta, Amit - Tschantz, Michael Carl - Datta, Anupam: Automated experiments on ad privacy settings: A tale of opacity, choice, and discrimination. Proceedings on Privacy Enhancing Technologies Vol. 92. 2015/1. 93. o., valamint lásd bővebben Datta, Amit et al.: Discrimination in online advertising: A multidisciplinary inquiry. Conference on Fairness, Accountability and Transparency. Proceedings of Machine Learning Research Vol. 81. 2018.

[18] Ződi Zsolt: A mesterséges intelligencia szabályozásának dilemmái. ITKI blog, https://bit.ly/3jTb5lW.

[19] Hacker, Philipp: A legal framework for AI training data - from first principles to the Artificial Intelligence Act. Law, Innovation and Technology 2021/2. 257-265. o.

[20] European Union Agency for Fundamental Rights: #BigData: Discrimination in data-supported decision making. Bécs, 2018. 6-8. o.

[21] Az MI-rendszerek természetes személyek "valós idejű" távoli biometrikus azonosítására, a nyilvánosság számára hozzáférhető helyeken, bűnüldözés céljából történő használata szükségszerűen magában foglalja biometrikus adatok feldolgozását. A rendelettervezet azon, az EUMSZ 16. cikkén alapuló szabályait, amelyek - bizonyos kivételekre is figyelemmel - tiltják az ilyen használatot, lex specialisként kell alkalmazni az (EU) 2016/680 irányelv 10. cikkében foglalt, a biometrikus adatok kezelésére vonatkozó szabályok tekintetében, ennélfogva ezek kimerítően szabályozzák az ilyen használatot és az érintett biometrikus adatok kezelését.

[22] Ezeket a szabályokat az 52. cikk tartalmazza: az MI-nek mindig tájékoztatnia kell az embert, hogy MI-vel áll szemben. Az érzelmek felismerésére képes rendszereknek tájékoztatniuk kell az érintetteket, a deepfake videókat fel kell címkézni, tudatni kell, hogy gépi eszközökkel hamisított mozgóképről van szó. Ezek a kategóriák nem minősülnek önmagukban sem tiltottnak, sem nagy kockázatúnak. Érdemes említést tenni egy olyan hazai esetről, amely során a Nemzeti Adatvédelmi és Információszabadság Hatóság (a továbbiakban: NAIH) első alkalommal szabott ki büntetést az MI jogszerűtlen használata miatt, 250 millió forintra bírságoltak egy pénzintézetet. A NAIH beszámolója szerint egy bank MI-vel vezérelt szoftveres megoldást alkalmazott az ügyfelek érzelmi állapotának automatizált feldolgozására. A beszédjel-felismerő és értékelő rendszer az ügyfelek hangulati állapota alapján határozta meg, mely ügyfeleket szükséges visszahívni. A bank az alkalmazást panasz és ügyfélelvándorlás megelőzése érdekében üzemeltette. A NAIH utasította a bankot az érzelmi állapotok elemzésének abbahagyására, mivel az számos ponton sérti az Általános Adatvédelmi Rendeletet (GDPR). Lásd ehhez NAIH 2021. évi beszámolóját.

[23] Ződi Zsolt: Az Európai Bizottság Mesterséges Intelligencia Kódexének tervezete. Gazdaság és Jog 2021/5. 1-3. o.

[24] Ződi Zsolt: A mesterséges intelligencia szabályozásának dilemmái. ITKI blog, https://bit.ly/3jTb5lW.

[25] Lásd erről bővebben Karsai Krisztina: A mesterséges intelligencia szabályozásának európai tervezete, avagy algoritmusok térnyerésének előjelei a (büntető) igazságszolgáltatásban. Forum: Acta Juridica Et Politica 2021/3. 189-196.

[26] Lásd erről Dumbrava, Costica: Artificial intelligence at EU borders. European Parliamentary Research Service, Brüsszel, 2021.

[27] Hacker (2021): i. m. 290-301. o., valamint lásd az MI adatvédelmi kérdéseiről bővebben Eszteri Dániel: A gépek adatalapú tanításának megfeleltetése a GDPR egyes előírásainak In: Török Bernát - Ződi, Zsolt (szerk.): A mesterséges intelligencia szabályozási kihívásai: Tanulmányok a mesterséges intelligencia és a jog határterületeiről. Ludovika Egyetemi Kiadó, Budapest, 2021. 187-210. o.

[28] Rieke, Aaron - Bogen, Miranda - Robinson, David G.: Public scrutiny of automated decisions: Early lessons and emerging methods, Upturn and Omidyar Network. 2018. 19. o.

Lábjegyzetek:

[1] A szerző tudományos munkatárs, TTKJI, egyetemi adjunktus, BMGE Gazd.- és Társtud. Kar Üzleti Jogi Tanszék.

Tartalomjegyzék

Visszaugrás

Ugrás az oldal tetejére