A digitális technológiák - köztük az automatizált döntéshozatal - térnyerése a munka világában is megfigyelhető. Bár az ilyen döntések számos előnnyel járnak, szükséges áttekinteni, hogy milyen hatást gyakorolnak a munkavállalók jogaira - melyek közül a tanulmány az egyenlő bánásmódhoz való jogra fókuszál. A tanulmány célja megvizsgálni, hogy az automatizált döntéshozatal milyen kihívásokat okoz a munkahelyi egyenlő bánásmód területén és azokra milyen válaszok adhatók.
Kulcsszavak: digitális diszkrimináció, automatizált döntéshozatal, munkajog, egyenlő bánásmódhoz való jog
The rise of digital technologies, including automated decision-making, can also be observed in the world of work. Although such decisions have several advantages, it is necessary to review the impact they have on the employees' rights - among which the article focuses on the right to equal treatment. The objective of the article is to examine the challenges relating to automated decision-making in the field of equal treatment at work and the answers that can be given to them.
Keywords: digital discrimination, automated decision-making, labour law, right to equal treatment
https://doi.org/10.32980/MJSz.2023.2.103
- 103/104 -
A digitalizáció térnyerése a munka világára is jelentős hatást gyakorol.[1] Legyen szó akár otthonról történő munkavégzésről, akár algoritmizált menedzsmentről, a digitális és információs kommunikációs technológiák alkalmazása egyre inkább megkerülhetetlenné válik. A digitális technológiák a munkahelyi döntéshozatalt is egyre inkább átszövik. A téma aktualitását az adja, hogy napjainkban lehetővé válik, hogy ezeket a döntéseket ne egy humán döntéshozó, hanem egy automatizált döntéshozatali rendszer hozza meg. Bár az ilyen döntéshozatal számos előnnyel járhat, úgy, mint felgyorsítja a döntési folyamatokat és kiszűri a szubjektív döntéshozói tényezőt,[2] a munkavállalók jogaira is jelentős hatást gyakorol. Ezen jogosultságok közül[3] a tanulmány a munkavállalók (leendő munkavállalók) egyenlő bánásmódhoz való jogára helyezi a fókuszt.
A munkavégzés, a munkahely központi szerepet tölt be az egyének életében: a munkavállalók nemcsak jelentős időt töltenek a munkahelyükön, de a megélhetés, illetve a (szakmai) önbecsülés terén is kiemelt jelentőségű, hogy milyen munkahelyen milyen tevékenységet látnak el. Éppen ezért kiemelten fontos, hogy a munkavégzéssel kapcsolatos döntések, legyen szó akár munkához jutásról, elbocsátásról, vagy éppen egy előléptetésről, jogszerűek legyenek, és a munkavállaló képességein, ne pedig - indokolatlanul - a védett tulajdonságain alapuljanak. Bár a diszkrimináció tilalmát garantáló nemzetközi és hazai jogi normák nem újkeletűek, az automatizált döntéshozatal, valamint a digitális diszkrimináció új intenzitással vetik fel a munkahelyi egyenlő bánásmód kérdését.
A tanulmány célja hozzájárulni a téma tudományos feldolgozásához és a diskurzus erősítéséhez, azonosítva a munka világában az egyenlő bánásmóddal és az automatizált döntéshozatallal kapcsolatos legsarkalatosabb kérdéseket, és a rájuk adható megoldási javaslatokat. A technológiai fejlesztésekkel párhuzamosan a téma jogi szempontból történő elemzésére és vizsgálatára is szükség van annak érdekében, hogy megfelelően lehessen biztosítani az egyének (munkavállalók,
- 104/105 -
leendő munkavállalók) egyenlő bánásmódhoz való jogát. A tanulmány az alapvető fogalmi kérdések tisztázást követően számba veszi a felmerülő kihívásokat és a rájuk adható lehetséges megoldásokat. A tanulmány a dokumentumelemzés módszerére támaszkodva, a vonatkozó szakirodalmat és jogforrásokat dolgozza fel.
A munkáltatói döntéshozatal - mely a munkáltatót megillető jogkörökből következik[4] - alapvetően hatja át a munkaviszony egészét, kezdve a munkaerőfelvételről szóló döntéssel, a feladatok kiosztásán és előléptetéseken át egészen a munkaviszony megszüntetéséig, hogy csak egy pár példát említsünk. A döntések meghozatalakor a munkáltatónak több jogi korlátra is figyelemmel kell lennie: ide tartozik a magánélet tiszteletben tartásához való jog, a személyes adatok védelméhez való jog, de a tanulmány vizsgálati fókuszában lévő egyenlő bánásmódhoz való jog is. Ugyan ezen jogterületek által meghatározott szabályok a humán döntéshozatal során is irányadóak, az automatizált döntéshozatal új intenzitással veti fel a munkavállalói jogok hatékony érvényesülésének kérdését. Mielőtt azonban a lehetséges kihívások és megoldások tárgyalására rátérnénk, szükséges tisztázni a témával kapcsolatos alapvető fogalmakat.
1.1. Automatizált döntéshozatal. Automatizált döntéshozatallal rendszeresen lehet találkozni a mindennapokban: legyen szó akár egy spam szűrőről, egy személyre szabott online hirdetés megjelenítéséről, vagy egy streaming szolgáltató által javasol filmről.[5] Az említettekhez hasonló rendszerek működése az adatokon alapszik: a 21. század adatalapú szolgáltatásainak növekedésével fokozott érdek fűződik az adatokat kezelő rendszerek jogszerű és igazságos működésének a biztosításához.[6]
Automatizált döntéshozatal esetében a rendszer technológiai eszközök segítségével, emberi beavatkozás nélkül hozza meg a döntést.[7] Az automatizált döntéshozatali rendszerek működése algoritmusokon[8] alapszik, melyek
- 105/106 -
automatikusan végrehajtják a döntési modelleket vagy döntési útvonalakat.[9] Az algoritmus lehet szabályalapú ("rule-based') vagy tanuló ("learning') algoritmus.[10] Míg a szabályalapú algoritmus esetében az emberek kifejezetten beprogramozzák az algoritmus által végrehajtott műveletek szabályait és utasításait, a tanuló algoritmus két fázisban oldja meg a feladatot. Az első fázisban az algoritmus olyan szabályokat próbál "megtanulni" a meglévő adatokból, amelyek a kívánt eredményre mutatnak. A második fázisban az algoritmus ezeket a tanult szabályokat alkalmazza, hogy döntéseket hozzon azonos típusú, de ismeretlen adatokkal kapcsolatban. A gépi tanuláshoz is tanuló algoritmusokat alkalmaznak.[11],[12] A gépi tanulás pedig a mesterséges intelligencia egyik ága.[13] Fentiek alapján automatizált döntéshozatalnak minősül az ember által megadott szabályok puszta automatikus végrehajtása, de a (némi) autonómiával rendelkező, mesterséges intelligencián alapuló rendszerek is. A továbbiakban a tanulmány egységesen az automatizált döntéshozatal kifejezést alkalmazza, tekintet nélkül a döntéshozatal során alkalmazott technológiára.
A munkáltatói döntések automatizált döntéshozatali rendszerre történő "kiszervezése" több lényeges kérdést vet fel, melyet szükséges érintenünk. Egyrészt felvetődik az a kérdés, hogy a mesterséges intelligencia döntéshozatallal összefüggésben történő felhasználása a munkáltatói jogkörrel összefüggő döntések meghozatalának átruházást jelenti, vagy a mesterséges intelligencia "csupán" segíti a humán munkáltatót a döntéshozatalban? E tekintetben szükséges egymástól elkülöníteni a (teljesen) automatizált döntéshozatalt, valamint az ún. támogatott döntéshozatalt. Míg az automatizált döntéshozó rendszer a humán döntéshozó helyett, az ő közvetlen közreműködése nélkül hozza meg az adott döntést, addig a támogatott döntéshozatali rendszer csupán kiegészíti, segíti a végleges döntés megszületését - melyet végső soron a humán döntéshozó hoz meg.[14] Az egyenlő bánásmód érvényesülése terén sok kockázat hasonló a teljesen és részben automatizált döntések esetében: a humán döntéshozók ugyanis rendszerint a gépi
- 106/107 -
ajánlásoknak megfelelően döntenek, akár mert a gép tévedhetetlennek tűnik,[15] akár mert a saját felelősségüket próbálják csökkenteni.[16] Másrészt komoly kérdések vetődnek fel a mesterséges intelligencia alapú automatizált döntéshozatali rendszerek jogalanyisága kapcsán. Milyen mértékben vonhatja be a munkáltató ezen rendszereket a döntéshozatalba? Átruházható-e egy gépre a munkáltatót megillető döntéshozatal? (Munka)jogi értelemben lehet-e munkáltató a mesterséges intelligencia?[17]
Az automatizált döntéshozatal munka világában történő alkalmazása sokrétű lehet, kezdve a toborzás és kiválasztás területével, a teljesítménymérésen és -értékelésen át a munkahelyi karrierutak tervezéséig, hogy csak egy pár példát említsünk.[18] Jelenleg a teljes mértékben automatizált (mesterséges intelligencia alapú) döntéshozatal (még?) jellemzően nem elterjedt, a gyakorlatban inkább a támogatott döntéshozatal alkalmazása a jellemzőbb, azaz a végső döntést rendszerint a humán döntéshozó mondja ki.[19] Mindazonáltal szükséges a téma vizsgálata, egyrészt a támogatott döntéshozatallal kapcsolatban fent kifejtettekre tekintettel; másrészt mivel a kérdés gyakorlati jelentősége várhatóan növekedni fog a technológiai fejlődés következtében.
1.2. Egyenlő bánásmódhoz való jog. Az egyenlő bánásmódhoz való jog alapvető emberi jog, melyet mind nemzetközi emberi jogi egyezmények ,[20] mind pedig a hazai
- 107/108 -
jogrendszer[21] biztosít. Az egyenlőségből az következik, hogy az egymással összehasonlítható helyzetben lévő személyeket egyformán, az egymástól eltérő helyzetben lévő személyeket pedig különbözően kezelje a jog.[22] Az egyenlő bánásmódhoz való jog - vagy másik aspektusból megközelítve: a hátrányos megkülönböztetés tilalma - értelmében nem tehető indokolatlan különbség az egyének között az úgynevezett védett tulajdonságaik alapján. A védett tulajdonságok rendszerint szorosan kapcsolódnak az egyén személyiségéhez, annak lényegi vonását képezik, általában nehezen megváltoztathatók és csoportképzésre alkalmasak, sztereotípiák, előítéletek alapjául szolgálhatnak.[23] Rendszerint ilyen - a jogi egyezmények által is nevesített - tulajdonságnak minősül többek között a nem, a bőrszín, a vallás, a szexuális irányultság, stb.[24]
Fontos hangsúlyozni, hogy nem valamennyi különbségtétel tiltott, hanem az olyan megkülönböztetés, mely önkényes, azaz "nincs tárgyilagos mérlegelés szerint ésszerű indoka".[25] Az egyenlő (nem egyforma!) bánásmódhoz való jog szoros kapcsolatban áll az emberi méltósághoz való joggal: az Alkotmánybíróság szerint "[a] megkülönböztetés tilalma arra vonatkozik, hogy a jognak mindenkit egyenlőként (egyenlő méltóságú személyként) kell kezelnie, azaz az emberi méltóság alapjogán nem eshet csorba, azonos tisztelettel és körültekintéssel, az egyéni szempontok azonos mértékű figyelembevételével kell a jogosultságok és a kedvezmények elosztásának szempontjait meghatározni."[26]
Az egyenlő bánásmódnak kiemelt területe a foglalkoztatás, alapvető követelményként előírva az egyenlő bánásmód munka világában - így a munkáltatói döntéshozatal során - történő érvényesülését. Garanciális jelentőségű, hogy az egyének - jövedelemszerző és az önbecsülés terén is jelentős szerepet betöltő -munkavállalási lehetőségeit ne önkényes és jogszerűtlen különbségtétel határozza meg. Az egyenlő bánásmódnak a munka világában történő érvényesülését kimondó nemzetközi normák közül megemlítendő az ILO 111. számú egyezménye a foglalkoztatásból és a foglalkozásból eredő hátrányos megkülönböztetésről, melyet Magyarország a 2000. évi LX. törvénnyel hirdetett ki. Az EU munka világát érintő normái közül két irányelv emelendő ki,[27] továbbá a 2017-ben elfogadott Szociális
- 108/109 -
Jogok Európai Pillére, melynek első fejezete az "Esélyegyenlőség és munkavállalási jog" címet viseli.[28] A hazai normák közül az egyenlő bánásmódról és az esélyegyenlőség előmozdításáról szóló 2003. évi CXXV. törvény III. fejezete - mely az egyelő bánásmód egyes kiemelt területeit nevesíti - külön szabályozza a foglalkoztatás terén felmerülő egyenlőségi kérdéseket.[29] A 2012. évi I. törvény a Munka Törvénykönyvéről (a továbbiakban: Mt.) 12. § is kimondja az egyenlő bánásmód követelményét, különös tekintettel a munka díjazására.
Bár az egyenlő bánásmódhoz való jog - ahogy azt a hivatkozott jogi egyezmények is jelzik - igen hosszú múltra tekint vissza, a társadalomban bekövetkező változások ezt a jogterületet sem hagyják érintetlenül, szükségessé téve az egyenlő bánásmóddal kapcsolatos jogvédelem hatékony biztosításának folyamatos figyelemmel kísérését. A technológiai fejlődés és a növekvő digitalizáció teret ad az egyenlő bánásmód megsértésének egyik újabb alkategóriájának: a digitális diszkriminációnak.
A digitális diszkrimináció értelmezhető "a diszkrimináció egyik formája[ként], amelyben az algoritmusok által meghozott automatizált döntések - amelyek egyre inkább a mesterséges intelligencia technikáin, például a gépi tanuláson alapulnak -, tisztességtelenül, etikátlanul vagy éppen eltérően kezelik a felhasználókat személyes adataik (például jövedelem, iskolai végzettség, nem, életkor, etnikai hovatartozás, vallási nézetek) alapján."[30] Bár a "hagyományos" döntéshozatal során is felmerülhetett az egyenlő bánásmód megsértésének kérdése - ahogy azt többek között az egykori Egyenlő Bánásmód Hatósághoz, jelenleg pedig az Alapvető Jogok Biztosához benyújtott kérelmek is alátámasztják -, az automatizált döntéshozatal új intenzitással veti fel az egyenlő bánásmód érvényesülésének a kérdését.
A humán döntéshozatalt átitató szubjektivitás, előítéletek és sztereotípiák - melyek gyakran nyújtanak alapot a megkülönböztetésnek -, első ránézésre hiányoznak a kiszámítható, matematikai szabályokon nyugvó, algoritmusok által működtetett döntéshozatalnál. Ugyanakkor az emberi tényezőt a gépi döntéshozatal esetében sem lehet figyelmen kívül hagyni: az automatizált döntéshozatali rendszerek ugyanis adatokon nyugszanak, ezek az adatok pedig az emberek, emberi társadalmak által
- 109/110 -
létrehozott adatbázisokból származnak, azokat emberek gyűjtik be, és az algoritmusokat is emberek programozzák.[31] A továbbiakban a tanulmány azt tekinti át, hogy miként jelenhet meg a diszkrimináció az automatizált döntéshozatal esetén, majd azonosítja azokat a legfontosabb kihívásokat és megoldási javaslatokat, melyek megkerülhetetlenek a jogszerűen működő és a társadalom javát szolgáló automatizált döntéshozatali rendszerek kiépítésekor.
2.1. A digitális diszkrimináció egyes megjelenési formái. A digitális diszkriminációnak több lehetséges megjelenési formája van.[32] Mindenekelőtt szükséges leszögezni, hogy digitális diszkrimináció nem csak szándékosan valósulhat meg. A szándékostól (pl.: úgy programozzák az algoritmust, hogy a női jelentkezőket automatikusan utasítsa el) eltérően a nem szándékos diszkrimináció szintén jogszabályba ütközik, viszont a hagyományos, humán döntéshozatalhoz képest sokkal könnyebben rejtve marad a külső szemlélő előtt.
A szakirodalom ezt a jelenséget nevezi fekete doboznak ("black box"). A "fekete doboz" esetében a rendszer bemenete, kimenete és az átviteli jellemzői ismertek, ugyanakkor a belső működés pontos szabályai rejtve maradnak a külső szemlélő előtt, így nem lehet megállapítani, hogy az algoritmus pontosan miért jutott az adott eredményre.[33] Mindez nem csak a jogérvényesítést nehezíti meg - ld. bővebben a következő alcímet -, hanem a jogsértés felismerhetetlenségének köszönhetően a fejlesztők jogkövető magatartása elé is akadályokat gördíthet.
A digitális diszkrimináció egyik lehetséges esete, ha az egyébként megfelelően működő algoritmust "rossz" adatokon tanítják:[34] ebben az esetben lényegében - nem feltétlenül szándékosan - arra kérik az algoritmust, hogy reprodukálja ezt az eleve diszkriminatív döntést. Maga a mintavételi eljárás is lehet elfogult, amennyiben egyes csoportok indokolatlanul alulreprezentáltak az adathalmazban, ezáltal indokolatlan hátrányt okozva az érintett csoportnak.[35] Példaként említhető az Amazon által alkalmazott automatizált kiválasztási rendszer. Az Amazon 2014-ben kezdett el azon dolgozni, hogy automatizálja a munkaerő kiválasztást. Egy év elteltével azonban a projektet leállították, ugyanis kiderült, hogy a rendszer
- 110/111 -
diszkriminálja a nőket a műszaki állások (pl. szoftvermérnök) terén. Ennek részben az volt az oka, hogy a tanító adatbázis ("training data") a már a vállalatnál sikeresen alkalmazott személyek önéletrajzaiból állt, azaz a gépi tanulási modellt a korábban sikeres álláspályázók adathalmazán képezték ki: a már ott dolgozó szoftvermérnökök döntő többsége pedig férfi volt, így nem meglepő, hogy az algoritmus levonta azt a következtetést, hogy neki is férfi jelentkezőket kell kiválasztania.[36]
A másik lehetséges esetben nem a rendszer működése alapjául szolgáló adatokkal kapcsolatos a probléma, hanem magának az algoritmusnak a működése okozhat hátrányt egyes védett tulajdonsággal rendelkező személyek számára.[37] Az autonómiával rendelkező döntéshozatali rendszerek esetében lehetetlen teljes bizonyossággal megmondani, hogy az algoritmus pontosan mi alapján, hogyan hozza meg a döntését. Ez azzal járhat, hogy még amennyiben az algoritmust úgy is programozzák be, hogy bizonyos védett tulajdonságot hagyjon figyelmen kívül, a gépi tanulás során előfordulhat, hogy azt egy másik, "közvetett" tulajdonsággal ("proxy") fogja helyettesíteni.[38] Példaként említhető, hogyha a rendszer a munkahely és a lakóhely közötti távolságot figyelembe veszi a döntésnél, a lakóhely akár a bőrszín helyettesítőjeként szolgálhat, amennyiben a külvárosban lakók között felülreprezentáltak meghatározott bőrszínű (azaz: védett tulajdonsággal rendelkező) személyek.[39]
2.2. Kihívások az automatizált döntéshozatal munka világában történő alkalmazása esetén. A digitális diszkrimináció azonosításán és kiküszöbölésén túl gyakran a jogérvényesítés is fokozott nehézségekbe ütközik az emberi döntéshozatal során megvalósított diszkriminációhoz képest. A jogérvényesítésnek előfeltétele, hogy külső harmadik személyek - különös tekintettel az érintett egyénre - tudomással bírjanak az automatizált döntéshozatal tényéről - kiemelt jelentőségűvé téve a tájékoztatás elvét. Ugyan az egyenlő bánásmóddal kapcsolatos jogszabályok nem írnak elő a munkáltató számára kifejezett tájékoztatási kötelezettséget a döntéshozatal során alkalmazott módszerek tekintetében, az egyéb jogszabályi kötelezettségekből levezethető, hogy a munkáltatónak tájékoztatnia kell az érintett jelentkezőt, munkavállalót, ha automatizált döntéshozatalt alkalmaz. Ide tartoznak különösen az adatvédelmi jogszabályok, melyek közül kiemelendő az Európai Unió általános adatvédelmi rendelete (GDPR),[40] amely kifejezetten rendelkezik az átlátható adatkezelés követelményéről és az érintettek (adatalanyok) részletes
- 111/112 -
tájékoztatásáról.[41] Az egyedi ügyekben alkalmazott automatizált döntéshozatalról, illetve a profilalkotásról szóló 22. cikkel összefüggésben a GDPR kifejezetten előírja az érintett tájékoztatását az ilyen döntéshozatal tényéről, valamint az alkalmazott logikáról, arról, hogy az ilyen adatkezelés milyen jelentőséggel bír, és az érintettre nézve milyen várható következményekkel jár.[42] Az adatvédelmi jogszabályokon túlmenően az Mt. az általános magatartási követelmények között rendelkezik a tájékoztatás és együttműködés kötelezettségéről [6. § (2), (4)], illetve több tekintetben [pl.: személyiségi jogok korlátozása - 9. § (2), adatkezelés 10. § (5)] nevesíti a munkáltató tájékoztatási kötelezettségét. A tájékoztatás és átláthatóság az egyenlő bánásmód terén is garanciális jelentőségű - az automatizált döntéshozatalról való tudomásszerzés előfeltétele annak, hogy az egyén éljen a jogérvényesítési eszközeivel, az illetékes szervek pedig tudomást szerezzenek az egyenlő bánásmódot potenciálisan sértő helyzetekről.
A hatékony jogérvényesítéshez ugyanakkor nem elég az automatizált döntéshozatalról történő puszta tudomásszerzés: a jogsértés felismerése, illetve annak bizonyítása (pontosabban valószínűsítése) is szükséges.[43] A jogsértés felismerését nehezíti (mind az egyén, mind pedig a bíróságok és hatóságok részéről), hogy az automatizált döntéshozatal során megvalósuló diszkrimináció sokkal kifinomultabb, nehezebben észlelhető és az is előfordulhat, hogy az igazságszolgáltatási és hatósági gyakorlat még nem dolgozott ki bevett módszereket ezen "új típusú" diszkrimináció azonosítására és értékelésére.[44] Ugyanis míg egyes "hagyományos" "proxy-k" rögtön megkongatják a vészharangot (pl.: a jövedelmi szint indikátora lehet a nemnek), addig nem ismert, hogy van-e és ha igen, milyen kapcsolat egyes egyéb tulajdonságok (pl.: böngészési tevékenység) és védett tulajdonságok között, így korántsem biztos, hogy a fejlesztők, bíróságok, hatóságok érzékelni képesek a diszkriminációt.[45]
Az automatizált döntéshozatal átláthatatlansága, megmagyarázhatatlansága, a "fekete doboz" jelenség gyakran nehezíti mind a jogsértés felismerését, mind pedig annak valószínűsítését, bizonyítását.[46] Ez az átláthatatlanság több okra vezethető vissza: egyrészt az érintett műszaki szakértelmének hiányára (bár az is elképzelhető, hogy még az algoritmus fejlesztője sincs tökéletesen tisztában a rendszer pontos
- 112/113 -
belső működésével - ld. a már említett "fekete doboz" jelenséget), másrészt pedig a rendszer működéséhez kötődő üzleti, vagy akár államtitkok megtartásához fűződő érdekre.[47] Amennyiben nem átlátható, hogy a rendszer miért jutott az adott döntésre, milyen tényezőket vett figyelembe, az hozzájárulhat a diszkrimináció rejtve maradásához, illetőleg tovább nehezíti, adott esetben ellehetetleníti a bizonyítás terén eleve hátrányos helyzetben lévő egyének valószínűsítési esélyeit.[48] A döntés átláthatatlansága továbbá megnehezítheti a fejlesztők és munkáltatók jogkövető magatartásának megvalósítását, illetve a felügyeleti szervek, hatóságok hatékony vizsgálatát.[49]
Végezetül, amint arra Mélypataki Gábor - némileg eltérő kontextusban - felhívja a figyelmet, az Mt. által garantált méltányos mérlegelés általános magatartási követelménye is fokozott jelentőséghez juthat az automatizált döntéshozatal során.[50] Az elv szerint a munkáltató a munkavállaló érdekeit a méltányos mérlegelés alapján köteles figyelembe venni, a teljesítés módjának egyoldalú meghatározása a munkavállalónak aránytalan sérelmet nem okozhat.[51] Ezzel a jogszabály lényegében azt a kötelezettséget rója a munkáltatóra, hogy az írott jogon kívüli szempontokra is legyen tekintettel egyes meghatározott döntései meghozatalakor.[52] Ilyen szempontnak minősülhetnek például az adott munkavállaló családi vagy személyes körülményei. Az elv érvényre jutása megkérdőjeleződhet az automatizált döntéshozatal alkalmazása esetében. Kérdésként merülhet fel ugyanis, hogy egy gépi döntéshozatal - mely alapvetően a megadott szabályok, programok precíz végrehajtásán alapszik - mennyiben képes (ha képes) figyelembe venni egyedi, mérlegelést szükségessé tevő emberi szempontokat, körülményeket. A méltányos mérlegelés elvén túl az emberi, adott esetben az érzelmeknek is teret adó szempontoknak a kiválasztás során is szerep juthat: a munkaviszony tartós, bizalmi jellegéből eredően a jelentkező személye, az iránta érzett személyes szimpátia is jelentőséggel bírhat.
2.3. Lehetséges megoldások. Az automatizált döntéshozatalban rejlő lehetőségek kiaknázásához mindenféleképpen szükséges a digitális diszkriminációval kapcsolatos kihívások azonosítása, és azok megfelelő - az egyenlő bánásmódhoz való jogot hatékonyan érvényre juttató - megoldása. Az ilyen automatizált rendszerek ugyanis forradalmasítják a döntéshozatalt, új intenzitással vetve fel a (munkahelyi) egyenlő bánásmód hatékony érvényesülésének a kérdését. Különös kérdéseket vet fel a fentiekben is tárgyalt felismerhetőség kérdése, valamint a
- 113/114 -
"fekete doboz" jelenség. Tekintettel arra, hogy az automatizált döntéshozatali rendszerek szabályozásához, valamint működésének ellenőrzéséhez elengedhetetlen az érintett technológia ismerete, így elengedhetetlen a jogtudomány, valamint informatikatudomány közötti szinergia. Szükséges a jogalkotók és jogalkalmazók tudatosságának növelése, mivel a jogi szereplők csak megfelelő technológiai ismeret birtokában tudnak hatékony szabályokat alkotni, jogvédelmi tevékenységet folytatni. Ezzel párhuzamosan az automatizált döntéshozatali rendszerek tervezőitől is elvárt az alapvető jogi szabályok ismerete és a rendszerek megalkotása és fejlesztése során azok megfelelő figyelembe vétele.[53]
Szükséges továbbá magának az egyenlő bánásmódhoz való jogot garantáló jogszabályi rendszernek a felülvizsgálatára, annak érdekében, hogy az egyének jogvédelme az újabb technológiai innovációk esetében is hatékonyan biztosítva legyen. Rendszerint ide tartozik az átláthatóság és/vagy az elszámoltathatóság elvének a megerősítése,[54] a védett tulajdonságok és azok "helyettesítőinek" felülvizsgálata,[55] vagy a valószínűsítésre és bizonyításra vonatkozó szabályok újragondolása.[56]
Az egyenlő bánásmód tiszteletben tartásával kapcsolatos jogszabályokon túlmenően egyéb jogterületek szabályainak alkalmazása is felmerülhet az automatizált döntéshozatallal összefüggésben. Példaként említhető a társadalmi-technológiai változások következtében megreformált adatvédelmi jog - mely az EU-n belül többek között a GDPR-ban ölt testet -, mely igyekszik lépést tartani a legújabb innovációkkal. Az átláthatóság követelménye, az adatvédelmi hatóságok magas összegű bírságkiszabási jogköre, valamint egyéb "általános" adatvédelmi követelmények is hatékony eszközök lehetnek a munkavállalói jogok védelmének - akár az egyenlő bánásmódhoz való jogot illetően is.[57] A GDPR 22. cikke pedig - ugyan adatvédelmi aspektusból - de kifejezetten az automatizált döntéshozatali rendszerekkel kapcsolatos követelményeket fogalmaz meg.[58] Az adatvédelmi jogon
- 114/115 -
túlmenően a mesterséges intelligenciára vonatkozó, jelenleg jogalkotási folyamat alatt álló EU-s jogszabálytervezetek (pl.: mesterséges intelligencia rendelet tervezet,[59] mesterséges intelligencia felelősségi irányelv tervezet[60]) határoznak meg további követelményeket a - mesterséges intelligenciát alkalmazó - automatizált döntéshozatali rendszerekkel szemben.[61]
Az automatizált döntéshozatali rendszerekben számos alkalmazási lehetőség rejlik, melyek közül a tanulmány a munka világában felmerülő, az egyenlő bánásmód érvényesüléséhez kötődő kérdéseket vizsgálta. Ugyanis az ilyen rendszerek alkalmazása során felmerülő digitális diszkrimináció újabb kihívásokat és kérdéseket vet fel az egyenlő bánásmód hatékony érvényesülése kapcsán. Az alapvető fogalmak tisztázását követően a tanulmány ezeket a kihívásokat elemezte. Hangsúlyosan foglalkozott az átláthatóság kérdésével (rendszerek alkalmazása, döntés meghozatalának folyamata), illetve a digitális diszkrimináció külső szemlélő számára rejtve maradásának problematikájával. Végezetül a lehetséges megoldási útvonalakat azonosította, melyek közül az egyenlő bánásmódhoz való jogra vonatkozó szabályok modernizálása mellett jelentős szerepet tulajdonított az egyes tudomány- és jogterületek közötti szinergia megvalósításának.
- ACLU: Why Amazon's Automated Hiring Tool Discriminated Against Women, 2018. Elérhető: https://www.aclu.org/news/womens-rights/why-amazons-automated-hiring-tool-discriminated-against (Letöltés ideje: 2023. 05. 09.)
- Algorithm Watch: Automated Decision-Making Systems and Discrimination. Understanding causes, recognizing cases, supporting those affected - A guidebook for anti-discrimination counseling, (2022) Elérhető: https://algorithmwatch.org/en/wp-content/uploads/2022/06/AutoCheck-Guidebook_ADM_Discrimination_EN-AlgorithmWatch_June_2022.pdf (Letöltés ideje: 2023. 05. 09.)
- 115/116 -
- Angela Perera: Artificial Intelligence in HR: Using AI for identifying and hiring suitable candidates (2022) Elérhető: https://www.businesstechweekly.com/hr-and-recruitment/artificial-intelligence-ai-for-hiring/ (Letöltve: 2023. 01. 26.)
- Aurelia Tamó-Larrieux: Decision-making by machines: Is the 'Law of Everything' enough? Computer Law & Security Review, 41 (2021) (https://doi.org/10.1016/j.clsr.2021.105541)
- Claude Castelluccia - Daniel Le Métayer: Understanding algorithmic decisionmaking: Opportunities and challenges, European Parliamentary Research Service, Scientific Foresight Unit (STOA), PE 624.261 (2019)
- Council of Europe: Artificial Intelligence - Glossary. Elérhető: https://www.coe.int/en/web/artificial-intelligence/glossary# (Letöltés ideje: 2023. 05. 09.)
- Eszteri Dániel: Hogyan tanítsuk jogszerűen a mesterséges intelligenciánkat? Magyar Jog, 66 (2019) 12., 669-682. o.
- Európai Bizottság: Liability Rules for Artificial Intelligence. Elérhető: https://commission.europa.eu/business-economy-euro/doing-business-eu/contract-rules/digital-contracts/liability-rules-artificial-intelligence_hu (Letöltés ideje: 2023. 05. 09.)
- Frederik J. Zuiderveen Borgesius: Strengthening legal protection against discrimination by algorithms and artificial intelligence, The International Journal of Human Rights, 24 (2020) 10., 1572-1593. o. (https://doi.org/10.1080/13642987.2020.1743976)
- Frederik Zuiderveen Borgesius: Discrimination, Artificial Intelligence and Algorithmic Decision-making, Directorate General of Democracy, Council of Europe, 2018
- G. Karácsony Gergely: A mesterséges intelligencia által támogatott munkáltatói döntéshozatal adatvédelmi kérdései, Erdélyi Jogélet (2020) 4., 29-37. o. (https://doi.org/10.47745/EPJOG.2020.04.03)
- Halmai Gábor - Tóth Gábor Attila: Emberi jogok, Budapest, Osiris, 2008.
- Markus Langer - Richard N. Landers: The future of artificial intelligence at work: A review on effects of decision automation and augmentation on workers targeted by algorithms and third-party observers, Computers in Human Behavior 123 (2021) (https://doi.org/10.1016/j.chb.2021.106878)
- Marvin van Bekkum - Frederik Zuiderveen Borgesius: Using sensitive data to prevent discrimination by artificial intelligence: Does the GDPR need a new exception? Computer Law & Security Review, 48 (2022) (https://doi.org/10.2139/ssrn.4104823)
- Mélypataki Gábor: Effects of Artificial Intelligence on Labour Law and Labour Market: Can AI Be a Boss? European Integration Studies (2019) 15:1, 69-80. o.
- Mélypataki Gábor: A munka digitalizálódása a munkajogi alapelvek tükrében, Miskolci Jogi Szemle, (2020) 3., 97-104. o.
- Mezei Kitti: Diszkrimináció az algoritmusok korában, Magyar Jog, 69 (2022) 6., 331-338. o.
- Michael Veale - Frederik Zuiderveen Borgesius: Demystifying the Draft EU Artificial Intelligence Act - Analysing the good, the bad, and the unclear elements of the proposed approach, Computer Law Review International, (2021) 4., 97-112. o. (https://doi.org/10.9785/cri-2021-220402)
- 116/117 -
- Nádas György: A méltányos mérlegelés elvének aktuális kérdései, Miskolci Jogi Szemle, 17 (2022) 2., 281-289. o. (https://doi.org/10.32980/MJSz.2022.2.2018)
- Natalia Criado - Jose M. Such: Digital discrimination (2019) Elérhető: https://www.researchgate.net/publication/336792693_Digital_Discrimination (Letöltés ideje: 2023. 05. 09.)
- Philipp Hacker: Teaching Fairness to Artificial Intelligence: Existing and Novel Strategies against Algorithmic Discrimination under EU Law (2018) Elérhető: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3164973 (Letöltés ideje: 2023. 05. 09.)
- Rácz Ildikó: Platform munkavégzés Magyarországon Munkajogi és egyéb jogági dilemmák. Magyar Munkajog, E-folyóirat (2021) 1, 1-15. o.
- Riczu Zsófia: A munkajogi jogalanyiság kérdései - platformmunkavégzés és az MI jogalanyisága, Infokommunikáció és Jog (2022) 19:78, 3-7. o.
- Riczu Zsófia - Mélypataki Gábor - Máté Dávid Adrián: Concepts of Work: from Traditional Social-Labor Ideas to Modern Effects of Digital Transformation. The Journal of Digital Technologies and Law (2023) 1:1, 175-190. o
- Robin Allen - Dee Masters: Artificial Intelligence: the right to protection from discrimination caused by algorithms, machine learning and automated decisionmaking, Europäische Rechtsakademie (ERA) 2019, 585-598. o. (https://doi.org/10.1007/sl2027-019-00582-w)
- Ságvári Bence: Diszkrimináció, átláthatóság és ellenőrizhetőség. Bevezetés az algoritmusetikába, Replika, (2017) 3., 61-79. o.
- Sandra Wachter - Brent Mittelstadt - Chris Russell: Why fairness cannot be automated: Bridging the gap between EU non-discrimination law and AI, Computer Law & Security Review, 41 (2021) (https://doi.org/10.1016/j.clsr.2021.105567)
- Valerio De Stefano - Mathias Wouters: AI and Digital Tools in Workplace Management and Evaluation. An Assessment of the EU's Legal Framework, STOA, PE 729.516, 2022. Elérhető: https://www.europarl.europa.eu/RegData/etudes/STUD/2022/729516/EPRS_STU(2022)729516_EN.pdf (Letöltés ideje: 2023. 05. 09.) ■
JEGYZETEK
[1] Ez a hatás magában foglalja magának a munkának, illetve munkaviszony fogalmának változását és újradefiniálásának szükségességét, a jogviszonyok minősítése terén alkalmazott minősítő jegyek relevanciának változását is. [Riczu Zsófia - Mélypataki Gábor - Máté Dávid Adrián: Concepts of Work: from Traditional Social-Labor Ideas to Modern Effects of Digital Transformation. The Journal of Digital Technologies and Law (2023) 1:1, 178-180. o.] A jogviszonyok minősítése terén a platform munkavégzés vet fel különösen fontos kérdéseket. [Rácz Ildikó: Platform munkavégzés Magyarországon Munkajogi és egyéb jogági dilemmák. Magyar Munkajog, E-folyóirat (2021) 1, 3. o.] A platform munka - melyet a hagyományos munkaviszonyhoz képest fokozottan hat át az algoritmikus döntéshozatal, ennél fogva még specifikusabb esélyegyenlőségi kérdéseket vet fel - nem képezi tárgyát jelen tanulmánynak. A tanulmány - elismerve a digitalizáció munkajogra gyakorolt transzformatív hatását -a "hagyományos" munkaviszony és az ahhoz kötődő jelenleg hatályos fogalmak és alapintézmények elemzésére épül.
[2] Angela Perera: Artificial Intelligence in HR: Using AI for identifying and hiring suitable candidates (2022) Elérhető: https://www.businesstechweekly.com/hr-and-recruitment/artificial-intelligence-ai-for-hiring/ (Letöltve: 2023. 01. 26.)
[3] Mivel az automatizált döntések meghozatala személyes adatoknak a kezelésére épül, így - bár jelen tanulmánynak nem tárgya - megkerülhetetlen a személyes adatok védelmével kapcsolatos kérdések vizsgálata. Ld. bővebben: Eszteri Dániel: Hogyan tanítsuk jogszerűen a mesterséges intelligenciánkat? Magyar Jog, 66 (2019) 12., 669-682. o.
[4] A munkáltató ellenőrzési, irányítási, utasítás adási, valamint fegyelmezési jogkör hatékony gyakorlása elválaszthatatlan a munkáltatói döntések meghozatalától.
[5] Ilyen automatizált döntéshozatali rendszereket nem csak a verseny-, hanem a közszféra egyes területein is alkalmaznak. Példaként említhető az Egyesült Államok egyes részein alkalmazott, bűnelkövetők visszaesési valószínűség-számítására használt COMPAS ("Correctional Offender Management Profiling for Alternative Sanctions") rendszer - melynek diszkriminatív aspektusaira egy kutatás már rávilágított. Ld. bővebben: Mezei Kitti: Diszkrimináció az algoritmusok korában, Magyar Jog, 69 (2022) 6., 333. o.
[6] Ságvári Bence: Diszkrimináció, átláthatóság és ellenőrizhetőség. Bevezetés az algoritmusetikába, Replika, (2017) 3., 61-62. o.
[7] A 29. cikk szerinti Adatvédelmi Munkacsoport: Iránymutatás az automatizált döntéshozatallal és a profilalkotással kapcsolatban a 2016/679 rendelet alkalmazásához, WP251rev.01 (2017) 8. o.
[8] Az algoritmus nem más, mint "egy számítógép által helyesen értelmezhető megoldási útvonal, amely véges idő alatt kiszámítja a helyes megoldást a matematikai probléma által meghatározott minden lehetséges bemenetre." Forrás: Algorithm Watch: Automated Decision-Making Systems and Discrimination. Understanding causes, recognizing cases, supporting those affected - A guidebook for anti-discrimination counseling, (2022) 5. o. Elérhető: https://algorithmwatch.org/en/wp-content/uploads/2022/06/AutoCheck-Guidebook_ADM_Discrimination_EN-AlgorithmWatch_June_2022.pdf (Letöltés ideje: 2023. 05. 09.)
[9] Uo. 22. o.
[10] Uo. 5. o.
[11] Uo. 23. o.
[12] Eszteri: i.m. 671-672. o. Eszteri Dániel szerint a gépi tanulás lényege, hogy "a rendszer tapasztalatokból generál önálló tudást. A rendszer példa-adatok, minták alapján képes önállóan, vagy emberi segítséggel szabályszerűségeket, szabályokat felismerni és meghatározni, majd az elsajátított tudásbázisban felfedezett szabályszerűségek alapján döntéseket hozni[...]" A gépi tanulás egyik ága a mélytanulás, ami "neuronhálózatok alkalmazásán alapszik[...] [...] Az algoritmus itt is a beletáplált (múltbeli) mintázatok alapján próbálja meg előre jelezni a következő lehetséges értékeket, azonban a koncepció itt nem áll meg. A mélytanulást végző neuronhálózat több rétegű (általában már tanított) adatbázisból és rájuk épülő tanuló algoritmusokból épül fel. Ennek köszönhetően a rendszer absztrakciós készsége is növekszik a megoldásra váró feladatokkal kapcsolatban." Forrás: Uo. 671-672. o.
[13] Eszteri: i.m. 670. o. A mesterséges intelligencia többféleképp definiálható. Az Európa Tanács értelmezése szerint a mesterséges intelligencia "olyan tudományos eredmények, teóriák és technikák összessége, melyek képessé teszik a gépeket az ember kognitív képességeinek reprodukálására. A jelenlegi fejlesztések célja, hogy korábban ember által végzett, összetett gondolkodást igénylő feladatok elvégzését a gépek valósítsák meg." Council of Europe: Artificial Intelligence - Glossary. Elérhető: https://www.coe.int/en/web/artificial-intelligence/glossary# (Letöltés ideje: 2023. 05. 09.)
[14] Markus Langer - Richard N. Landers: The future of artificial intelligence at work: A review on effects of decision automation and augmentation on workers targeted by algorithms and third-party observers, Computers in Human Behiavior 123 (2021), 1. o.
[15] Ezt a jelenséget automatizációs elfogultságnak ("automation bias") nevezzük. A jelenség szerint az emberi döntéshozók túlzott mértékben támaszkodnak a gépi döntéshozatal eredményére: azt elfogadják, nem kérdőjelezik meg, még abban az esetben sem, ha az a saját meggyőződésükkel szemben áll, vagy ha azt hibásnak tartják. Forrás: G. Karácsony Gergely: A mesterséges intelligencia által támogatott munkáltatói döntéshozatal adatvédelmi kérdései, Erdélyi Jogélet (2020) 4., 34. o.
[16] Frederik J. Zuiderveen Borgesius: Strengthening legal protection against discrimination by algorithms and artificial intelligence, The International Journal of Human Rights, 24 (2020) 10., 1573-1574. o.
[17] A mesterséges intelligencia jogalanyiságával számos munkajogi témájú tanulmány foglalkozik, melyek ismertetik a lehetséges megközelítési irányvonalakat. A teljesség igénye nélkül, de kiemelendő Riczu Zsófia tanulmánya, mely a mesterséges intelligencia munkajogi jogalanyiságának kérdését vizsgálja részletesen, a munkaviszonnyal, illetve a platform munkavégzéssel összefüggésben [Riczu Zsófia: A munkajogi jogalanyiság kérdései - platformmunkavégzés és az MI jogalanyisága, Infokommunikáció és Jog (2022) 19: 78. 3-7. o.]; továbbá Jakab Nóra elemzése, mely az alapvető munkajogi fogalmak újragondolására hívja fel a figyelmet a robotikával összefüggésben, kitérve többek között a jogalanyiságra és felelősségi kérdésekre. [Jakab Nóra: Robotika és a jog - A robotika munkajogot érintő kapcsolódásai, különös tekintettel a munkavállalói jogalanyiságra II. Miskolci Jogi Szemle (2020) 15:2, 7-20. o.] Mélypataki Gábor pedig részletesen foglalkozott a mesterséges intelligencia "munkáltatói pozícióban" történő alkalmazásával, kitérve annak lehetséges technikai és jogi részleteire. A kutatás megállapította, hogy a jelenleg hatályos jogszabályok nem nyújtanak lehetőséget a mesterséges intelligencia munkáltatóként történő elismerésére, illetve további számos lényegi kérdést azonosított, melyeknek megválaszolására fokozott figyelmet kell fordítani a technológia fejlődésével párhuzamosan. [Mélypataki Gábor: Effects of Artificial Intelligence on Labour Law and Labour Market: Can AI Be a Boss? European Integration Studies (2019) 15: 1 69-80. o.]
[18] Arról, hogy a mesterséges intelligencia alapú döntéstámogató mechanizmusok miként képesek forradalmasítani a HR-területet, ld. bővebben: G. Karácsony: i.m. 30-32. o.
[19] Valerio De Stefano - Mathias Wouters: AI and Digital Tools in Workplace Management and Evaluation. An Assessment of the EU's Legal Framework, STOA, PE 729.516, 2022, 18. o. Elérhető: https://www.europarl.europa.eu/RegData/etudes/STUD/2022/729516/EPRS_STU(2022)729516_EN.pdf (Letöltés ideje: 2023. 05. 09.)
[20] Az egyenlőséget elismerő nemzetközi jogi normák közül kiemelendő az ENSZ Emberi Jogok Egyetemes Nyilatkozata (1948); az Európa Tanács égisze alatt elfogadott Emberi Jogok Európai Egyezményének Tizenkettedik Kiegészítő Jegyzőkönyve (2000), valamint az Európai Unió Alapjogi Kartájának (2000) 21. cikke.
[21] Hazánkban az Alaptörvény XV. cikke rendelkezik az egyenlő bánásmód tiszteletben tartásának alkotmányos követelményeiről; a 2013. évi V. törvény a Polgári Törvénykönyvről 2:43. § c) a személyiségi jogok keretében írja elő a hátrányos megkülönböztetés tilalmát; a 2003. évi CXXV. törvény az egyenlő bánásmódról és az esélyegyenlőség előmozdításáról (Ebktv.) pedig hazánk antidiszkriminációs törvényeként részletesen szabályozza az egyenlő bánásmód és az esélyegyenlőség érvényesülésének feltételeit.
[22] Halmai Gábor - Tóth Gábor Attila: Emberi jogok, Budapest, Osiris, 2008, 366. o.
[23] Az Egyenlő Bánásmód Tanácsadó Testület 288/2/2010. (IV.9.) TT. sz. állásfoglalása az egyéb helyzet meghatározásával kapcsolatban
[24] Az egyenlő bánásmódtól megkülönböztetendő az esélyegyenlőség, mely többlet intézkedésekkel (pl.: előnyben részesítés) hivatott a meghatározott szempontból hátrányos helyzetben lévő egyének számára biztosítani, hogy - leküzdve ezt az eleve fennálló hátrányt - valóban élni tudjanak az egyébként őket is egyenlően megillető jogokkal. Forrás: Halmai - Tóth: i.m. 366-367. o.
[25] 35/1994. (VI. 24.) AB határozat, ABH 1994. 197, 200.
[26] 9/1990. (IV. 25.) AB határozat, ABH 1990, 46, 48.
[27] Az Európai Parlament és a Tanács 2006/54/EK irányelve (2006. július 5.) a férfiak és nők közötti esélyegyenlőség és egyenlő bánásmód elvének a foglalkoztatás és munkavégzés területén történő megvalósításáról (HL L 204., 2006.07.26., 23. o.), valamint a Tanács 2000/78/EK irányelve (2000. november 27.) a foglalkoztatás és a munkavégzés során alkalmazott egyenlő bánásmód általános kereteinek létrehozásáról (HL L 303., 2000.12.02., 16. o.)
[28] A Szociális Jogok Európai Pillérének 2. alapelve az egyenlő bánásmód és az esélyegyelőség előmozdításának egyik "klasszikusnak" számító vetületével, a nemek közti egyenlőséggel foglalkozik, míg a 3. alapelv nemtől, faji és etnikai származástól, vallástól és meggyőződéstől, fogyatékosságtól, életkortól és szexuális irányultságtól függetlenül írja elő az egyenlő bánásmód követelményét.
[29] 2003. évi CXXV. törvény az egyenlő bánásmódról és az esélyegyenlőség előmozdításáról 21-23. §
[30] Natalia Criado - Jose M. Such: Digital discrimination (2019) 1. o. Elérhető: https://www.researchgate.net/publication/336792693_Digital_Discrimination (Letöltés ideje: 2023. 05. 09.)
[31] Ságvári: i.m. 66. o.
[32] Ságvári: i.m. 66-67. o.; Philipp Hacker: Teaching Fairness to Artificial Intelligence: Existing and Novel Strategies against Algorithmic Discrimination under EU Law (2018) 5-8. pp. Elérhető: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3164973 (Letöltés ideje: 2023. 05. 09.); Frederik Zuiderveen Borgesius: Discrimination, Artificial Intelligence and Algorithimic Decision-making, Directorate General of Democracy, Council of Europe, 2018, 15-23. o. Jelen tanulmány alapvetően a Ságvári által alkalmazott csoportosítás mentén mutatja be a digitális diszkrimináció lehetséges eseteit.
[33] Eszteri: i.m. 673. o. Ezzel ellentétben "fehér doboznak" ("white box") nevezik azokat a rendszereket, amelyek belső alkotórészeihez vagy logikájához biztosított a hozzáférés. Forrás: uo. 673. o.
[34] Ságvári: i.m. 66. o.
[35] Zuiderveen Borgesius: Discrimination, Artificial Intelligence, and Algorithmic Decision-Making, 18-19. pp. Zuiderveen Borgesius a tanulmányában azt a példát hozza, miszerint egy a felhasználói visszajelzéseken alapuló, a rossz útviszonyokat az önkormányzatnak továbbító alkalmazás hogyan járhat a szegényebb emberek diszkriminációjával. Ha a szegények között kevesebb az okostelefon-használó, mint a gazdagabb személyek között, akkor a szegények valószínűleg alulreprezentáltak lesznek az adatbázisban. Ez azzal a hatással járhat, hogy a szegényebb környékeken található hibás utakról kevesebb bejelentés érkezik, azok alulreprezentáltak az adatkészletben, következésképp ritkábban javítják meg őket.
[36] ACLU: Why Amazon's Automated Hiring Tool Discriminated Against Women, 2018. Elérhető: https://www.aclu.org/news/womens-rights/why-amazons-automated-hiring-tool-discriminated-against (Letöltés ideje: 2023. 05. 09.)
[37] Ságvári: i.m. 66. o.
[38] Robin Allen - Dee Masters: Artificial Intelligence: the right to protection from discrimination caused by algorithms, machine learning and automated decision-making, Europäische Rechtsakademie (ERA) 2019, 590. o.
[39] Ságvári: i.m. 72. o.
[40] Az Európai Parlament és a Tanács (EU) 2016/679 rendelete (2016. április 27.) a természetes személyeknek a személyes adatok kezelése tekintetében történő védelméről és az ilyen adatok szabad áramlásáról, valamint a 95/46/EK rendelet hatályon kívül helyezéséről (HL L 119., 2016.05.04., 1. o.) (a továbbiakban: GDPR)
[41] GDPR 5. cikk (1) a); 13-14. cikk
[42] GDPR 15. cikk (1) h)
[43] A bizonyítás terén felmerülő nehézségeken túl a döntéshozó felelősségéről is szükséges szót ejteni. A jogrendszerben már kimunkált felelősségi, illetve kimentési szabályok automatizált döntéshozatalra történő alkalmazása több gyakorlati kérdést is felvet. A már ismertetett jogalanyisággal kapcsolatos kérdéseken túl felmerül, hogy mennyiben tarthatók fent a polgári jogi és munkajogi kárfelelősségi szabályok a mesterséges intelligenciával összefüggésben? Hogyan oszlik meg az algoritmus és az azt programozó között a felelősség? Hogyan lehet szankcionálni az autonóm módon cselekvő mesterséges intelligenciát? (Mélypataki 2019: i. m. 78-79. o.; Riczu: i. m. 6. o.) Miként tudnak érvényesülni az egyenlő bánásmódhoz való jog terén ismert kimentési szabályok a gyakorlatban?
[44] Sandra Wachter - Brent Mittelstadt - Chris Russell: Why fairness cannot be automated: Bridging the gap between EU non-discrimination law and AI, Computer Law & Security Review, 41 (2021), 29. o.
[45] U.o. 29. o.
[46] Az EU-s és a hazai egyenlő bánásmód szabályozás a sérelmet szenvedett fél számára bizonyítás helyett valószínűsítési kötelezettséget, valamint fordított bizonyítási terhet ír elő, kompenzálva a bizonyítás terén eleve hátránnyal induló egyéneket. Ebktv. 19. §; 2006/54/EK irányelv 19. cikk; 2000/78/EK irányelv 10. cikk
[47] Zuiderveen Borgesius: Strengthening legal protection against discrimination by algorithms and artificial intelligence, 1577. o.
[48] Hacker: i.m. 22-23. o.
[49] A hasonló rendszerek jogszerű és átlátható működésével kapcsolatban megfogalmazott kihívásokról és lehetőségekről ld. bővebben: Claude Castelluccia - Daniel Le Métayer: Understanding algorithimic decision-making: Opportunities and challenges, European Parliamentary Research Service, Scientific Foresight Unit (STOA), PE 624.261 (2019)
[50] Mélypataki Gábor: A munka digitalizálódása a munkajogi alapelvek tükrében, Miskolci Jogi Szemle, (2020) 3., 102. o.
[51] Mt. 6. § (3)
[52] Nádas György: A méltányos mérlegelés elvének aktuális kérdései, Miskolci Jogi Szemle, 17 (2022) 2., 285. o.
[53] Aurelia Tamó-Larrieux: Decision-making by machines: Is the 'Law of Everything' enough? Computer Law & Security Review, 41 (2021), 17. o.
[54] Ld. különösen Castelluccia és Le Métayer által készített jelentést, melyben az elszámoltathatóság követelménye kiemelt szerephez jutott. Forrás: Castelluccia - Le Métayer: i.m. 28. o.
[55] Wachter - Mittelstadt - Russell: i.m. 29. o.
[56] U.o. 29. o.
[57] E tekintetben Marvin van Bekkum és Frederik Zuiderveen Borgesius tanulmányukban az adatvédelmi jog és az egyenlő bánásmódhoz való jog közötti összefüggéseket vizsgálják, különös tekintettel arra, hogy a GDPR személyes adatok különleges kategóriáira vonatkozó szabályai akadályozzák-e a mesterséges intelligencia által okozott diszkrimináció megakadályozását. Marvin van Bekkum - Frederik Zuiderveen Borgesius: Using sensitive data to prevent discrimination by artificial intelligence: Does the GDPR need a new exception? Computer Law & Security Review, 48 (2022)
[58] A 22. cikk (1) szerint "[a]z érintett jogosult arra, hogy ne terjedjen ki rá az olyan, kizárólag automatizált adatkezelésen - ideértve a profilalkotást is - alapuló döntés hatálya, amely rá nézve joghatással járna vagy őt hasonlóképpen jelentős mértékben érintené." Bizonyos jogalapok esetében nem kell ezt a tiltást alkalmazni [GDPR 22. cikk (2)], illetve bizonyos jogalapok esetében az adatkezelő köteles megfelelő intézkedéseket tenni az érintett jogainak, szabadságainak és jogos érdekeinek védelme érdekében, ideértve az érintettnek legalább azt a jogát, hogy az adatkezelő részéről emberi beavatkozást kérjen, álláspontját kifejezze, és a döntéssel szemben kifogást nyújtson be. [GDPR 22. cikk (3)] Ugyanakkor ezek a szabályok csak a kizárólag automatizált adatkezelés által meghozott döntések esetében irányadók, így például a támogatott döntéshozatal során nem nyújtanak támpontot.
[59] Az EU 2021 tavaszán tette közzé a mesterséges intelligencia rendelet tervezetét, melyben egy kockázatalapú megközelítést (elfogadhatatlan kockázat, magas kockázat, minimális kockázat, nem jelent kockázatot) alkalmazva, a kockázat szintjéhez igazítva határozza meg a mesterséges intelligenciára vonatkozó szabályokat. A tervezett elemzéséről ld. bővebben: Michael Veale - Frederik Zuiderveen Borgesius: Demystifying the Draft EU Artificial Intelligence Act - Analysing the good, the bad, and the unclear elements of the proposed approach, Computer Law Review International, (2021) 4., 97-112. o.
[60] A mesterséges intelligenciával kapcsolatos felelősségről szóló irányelv tervezet 2022-ben látott napvilágot. A javaslat célja a belső piac működésének javítása azáltal, hogy egységes szabályokat állapít meg a mesterséges intelligencia rendszerek bevonásával okozott károkért való szerződésen kívüli polgári jogi felelősség bizonyos területein. Európai Bizottság: Liability Rules for Artificial Intelligence. Elérhető: https://commission.europa.eu/business-economy-euro/doing-business-eu/contract-rules/digital-contracts/liability-rules-artificial-intelligence_hu (Letöltés ideje: 2023. 05. 09.)
[61] Ugyanakkor amennyiben az automatizált döntéshozatalnak olyan típusáról van szó, mely nem mesterséges intelligencián alapszik, úgy ezen jogszabályok nem nyújtanak védelmet.
Lábjegyzetek:
[1] Szegedi Tudományegyetem, Munkaügyi Kapcsolatok és Társadalombiztosítási Képzések Intézete.
Visszaugrás