https://doi.org/10.59851/mj.72.12.2
A mesterséges intelligencia rohamos elterjedésével egyre több jogelméleti és joggyakorlati kérdés merül fel számos gazdasági és közszolgáltatási területen, így az egészségügyben is. Tanulmányomban az MI tájékozott beleegyezésre, valamint nemzetközi szinten az ezzel összefüggő beteg-önrendelkezési jogra gyakorolt hatását vizsgálom. A tanulmány fókuszpontját a lépcsőzetesen bevezetésre kerülő AI Act szabályai alkotják.
Kulcsszavak: mesterséges intelligencia (MI); AI Act; tájékozott beleegyezés; önrendelkezés
With the rapid spread of artificial intelligence, there are a growing number of legal theory and legal practice issues in economic and public service areas, including healthcare. In my study, I examine the impact of AI on informed consent and the related patient's self-determination at the international level. The focus of my study is the rules of the AI Act, which is gradually coming into force.
Keywords: artificial intelligence (AI); AI Act; informed consent; self-determination
A mesterséges intelligencia (a továbbiakban: MI) története több mint 50 éves múltra nyúlik vissza, mégis valódi térnyerése az utóbbi években gyorsult fel; a Covid19-világjárvány elterjedése katalizátorként hatott rá. Az újonnan megjelenő technológiák számos szektorban elterjedtek, amelyek az egészségügyet sem hagyták érintetlenül. Mára már az MI egyre szélesebb körben jelenik meg a képalkotó diagnosztikától kezdve a vakcinafejlesztésen át egészen a személyre szabott terápiákig. Ezek a példák szigetszerűek, hiszen az MI bevezetésének és az azt követő alkalmazásának mind nemzetközi, mind nemzeti szinten is infrastrukturális, financiális és egyéb korlátozó tényezői akadnak. Az egyéb akadályozó körülményeken belül kiemelést érdemel a jogi és etikai szabályozás. Erre reagálva számos jogtudós kezdett foglalkozni az MI-vel kapcsolatos jogelméleti és joggyakorlati anomáliákkal, hiszen annak érdekében, hogy az MI-ben rejlő potenciális lehetőségek maximalizálásra kerüljenek, és az alapvető jogok sérelmének veszélye háttérbe szoruljon, elengedhetetlen a megfelelő szabályozási környezet kialakítása. Az egyik alapvető kérdést jelenti, hogy az MI miként fogja befolyásolni az egyes betegjogokat, különösen a tájékozott beleegyezés intézményén alapuló önrendelkezési jogot.
A kérdés megválaszolásához elsődlegesen fogalmi tisztázások szükségesek. A jelenlegi gazdasági szegmensek sokszínűsége, a megvalósítások technikai és matematikai háttere, valamint az MI alkalmazási köréből fakadó társadalmi népszerűsége és technológiai elterjedtsége okán az MI-nek globálisan és általánosan elfogadott definíciója nincsen.[1] Mégis, ha egy viszonylag rövid fogalmat kellene használni, álláspontom szerint Fang-Su-Xiao meghatározása jól összefoglalja az MI lényegét. "Az MI abban különbözik más berendezésektől, amelyeket emberi tevékenységek javítására vagy helyettesítésére terveztek, hogy nemcsak rutin vagy ismétlődő tevékenységek megoldásán alapszik, hanem az intelligencia-szintű emberi viselkedésen is."[2] Jelenleg az Európai Unió (röviden: EU) sem használ egységes fogalmat az MI-re - csupán az MI-rendszerre[3] -, és azt kockázatalapú megközelítés alapján osztályozza. A kockázat az AI Act 3. cikk (2) bekezdése értelmében a kár bekövetkezési valószínűségének és az említett kár súlyosságának kombinációja. A kockázat elfogadhatónak minősül, ha azt a társadalom a jelenlegi értékrendje szerint elfogadhatónak tartja. Ennek általános zsinórmértékét az képezi, hogy az előnyök meghaladják a kockázatokat.[4] Az MI-rendszerek alkalmazásával járó kockázatok teljes eliminálása jelenleg lehetetlen feladat, azonban a minimális szintre történő csökkentése folyamatos célnak tekinthető, hiszen a biztonság kulcsfontosságú a technológia elterjedéséhez szükséges bizalom kialakítása érdekében.[5]
Az AI Act az MI-rendszereket a bennük rejlő kockázati szintek alapján négy nagy csoportba sorolja. Az első csoportba tartoznak az elfogadhatatlan kockázatú MI-rendszerek; a második csoportba a - felváltva használt, de szinonimaként értelmezendő - nagy vagy magas kockázatúak, a harmadik csoportba a korlátozott kockáza-
- 741/742 -
túak, végül a negyedik csoportba a minimális kockázatú MI-rendszerek. A tanulmány terjedelmi korlátjaira tekintettel, a magas/nagy kockázatú MI-rendszerek kivételével az egyes csoportok részletezésére nem térek ki. Az egészségügyben alkalmazott MI-k közül pedig kifejezetten a képalkotó diagnosztika során alkalmazott MI-ket veszem górcső alá, amelynek indokát az képezi, hogy az egészségügyben az MI-alapú orvostechnikai eszközök túlnyomó része a radiológiában lelhető fel.[6]
Az AI Act szerint egy MI-rendszer magas kockázatúnak való minősítéséhez két konjunktív feltétel fennállása szükséges.[7] A besorolási szabályon túlmenően az AI Act III. mellékletében említett MI-rendszereket is magas kockázatúnak kell tekinteni.[8] A képalkotó diagnosztikában alkalmazott MI-nél, álláspontom szerint, teljesül a két konjunktív feltétel, így a magas kockázati kategóriába tartozik. A megfelelő kategóriába való besorolást könnyíti az AI Act (50) bekezdésének rendelkezése, miszerint "az olyan MI-rendszereket, amelyek az e rendelet egyik mellékletében felsorolt egyes uniós harmonizációs jogszabályok hatálya alá tartozó termékek biztonsági alkotórészei, vagy amelyek maguk ilyen jogszabályok hatálya alá tartozó termékek, helyénvaló e rendelet értelmében nagy kockázatúnak minősíteni, ha az érintett terméket a vonatkozó uniós harmonizációs jogszabály értelmében valamely harmadik félnek minősülő megfelelőségértékelő szervezet által lefolytatott megfelelőségértékelési eljárás alá vonják. Így különösen, ilyen termékek..., az orvostechnikai eszközök, az in vitro diagnosztikai orvostechnikai eszközök, stb." Az AI Act (50) bekezdésében is jól látható, hogy az MI-alapú diagnosztikai eszközök a magas kockázatú kategóriába sorolhatók.
A jelenleg hatályos hazai szabályozás szerint "az önrendelkezéshez való jog értelmében - fő szabály szerint - a cselekvőképes beteg maga dönti el, hogy kíván-e egészségügyi ellátást igénybe venni és ha igen, akkor annak során milyen beavatkozások elvégzésébe egyezik bele, illetve melyeket utasít vissza".[9] Az önrendelkezési jog tehát lényegében az ellátásba történő beleegyezést vagy annak visszautasítását jelenti. Az önrendelkezési jog a mai formájához képest egy rendkívül hosszú fejlődési utat járt be. Az orvos-beteg közötti aszimmetrikus jogviszonyt a hippokratészi eskü Kr. e. 400 körüli megfogalmazásától kezdve egyfajta folytonosság jellemezte, amelynek középpontjában az orvos szinte megkérdőjelezhetetlenül magas presztízsű tudása állt.[10] Ebben a szemléletben az 1950-es évektől kezdve változás történt, és a lassan formálódó felfogás azt diktálta, hogy az orvos-beteg jogviszonynak két egyenrangú fél kölcsönös együttműködésén kell alapulnia. Az orvos tehát csak szakmailag állhat a páciens fölött, mindezen túlmenően helyzetük mellérendelt kell, hogy legyen. A kialakuló bioetika, valamint az egyes betegjogok nemzetközi szintű elfogadása fokozatosan megváltoztatta a sokáig uralkodó alá-fölé rendeltségen alapuló szemléletet.[11] A betegjogok közül a tájékoztatáshoz való jog az, ami a korábbi kompetenciakülönbséget még inkább kiegyensúlyozni tudta. Mára pedig bizonyossá vált, hogy a beteg önrendelkezési joga és a tájékoztatáshoz való jog kéz a kézben járnak egymással.
Az 1997. évi CLIV. törvény (a továbbiakban: Eütv.) megfogalmazása szerint, a "törvényben foglalt kivételektől eltekintve bármely egészségügyi beavatkozás elvégzésének feltétele, hogy ahhoz a beteg megtévesztéstől, fenyegetéstől és kényszertől mentes, megfelelő tájékoztatáson alapuló beleegyezését adja".[12] A beteg tájékoztatáshoz való jogát, illetve az orvos tájékoztatási kötelezettségét számos jogforrás rögzíti, de a legátfogóbban az Eütv. szabályozza. A tájékoztatásnak különböző tartalmi elemei vannak, amelynél alapvető minimális feltétel, hogy a beteg cselekvőképes legyen. További feltétel, hogy megfelelő minőségű és mennyiségű információ átadásra kerüljön oly módon, hogy a beteg azt kellőképpen megértse, s ez alapján önkéntesen tudjon dönteni.[13] Ahhoz, hogy a beteg befolyástól mentesen tudjon döntést hozni, továb-
- 742/743 -
bi kritérium, hogy az orvos a tájékoztatást teljes körűen, más szóval részletesen, egyéniesített formában és valóságnak megfelelően adja.[14] Ezen kritériumok fennállása esetén beszélhetünk megfelelő tájékoztatásról, amelyre alapozva tudja a beteg önrendelkezési jogát gyakorolni.
Az egészségügyi ellátásban használt MI kapcsán felmerülő egyik legaktuálisabb kérdés, hogy nyilvánosságra kell-e hozni annak használatát a beteg számára. A jelen tanulmányban már levezetettek alapján megmutatkozik, hogy az egészségügyi ellátás elfogadása, illetve visszautasítása - az önrendelkezési jog gyakorlása - az átadott információktól függ. Ez alapvetően a tájékoztatáshoz való jogon belül a részletesség kritériumához tartozik, amely számos kutató érdeklődését felkeltette. Az Egyesült Államokban I. Glen Cohen foglalkozott mélyrehatóan a témával, és különböző analógiák alkalmazásával arra a megállapításra jutott, hogy az amerikai esetjog főszabály szerint nem követeli meg az MI használatának nyilvánosságra hozatalát - néhány kivételtől eltekintve.[15] Az AI Act elfogadását megelőzően, az Európai Unió viszonylatában az Európai Unió Alapjogi Chartájának 3. cikkének 2a) pontjában deklarált szabad és tájékozott beleegyezés követelményét tekintették irányadónak, mivel ez az orvos és a beteg közötti "megosztott döntéshozatalra" utal, amelynél a beteget illeti meg a végső döntés meghozatala.[16] Európai szinten még a GDPR meghatározott rendelkezései nyújtanak iránymutatást, azonban az értelmezés kapcsán akadnak ellentmondások.[17] Etikai szempontból számos európai tudós amellett érvel, hogy a beteget tájékoztatni kell az MI alkalmazásáról. Maximilian Kiener például három jelentős okot különböztet meg, amelyek megalapozzák a tájékoztatást. Ezek a kibertámadások kockázata, az MI szisztematikus elfogultsága, valamint az ún. sajátos eltérések.[18] Kiseleva és munkatársai kutatásukban hasonló álláspontot képviselnek, és arra a megállapításra jutottak, hogy az MI-rendszer alkalmazásáról, használatáról, alternatíváiról és tanúsításáról is kell tájékoztatni a beteget.[19] Bár az amerikai és az európai jogrendszerek egymástól különböznek, a tájékozott beleegyezés jogintézményének rendeltetése és célja mindkét rendszerben ugyanaz. Ennek ellenére továbbra sincs etikai és jogi konszenzus globálisan az MI-ről való tájékoztatás kapcsán.
Az európai szabályozásban és a hipotetikus gondolkodásban nagy fordulópontot jelentett az AI Act elfogadása. Míg korábban az egyes nemzetközi dokumentumok soraiból igyekeztek a tudósok az MI-rendszerek alkalmazására valamilyen szabályozási mankót keresni, addig az AI Act számos esetben már tényleges válaszokat is ad. Ezek közül kiemelendő a témával kapcsolatban a (93) bekezdés, amely szerint "a nagy kockázatú MI-rendszerek alkalmazói (...) - amikor természetes személyekkel kapcsolatos döntéseket hoznak vagy segítséget nyújtanak a természetes személyekkel kapcsolatos döntések meghozatalában - adott esetben tájékoztatniuk kell a természetes személyeket arról, hogy esetükben nagy kockázatú MI-rendszert használnak". Ez a rendelkezés az AI Act hatálybalépésétől számított 36. hónaptól lesz alkalmazandó, így fel kell készülniük az egészségügyben dolgozóknak - a radiológián - az eddig nem kifejezetten rögzített kötelezettségre. Az erről való tájékoztatás elmaradása megalapozhatja a tájékoztatáshoz való jog megsértését, valamint az önrendelkezési jog gyakorlásának korlátozását.
Az MI folyamatos térnyerésével egyre sürgetőbb kérdésekkel állunk szemben az egészségügy területén, amelyek mihamarabbi megválaszolásra várnak. Ezek sem a betegtájékoztatást, sem pedig a beteg önrendelkezési jogát nem hagyják érintetlenül. Az AI Act elfogadásával azonban a szabályozás és a jogi gondolkodásmód újabb irányt fognak venni, amelyeknek hatásai a következő hónapokban, illetve években érzékelhetők lesznek. ■
JEGYZETEK
[1] Végh János: Mi is valójában a mesterséges intelligencia? Rendvédelem Tudományos Folyóirat, 2024. (1), 25-40. DOI: https://doi.org/10.53793/RV.2024.1.2
[2] Jiachao Fang - Hanning Su - Yuchong Xiao: Will Artificial Intelligence Surpass Human Intelligence? 2018. DOI: https://doi.org/10.2139/ssrn.3173876
[3] Tambiama Madiege: General-purpose artificial intelligence. EP Think Tank, At a Glance, 2023.03.30., https://www.europarl.europa.eu/RegData/etudes/ATAG/2023/745708/EPRS_ATA(2023)745708_EN.pdf
[4] Jonas Schuett: Risk Management in the Artificial Intelligence Act. European Journal of Risk Regulation, 2023. (Special issue 2), 1-19. DOI: https://doi.org/10.1017/err.2023.1
[5] Tóth András: Az Európai Unió Mesterséges Intelligencia Törvényéről. Gazdaság és Jog, 2024. (5-6), 3-11. DOI: https://doi.org/10.55413/561.A2400102.EUO
[6] Steven Tjoe - Martin Gomez: FDA Approvals of AI Medical Devices Rise Rapidly. Goodwin, 2024.11.01., https://www.goodwinlaw.com/en/insights/publications/2024/11/insights-technology-aiml-fda-approvals-of-ai-medical-devices
[7] AZ EURÓPAI PARLAMENT ÉS A TANÁCS 2024. június 13-i (EU) 2024/1689 RENDELETE a mesterséges intelligenciára vonatkozó harmonizált szabályok megállapításáról, valamint a 300/2008/EK, a 167/2013/EU, a 168/2013/EU, az (EU) 2018/858, az (EU) 2018/1139 és az (EU) 2019/2144 rendelet, továbbá a 2014/90/EU, az (EU) 2016/797 és az (EU) 2020/1828 irányelv módosításáról (a mesterséges intelligenciáról szóló rendelet) III. fejezet 1. szakasz 6. cikk (1) bekezdése szerint "(...) az említett MI-rendszer nagy kockázatúnak minősül, ha mindkét következő feltétel teljesül: a) az MI-rendszert az I. mellékletben felsorolt uniós harmonizációs jogszabályok hatálya alá tartozó termék biztonsági alkotórészeként kívánják használni, vagy az MI-rendszer önmagában ilyen termék; b) azon terméket, amelynek biztonsági alkotórésze az a) pont alapján az MI-rendszer, vagy magát az MI-rendszert mint terméket harmadik fél által végzett megfelelőségértékelésnek kell alávetni a terméknek az I. mellékletben felsorolt uniós harmonizációs jogszabályok értelmében való forgalomba hozatala vagy üzembe helyezése érdekében."
[8] AI Act III. fejezet 1. szakasz 6. cikk (2) bekezdés.
[9] Dósa Ágnes: Az önrendelkezéshez való jog, az Eütv. 15. §-ához. In: Dósa Ágnes - Hanti Péter - Kovácsy Zsombor (szerk.): Nagykommentár az egészségügyről szóló 1997. évi CLIV. törvényhez. Budapest, Wolters Kluwer, 2016. évi Jogtár-formátumú kiadás.
[10] Ezekiel J. Emanuel: The Evolving Norms of Medical Ethics. In: Ronald M. Green et al. (eds): Global Bioethics: Issues of Conscience for the Twenty-First Century. Oxford University Press, 2009. 53-56. DOI: https://doi.org/10.1093/oso/9780199546596.003.0004
[11] Jobbágyi Gábor: Orvosi Jog. Hippokratésztől a klónozásig. Budapest, Szent István Társulat, 2007. 24-25.
[12] Eütv. 15. § (3) bekezdés.
[13] Ifj. Lomnici Zoltán: A tájékoztatáson alapuló beleegyezés intézményének felelősségi kérdései a hazai joggyakorlat tükrében. Iustum Aequum Salutare, 2007. (3), 179-190.
[14] Dósa Ágnes: A tájékoztatáshoz való jog, az Eütv. 13. §-ához. In: Dósa Ágnes - Hanti Péter - Kovácsy Zsombor (szerk.): Nagykommentár az egészségügyről szóló 1997. évi CLIV. törvényhez. Budapest, Wolters Kluwer, 2016. évi Jogtár-formátumú kiadás.
[15] I. Glenn Cohen: Informed Consent and Medical Artificial Intelligence: What to Tell the Patient? Georgetown Law Journal, 2020. (108), 1425-1469. DOI: https://doi.org/10.2139/ssrn.3529576
[16] Karl Stöger et al.: Medical Artificial Intelligence: The European Legal Perspective. Communications of the ACM, 2021. (64), 34-36. DOI: https://doi.org/10.1145/3458652
[17] Lásd bővebben: Kristina Astromské et al.: Ethical and legal challenges of informed consent applying artificial intelligence in medical diagnostic consultations. AI & Society, 2021. (36), 509-520. DOI: https://doi.org/10.1007/s00146-020-01008-9; Inigo de Miguel et al.: Machine learning in the EU health care context: exploring the ethical legal and social issues. Information, Communication & Society, 2020. (23), 1139-1153. DOI: https://doi.org/10.1080/1369118X.2020.1719185; Andreas Holzinger: Machine Learning and Knowledge Extraction. Dublin, Springer, 2018. 209-226.; Philipp Hacker et al.: Explainable AI under contract and tort law: legal incentives and technical challenges. Artificial Intelligence and Law, 2020. (28), 415-439. DOI: https://doi.org/10.1007/s10506-020-09260-6
[18] Maximilian Kiener: Artificial intelligence in medicine and the disclosure of risks. AI & Society, 2021. (36), 705-713. DOI: https://doi.org/10.1007/s00146-020-01085-w
[19] Anastasiya Kiseleva et al.: Transparency of AI in Healthcare as a Multilayered System of Accountabilities: Between Legal Requirements and Technical Limitations. Frontiers in Artificial Intelligence, 2022. (5), 1-21. DOI: https://doi.org/10.3389/frai.2022.879603
Lábjegyzetek:
[1] A szerző PhD-hallgató, gyakornok, Szegedi Tudományegyetem Állam- és Jogtudományi Kar Civilisztikai Tudományok Intézete. https://orcid.org/0009-0000-2717-3356.
Visszaugrás