Fizessen elő a Gazdaság és Jogra!
ElőfizetésCikksorozatunk előző részében[1] a mesterséges intelligenciával foglalkozó etikai ajánlások egyes általánosítható gyengeségeire mutattunk rá. A második részben azt vizsgáljuk, hogy az etikai követelmények érvényesítéséhez az információbiztonsági szakma eszköztárából mi és hogyan használható arra, hogy az ajánlások konzekvensen gyakorlatba ültethetők és kikényszeríthetők legyenek.
In the previous part of this series of articles, we pointed out some of the general weaknesses of the existing ethical recommendations on AI. In this second article, we will examine what and how can be used from the information security profession's toolkit to consistently put in practice and enforce the ethical recommendations.
A mesterséges intelligencia (továbbiakban MI) működése - bármilyen misztikusnak is tűnhet az átlagember számára - alapvetően számítástechnikai, informatika-tudományi kérdés. Az ismeretlen egyre növekvő mértékben fenyegeti az egyént, aki mára már a mesterségesen létrehozott világ kockázatai között él. A kockázattársadalmakban az egyén és a társadalom biztonsága megrendül, mert a technológia által elképzelhető lehetséges jövőket lehetetlen uralni[2]. Ezt az üzenetet a média hajlamos dramatizálni. Előfordulhat, hogy az ember egyre kevésbé lesz képes a világban a jót előmozdítani. A MI-jelenség fölerősíti ezt a bizonytalanságot.
A számítástechnikai alkalmazások[3] fejlesztése már régóta olyan összetett folyamat, hogy nem módszertanként, hanem alkalmazott tudományként tekintünk rá. Etikai kérdések, kihívások már korábban is jelentkeztek az alkalmazás-fejlesztések során, és gyakran ezek nem választhatók el az alkalmazásbiztonság menedzsmentjétől. Az alkalmazásfejlesztés és -üzemeltetés során a kezelést, beavatkozást kívánó hátrányos jövőbeni eseményeket az úgynevezett kockázatértékelés hivatott felfedni és a megfelelő, arányos válasz-intézkedést meghatározni. A kockázatértékelés módszertanai kiforrottak és egyre több jogszabály követeli meg alkalmazásukat kiemelt gazdasági szektorokban (például a hitelintézeti, a telekommunikációs szektorokban). Ezt figyelembe véve adódik az a következtetés, hogy a hatályos jogi szabályozók közül a MI-ra elsősorban az információbiztonságra és az adatvédelemre, valamint az informatika-biztonságra vonatkozó követelmények alkalmazhatók közvetlenül.
Jelenleg az információ-biztonság és adatvédelem területein a jogi szabályozás - támaszkodva a puha jog és az önszabályozás eredményeire is - a kockázatarányosság követelményének érvényesülését írja elő[4]. Kockázatarányosan kezeljük az informatikai rendszereket érő fenyegetéseket és veszélyeket. Ez az elv valamennyi informatika-irányítási módszertanban közös.
A tapasztalat ugyanakkor azt mutatja, hogy a bizonytalan következmények egy jelentős körét lehetetlen a bevett költség-haszon elemzés módszer segítségével felmérni[5]. "A társadalomnak [...] le kell mondania arról az illúzióról, hogy mindenféle technológiai kockázat előre felmérhető és pusztán szabályozással megelőzhető"[6]. A kockázat általános fogalma és mérési módszertana egyes megközelítések szerint hiányos; a hiányok a felelősség tényezőihez köthetők.
A kockázat általános fogalma: valamely cselekvéssel járó veszély vagy veszteség, hátrány bekövetkezésének lehetősége. Közgazdasági értelemben a kockázat a valószínűség és a lehetséges veszteség szorzata. Az informatikai biztonság tudományági megközelítésében a kockázat olyan jellemző, mely leírja az informatikai rendszer fenyegetettségének[7] nagyságát és a fenyegetettségek bekövetkezéséből eredő potenciális veszteségeket[8].
Céline Kermisch szerint "a kockázat fogalmába a felelősség több formáját is integrálni kell, azaz a felróhatósági felelősséget, az ok-okozati felelősséget, a hibáztatást, a szégyent, a képesség-felelősséget, a szerep-felelősséget, valamint az erény-felelősséget[9]. Ezek morális kategóriák, melyek kibontására részletesen nem vállalkozha-
- 28/29 -
tunk, de az elmondható, hogy az általános kockázat-fogalmat szétfeszítik. A MI használata az ilyen morális típusú felelősségek megélését, felvállalását eleve kizárja. A "felelősségi hézag" tovább szélesedik azzal, hogy a jog már a MI valamiféle személyiséggel való felruházásának lehetőségét veti fel. Munch - Mainz - Bjerrings nagyobb hasznát látja annak, ha a helytelen erkölcsi döntések miatt nem emberi személyek viselik a felelősséget, mivel az "túlzott teherként nehezedne az adott egyénekre"[10]. Kénytelen elismerni azonban, hogy az emberek jelentős hányada rossznak tartja a felelősségi hézagok létét.
Az emberi döntésekkel szemben a MI döntései - még a leggyorsabbak is - szükségképpen determináltak, mivel algoritmusokat használnak. A MI által hozott döntés vagy végzett cselekvés ezért mindig felelősséghez vezet, ami nem a gépé, hanem az azt megalkotó és használó emberé. A kérdés nem az, hogy a MI létrehozói és használói tisztában voltak-e a gépi döntéshozatal lehetséges kockázataival és esetleges hibáival, hanem az, hogy volt-e lehetőségük megérteni és felfedezni ezeket a kockázatokat[11].
A hagyományos kockázatértékelési módszertanok első problémája a leegyszerűsítés: a kockázatot a hátrányos esemény bekövetkezési valószínűségének és a hatás nagyságának szorzataként határozza meg, így számszerűsíti, hogy pénzben kifejezhetővé tegye.
A másik jelentős probléma, hogy a kockázatok körét a szervezetek meglehetősen önkényesen húzzák meg. Szektoronként változó, hogy a figyelembe veendő kockázatok körét mennyire szorosan határozza meg valamely szabályozó vagy felügyeleti szerv, jogszabály, sztenderd. A kockázatokat a szervezetek főként saját anyagi szempontjuk szerint értékelik. Azt mérlegelik, hogy az egyes hatások - ideértve a társadalmi hatásokat is, ha kötelező erejű szabály vagy belülről jövő kellő gondosság ezek figyelembe vételére indítja a szervezetet - mekkora lehetséges veszteséget okoznának, képes-e ezt kigazdálkodni, és ezt a kockázatot fel tudja-e vállalni az előrevetített bekövetkezési valószínűségek mellett.
Korábban idéztük Schanda Tamást aki szerint nem fejlődés az, ami kiszolgáltatottságot, méltánytalanságot, igazságtalanságot eredményez. Ezeket a hátrányokat elkerülni úgy lehet, ha a kockázatok között a Kermisch által javasolt morális jellegűek is figyelembe vételre kerülnek. "Az emberek számára a kockázatok megítélésében az erkölcsi aggodalom még nagyobb szerepet játszik, mint a félelem. Az emberek hajlamosak az »erkölcsileg kifogásolható magatartásformákra« összpontosítani és azokat elutasítani. Ezek a viselkedések négy kategóriába sorolhatók: rosszindulat, meggondolatlanság, gondatlanság és hozzá nem értés"[12]. Ha azt akarjuk, hogy a MI valóban intelligens, tehát emberi módon gondolkodó, cselekvő, megnyilvánuló jelenség legyen, akkor az erkölcsi aggodalmakat is el kell oszlatnia, erkölcsösnek kell lennie, belülről, "önmagából" fakadóan.
A Jogkódex-előfizetéséhez tartozó felhasználónévvel és jelszóval is be tud jelentkezni.
Az ORAC Kiadó előfizetéses folyóiratainak „valós idejű” (a nyomtatott lapszámok megjelenésével egyidejű) eléréséhez kérjen ajánlatot a Szakcikk Adatbázis Plusz-ra!
Visszaugrás