Megrendelés

Mezei Kitti[1]: Algoritmusok és átláthatóság (IAS, 2025/3., 115-133. o.)

Az online platformok ajánlórendszereinek jogi szabályozása az Európai Unióban

https://doi.org/10.69695/ias.2025.3.08

Absztrakt

A digitális szolgáltatások térnyerése alapvetően átalakította az online információáramlást, a tartalomfogyasztási szokásokat és a platformok működését. Az Európai Unió digitális szolgáltatásokról szóló rendelete (DSA) célja az online szolgáltatások jogi környezetének szabályozása, a felhasználói jogok védelme, az átláthatóság biztosítása és a digitális piac egyensúlyának megőrzése. Az ajánlórendszerek kulcsszerepet játszanak a tartalmak elérhetőségének és láthatóságának alakításában, ezért az EU szabályozása különös hangsúlyt fektet az algoritmikus döntéshozatal átláthatóságára és elszámoltathatóságára, beleértve a rangsorolási mechanizmusokat, a célzott ajánlásokat és az automatizált döntéshozatali folyamatokat. A tanulmány részletesen elemzi a DSA ajánlórendszerekkel kapcsolatos rendelkezéseit, azok gyakorlati következményeit, valamint jogi és etikai vonatkozásait. Kiemelten foglalkozik a platformszolgáltatók kötelezettségeivel, az átláthatósági elvárásokkal és a felhasználói jogorvoslati lehetőségekkel. Kitér az algoritmikus torzítások, a szűrőbuborékok és a manipuláció veszélyeire, valamint az átláthatóság és a túlzott információterhelés közötti ellentmondásokra. A tanulmányban megállapításra kerül, hogy bár a DSA új átláthatósági előírásai előrelépést jelentenek, a felhasználók tényleges kontrollja továbbra is korlátozott. Egyértelmű szabályozási iránymutatások és hatékony végrehajtás hiányában fennáll a veszélye, hogy a platformok csupán a "látszatátláthatóság" (transparency washing) fenntartására törekednek, anélkül hogy valódi változás történne.

Kulcsszavak: online platform, ajánlórendszer, algoritmikus rangsorolás, DSA, átláthatóság

Abstract

The increasing dominance of digital services has significantly reshaped online information flows, content consumption habits, and platform operations. The European Union's Digital Services Act (DSA) aims to regulate the legal environment of online services, ensuring user rights, transparency, and a balanced digital market. Recommendation systems, which influence content accessibility and visibility, play a crucial role in this regulatory framework. Their algorithmic decision-making processes impact public opinion, market competition, and fundamental rights, prompting the EU to enforce transparency and accountability in ranking mechanisms, targeted recommendations, and automated decision-making. This study explores the DSA's provisions on recommendation systems, analyzing their practical implications and assessing their legal and ethical impact. It examines platform obligations, transparency requirements, and redress mechanisms that protect user rights. Ethical concerns, such as algorithmic bias, filter bubbles, and manipulation risks, are discussed, along with the tension between transparency and excessive information overload. By critically evaluating the DSA's approach, the study highlights key challenges in implementation and enforcement. It argues that while transparency mandates are a step forward, real user control remains limited. Without clear regulatory guidelines and oversight, platform compliance may lead to mere "transparency washing" rather than substantive change.

1. Bevezetés: Ajánlott tartalom vagy irányított figyelem? Az Európai Unió új szabályozási megközelítése

A digitális szolgáltatások térnyerése alapjaiban alakította át az online információáramlást, a tartalomfogyasztási szokásokat és a platformok működését. Az Európai Unió által elfogadott digitális szolgáltatásokról szóló rendelet (a továbbiakban: DSA)[1] célja, hogy szabályozza az online térben működő szolgáltatások jogi környezetét, biztosítva a felhasználók jogainak védelmét, a transzparenciát és a digitális piac kiegyensúlyozott működését.

Az online ajánlórendszerek különös figyelmet kaptak a szabályozásban, mivel alapvető szerepet játszanak a digitális tartalom elérhetőségének és láthatóságának meghatározásában. Az algoritmikus döntéshozatal[2] révén az ilyen rendszerek befolyásolják a felhasználók által látott információkat, így közvetetten hatással

- 115/116 -

vannak a közvélemény alakulására, a piac versenyhelyzetére és az alapvető jogok érvényesülésére. Az EU jogalkotása kiemelten kezeli az ajánlórendszerek átláthatóságát és elszámoltathatóságát, különös tekintettel a rangsorolási mechanizmusokra, a célzott tartalomajánlásokra és az automatizált döntéshozatali eljárásokra.

A tanulmány célja, hogy részletesen bemutassa a DSA ajánlórendszerekkel kapcsolatos rendelkezéseit, elemezze azok gyakorlati következményeit, valamint jogi és etikai szempontból értékelje az új szabályozási keret hatásait. Az elemzés során különös figyelmet fordítok a platformszolgáltatók kötelezettségeire, az átláthatósági követelményekre, valamint azokra a jogorvoslati mechanizmusokra, amelyek biztosítják a felhasználók jogainak védelmét a digitális térben.

2. Az ajánlórendszerek egyes etikai és társadalmi kihívásai

Az egyik sokat vitatott etikai kérdés, az ajánlórendszerekkel kapcsolatban az egyéni döntési folyamatokba való beavatkozás mértéke és annak hatása. Az ajánlórendszerek nem közvetlenül elrejtik, hanem kevésbé láthatóvá teszik a nem annyira relevánsnak ítélt lehetőségeket, tartalmakat, például azáltal, hogy azokat nem helyezik az első találatok közé. Ennek eredményeként a felhasználók nagyobb valószínűséggel fogadják el az első ajánlásokat, még akkor is, ha azok nem feltétlenül felelnek meg az egyéni preferenciáiknak.[3]

Ez a "position bias", amelynek hatása kettős. Egyrészt manipulációs kockázatok merülnek fel, ha az ajánlások pontatlanok vagy üzleti érdekek által manipuláltak, a felhasználók nem a saját érdekeiknek megfelelő döntéseket hozzák meg.[4] Másrészt hiányos információkhoz vezethet, ha a felhasználók csak egy szűk keresztmetszet alapján formálnak véleményt, így fontos információk elkerülhetik a figyelmüket. Ez felveti a kérdést, hogy az első találatok között szándékosan meg kellene-e jeleníteni kevésbé relevánsnak ítélt lehetőségeket - ezt a gyakorlatot " serendipity by design " néven említik.[5] További etikai problémát jelent a beépített ösztönző technikák (nudging) alkalmazása. Ezek például sürgethetik a felhasználókat, hogy gyorsan döntsenek. Ugyanakkor fontos kiemelni, hogy ezek az algoritmusok és technikák nemcsak kockázatokat, hanem előnyöket is hordoznak. A platformok hosszú távú érdeke, hogy valóban releváns és hasznos ajánlásokat tegyenek, hiszen a felhasználói bizalom és hűség ezen múlik. A jól

- 116/117 -

működő ajánlórendszerek segíthetnek az információtúlterhelés kezelésében, és hatékonyabbá tehetik a döntéshozatalt azáltal, hogy a felhasználó számára legvalószínűbben releváns lehetőségeket emelik ki. Az ösztönző technikák pedig nem feltétlenül manipulációs szándékúak, megfelelő alkalmazásuk esetén valóban támogatják a felhasználót a döntéseiben.[6]

Az ajánlórendszerek alapvetően két típusba sorolhatók, amennyiben a szűrési módszerek képezik a megkülönböztetési kritériumot: tartalom alapú és együttműködésen alapuló szűrés. Ezeket kiegészíti egy harmadik kategória, a hibrid módszerek.[7]

A tartalom alapú szűrés olyan tartalmakat ajánl, amelyek hasonlóságot mutatnak a felhasználó korábbi preferenciáival.[8] Ez a módszer különösen videó- és streaming platformokon alkalmazható, ahol általában két algoritmus működik, az egyik egy lehetséges ajánlási "poolt" generál, míg a másik értékeli és rangsorolja az egyes tartalmakat ebből a körből. Az együttműködésen alapuló szűrés olyan tartalmakat ajánl, amelyek más, hasonló értékelési szokásokkal rendelkező felhasználókat is érdekelnek.[9] Ebben az esetben nincs szükség további információra az ajánlott tartalomról; az algoritmus a felhasználók viselkedése alapján működik. Ezt a módszert jellemzően kereskedelmi platformokon alkalmazzák, ahol a rendszer implicit visszajelzésekre (például tranzakciós vagy böngészési előzmények) vagy explicit interakciókra (például korábbi értékelések) épít. A hibrid szűrési módszerek kombinálják az előbbieket: először külön alkalmazzák az együttműködésen és tartalom alapú szűrési eljárásokat, majd ezek alapján előrejelzéseket készítenek a felhasználói viselkedésről. Az ilyen hibrid ajánlórendszerek különösen közösségi média platformokon találhatók meg, ahol az ajánlások nemcsak tartalmi alapúak, hanem a felhasználók társadalmi viselkedését is figyelembe veszik.[10]

A közösségi média platformokon az egyik legerősebb befolyásoló tényező a tartalomajánló rendszer, amely meghatározza a felhasználók számára megjelenített tartalmak sorrendjét. Ez egyfajta kapuőr szerepet tölt be, mivel a tartalomajánló rendszer - például a Facebook, Instagram vagy TikTok algoritmusai - határozzák meg, hogy a felhasználók milyen bejegyzésekkel találkoznak a hírfolyamukban, és melyeket nem is látnak egyáltalán. Ez a válogatás jelentős befolyással van arra, hogy milyen információk jutnak el az emberekhez, ezért egyre több közéleti vita középpontjába kerül.[11] Az ajánlások

- 117/118 -

általában a kezdőoldalon jelennek meg, például Facebook esetén beágyazva a barátok bejegyzései közé, de a hírfolyam sorrendjét rangsorolási algoritmusok határozzák meg.[12]

Két alapvetően eltérő ajánlási elv figyelhető meg: érdeklődésalapú ajánlások - ezek célja a felhasználó és a tartalom közötti relevancia értékelése, hogy a leginkább érdeklődésre számot tartó tartalom jelenjen meg (ez a tartalom alapú ajánlás középpontja). Ez a modell a felhasználó korábbi interakcióira - például kedvelésekre, keresésekre, megtekintési időre - és a tartalmak jellemzőire (kulcsszavak, témák, metaadatok) épít. A cél annak az értékelése, hogy az adott tartalom mennyire releváns az adott felhasználó számára. A YouTube főoldala személyre szabott videókat kínál, a felhasználó által korábban megtekintett tartalmak témája, hossza, stílusa alapján. Az Instagram Explore algoritmusa az érdeklődési körök alapján (például hashtagek, profilok, keresési előzmények) generál vizuálisan releváns javaslatokat.

A befolyásalapú ajánlások esetén azt vizsgálják, hogy milyen tartalmakat osztanak meg a lehető legnagyobb hatás elérése érdekében (ez az együttműködésen alapuló szűréshez kapcsolódik).[13] A befolyásalapú logika az egyes tartalmak kollektív népszerűségére és a tömeges megosztások és széles körű láthatóság mechanizmusaira épít. A rendszer más felhasználók - különösen azok, akik hasonló érdeklődéssel vagy kapcsolati hálóval rendelkeznek - viselkedésmintáiból következtet a javasolható tartalmakra. A Facebook hírfolyam-rangsorolása figyelembe veszi, hogy az ismerősök közül kik reagáltak egy adott posztra - így egy tartalom előtérbe kerülhet a kollektív aktivitás révén, nem pedig személyes preferencia alapján is. A TikTok esetében a tartalom széles körben terjedése (megosztások száma, kommentek, gyors terjedés) szintén befolyásolja annak algoritmikus felerősítését - még olyan felhasználók számára is, akik korábban nem érdeklődtek hasonló tartalom iránt.

A mesterséges intelligencia alapú rendszer[14] átláthatatlansága (opacity) további komoly etikai problémát jelent számos algoritmus esetén, így nincs ez másként az ajánlórendszerek esetében sem. Ez akkor fordul elő, ha a döntéshozatali folyamat nem átlátható, és a felhasználók számára nincs lehetőség annak megértésére, hogy milyen tényezők befolyásolják az ajánlásokat. Például, ha egy szálláskereső rendszer olyan információkat kér be, amelyek nem kapcsolódnak egyértelműen a keresés pontosításához, de nem magyarázza el azok feldolgozását, ez végső soron akár átláthatósági és adatvédelmi problémát is jelenthet a felhasználó oldaláról nézve.[15]

Az átláthatatlan döntések megakadályozzák a felhasználókat abban, hogy átlássák és megértsék azokat, ezáltal csökken az emberi kontroll és az autonómia. Ezzel szemben az átlátható rendszerek megerősítik a felhasználói jogokat, lehetővé téve a döntések

- 118/119 -

felülvizsgálatát. Az informatika területén aktív vita zajlik arról, hogy a gépi tanuláson alapuló automatizált döntéseket milyen mértékben kell és lehet egyáltalán megmagyarázni.[16] Ez különösen akkor válik problémássá, amikor a felhasználó számára nem világos, hogy milyen tényezők befolyásolják a kapott ajánlásokat, és nincs lehetősége azok hátterének megértésére vagy kontrollálására. Vegyük például a szálláskereső platformokat, mint a Booking.com vagy az Airbnb. Ezek a rendszerek gyakran kérnek be olyan személyes vagy technikai adatokat - például a felhasználó tartózkodási helyét, eszközének típusát, vagy korábbi keresési szokásait -, amelyeknek a felhasználó szempontjából nincs egyértelmű kapcsolata a keresés finomhangolásához. Előfordulhat, hogy egy Apple-terméket használó felhasználónak eleve drágább szállásopciókat mutat előbb, mint egy másik eszközről keresőnek. A felhasználó számára viszont nem derül ki, hogy az eszköz típusa hogyan befolyásolta az ajánlásokat vagy az árakat, így elveszik a döntéshozatal tudatossága.[17] Hasonló problémák jelennek meg a tartalomajánló rendszerek esetén is, például a Netflix vagy a YouTube esetében. Egy felhasználó számára nem világos, hogy egy adott filmajánlás mögött a korábbi megtekintések, más felhasználók viselkedése, vagy esetleg üzleti megfontolások (például egy adott tartalom kiemelt promóciója) állnak. Emiatt sokan kérdőjelezik meg az ajánlások relevanciáját, és gyakran érzik úgy, hogy nem valós érdeklődésükre, hanem rejtett üzleti érdekekre alapulnak a javaslatok.

Érdekességként megemlítendő, hogy a videójátékplatformokkal kapcsolatban a recens szakirodalom[18] "fekete doboz hatás" helyett "fekete lyukról" beszél, mivel ezek multidimenzionális rendszerekként funkcionálnak. Például a Steam interaktív ajánlórendszere nem csupán a címkék és értékelések alapján működik, hanem folyamatosan tanul a felhasználók játékszokásaiból, összevetve azokat más játékosok viselkedésével. Ennek eredményeként a felhasználók számára személyre szabottabb ajánlások készülnek, amelyeket tovább finomíthatnak azáltal, hogy barátaik preferenciáit is figyelembe veszik. A játékrendszerek alapvetően hasonló módon működnek, mint más ajánlórendszerekkel rendelkező platformok (például Amazon vagy YouTube). A különbség abban rejlik, hogy többféle algoritmus kombinációját alkalmazzák, és bizonyos kontextusokban egyes adatokat figyelmen kívül hagynak. A platform három fő komponensből nyeri az információkat: a vásárlási rendszerből, amelyeken keresztül a felhasználók megvásárolhatják a játékokat, és ezek a könyvtárukba kerülnek, ezt követően pedig letölthetők; a streaming rendszer, amely biztosítja, hogy bizonyos játékok élő közvetítése elérhetővé váljon, hasonlóan a YouTube vagy Twitch platformokhoz; illetve a közösségi rendszeren keresztül a játékosok hálózatba kapcsolódhatnak, hogy együtt játszhassanak, vagy követhetik egymás tevékenységét. Az ajánlórendszer ezeket az eltérő forrásokat összehangolva generálja az ajánlásokat. Bár a vásárlási, streaming és közösségi platformokon működő ajánlórendszerek már ismertek, ezek egyetlen rend-

- 119/120 -

szerbe történő integrálása különleges kihívásokat jelent. Ez a folyamat tanuló, fejlődő és interakcióban lévő neurális hálózatokkal történik, amelyek folyamatosan finomítják az ajánlások pontosságát.[19]

Az ajánlórendszerek nem megfelelő tartalmak besorolásával kapcsolatos problémái szintén aggodalomra adnak okot, mivel sértő vagy káros tartalmak téves kategorizálása gyakran előfordult a múltban. Például YouTube 2019-es gyermekvédelmi botránya, amikor az ajánlórendszer olyan tartalmakat javasolt, amelyek potenciálisan veszélyesek voltak gyermekek számára. Az algoritmus a felhasználók érdeklődése és korábbi megtekintései alapján ajánlott videókat, és ennek következtében több esetben felnőttek által feltöltött, ártatlannak tűnő, de szándékosan gyermekeket célzó tartalmak kerültek előtérbe. A probléma különösen akkor vált súlyossá, amikor kiderült, hogy egyes videók alatt a kommentelők olyan időbélyegeket osztottak meg, amelyekben a gyerekek kompromittáló helyzetben voltak, és az algoritmus ezeket a videókat még több felhasználónak ajánlotta. Ez végül a hirdetők és a hatóságok figyelmét is felkeltette, és a YouTube kénytelen volt módosítani ajánlórendszerét, valamint szigorúbb moderálási szabályokat bevezetni.[20]

Az online platformok algoritmusai és ajánlórendszerei kulcsszerepet játszanak a visszhangkamrák (echo chamber) és szűrőbuborékok (filter bubble) kialakulásában is, mivel ezek a rendszerek személyre szabott tartalomajánlásaikkal meghatározzák, hogy a felhasználók milyen információkkal találkoznak, ezáltal befolyásolva a közéleti diskurzust és az egyéni véleményformálást. A visszhangkamra és szűrőbuborék fogalmak a digitális hírmédiában az információs izoláció különböző formáira utalnak. A visszhangkamrák esetében a felhasználók tudatosan vagy öntudatlanul olyan közösségekbe zárják magukat, ahol kizárólag saját nézeteiket erősítő információkat fogyasztanak, ezzel fokozva a politikai és társadalmi polarizációt. A szűrőbuborékokat az algoritmikus hírszűrés hozza létre, amikor az online platformok személyre szabott tartalmakat jelenítenek meg, így a felhasználók egyoldalú információs környezetbe kerülhetnek, és kevésbé találkoznak eltérő nézőpontokkal.[21]

Az utóbbi évtizedben az ajánlórendszerek társadalmi hatásaira is nagy figyelem irányult, különösen a dezinformáció[22] terjedése és a demokratikus folyamatokra jelentett

- 120/121 -

fenyegetések miatt.[23] Az algoritmusok személyre szabott tartalomkiválasztása révén egyes felhasználók olyan információs buborékba kerülhetnek, amely megerősíti saját nézeteiket, miközben kizárja az eltérő véleményeket. Ez növelheti a társadalmi polarizációt, és manipulációs eszközzé válhat a politikai kommunikációban. Az egyik legismertebb és sokat vitatott eset a Cambridge Analytica-botrány volt 2018-ban,[24] amikor politikai kampányok célzottan, személyre szabott üzenetekkel próbálták befolyásolni a választók viselkedését a Facebook algoritmikus hírfolyamán keresztül. Ez az ügy ugyan még a DSA előtt történt, azonban világosan rávilágított arra, milyen mértékű társadalmi és politikai hatással lehetnek az online platformok algoritmusai.

3. A DSA és az algoritmikus átláthatóság

A 2022-ben bevezetett DSA kiemeli az EU jogalkotóinak egyre növekvő aggodalmát az ajánlórendszerek társadalmi hatásaival kapcsolatban. A DSA (70) preambulumbekezdése hangsúlyozza, hogy az ajánlórendszerek jelentős befolyást gyakorolnak a felhasználók online információkeresési és interakciós képességeire azáltal, hogy hozzájárulnak az üzenetek felerősítéséhez, az információk vírusszerű terjesztéséhez és az online viselkedés ösztönzéséhez.

A DSA 3. cikk s) pontja szerint ajánlórendszernek minősül minden olyan - teljes mértékben vagy részben - automatizált rendszer, amelyet az online platform arra használ, hogy az online interfészén konkrét információkat javasoljon, vagy ezeket az információkat rangsorolja a szolgáltatás igénybe vevője számára, többek között a szolgáltatás igénybe vevője által indított keresés alapján vagy egyéb módon meghatározva a megjelenített információk relatív sorrendjét vagy elsőbbségét.

A DSA nem csupán az "ajánlórendszerek" jogi fogalmát integrálja az EU szabályozási keretrendszerébe, hanem jelentős mértékben kiterjeszti az algoritmikus átláthatóságra vonatkozó hatályos rendelkezéseket is. Bár az egyes jogszabályok alkalmazási köre eltérhet, az ajánlórendszerek átláthatóságára vonatkozó szabályokat előíró Platform-to-Business (P2B) rendelet, a fogyasztói jogokról szóló irányelv (CRD), valamint az irányelv a tisztességtelen kereskedelmi gyakorlatokról (UCPD) elsősorban azon digitális platformokra vonatkoznak, amelyek a platformfelhasználók közötti gazdasági tranzakciók kezdeményezését és lebonyolítását segítik elő.

A DSA hatálya ugyanakkor valamennyi olyan online platformra kiterjed, amely ajánlórendszert alkalmaz, függetlenül attól, hogy az ajánlások konkrét tranzakciók megkönnyítésére irányulnak-e (ezek elsősorban ugyanis adatvezérelt vagy figyelempiaci szereplők, amelyeknek közös jellemzője a platformalapúság és a zéró áras üzleti

- 121/122 -

modell).[25] Ennek megfelelően az új átláthatósági kötelezettségek olyan platformokra is kiterjednek, mint például a X (korábbi Twitter), a Spotify vagy a Tinder. Az Európai Bizottság eredeti javaslata szerint ezen átláthatósági szabályok kizárólag az online óriásplatformokra vonatkoztak volna, amelyek havi legalább 45 millió aktív felhasználóval rendelkeznek. A trilógus tárgyalások során azonban ezen szabályok alkalmazási körét valamennyi online platformra kiterjesztették, függetlenül a felhasználói kör nagyságától.[26]

A végleges DSA 27. cikk (1) bekezdése az alábbi kötelezettséget írja elő: minden olyan online platform, amely ajánlórendszert használ, köteles általános szerződési feltételeiben világos és közérthető nyelvezettel feltüntetni az ajánlórendszerek működésének fő paramétereit, valamint azon lehetőségeket, amelyek révén a szolgáltatás igénybe vevői módosíthatják vagy befolyásolhatják ezen paramétereket. A DSA 27. cikk (1) bekezdése alapján kötelezi az online platformokat arra, hogy közérthető nyelvezettel ismertessék az általuk használt ajánlórendszerek legfontosabb paramétereit az általános szerződési feltételekben. Az (2) bekezdés tovább részletezi, hogy a legfontosabb kiválasztási szempontokat, valamint azok prioritási sorrendjének okait is meg kell adni. Fontos ugyanakkor hangsúlyozni, hogy az átláthatóság önmagában nem garantálja, hogy a felhasználók érdemben megértsék és kifogásolni tudják az ajánlórendszerek döntéseit. Ehhez további konkrét felhasználói kontrollmechanizmusokra is szükség van. Az ilyen mechanizmusokat a DSA 27. cikk (1) és (3) bekezdése részletezi. Az online platformoknak ismertetniük kell azokat az opciókat, amelyekkel a felhasználók módosíthatják vagy befolyásolhatják az ajánlórendszerek fő paramétereit, ha ilyen lehetőségek rendelkezésre állnak. A (3) bekezdés szerint, ha az ilyen opciók elérhetőek, ezeknek közvetlenül és könnyen hozzáférhetőnek kell lenniük. Fontos megjegyezni, hogy a DSA 27. cikke azonban nem írja elő az ilyen lehetőségek kötelező meglétét, csupán azok hozzáférhetőségét, ha már léteznek. Ugyanakkor a DSA 38. cikke minimumként megköveteli, hogy az online óriásplatformot vagy nagyon népszerű online keresőprogramot üzemeltető szolgáltatók kötelesek a felhasználóknak egy nem személyre szabott ajánlórendszert kínálni.

4. A felhasználói kontroll szintjei

A DSA 27. cikk (1) és (3) bekezdései értelmében a felhasználók az ajánlórendszerek feletti kontrollt három fő szakaszban gyakorolhatják: a bemeneti szint szerint a felhasználók személyes adataik módosításával befolyásolhatják, hogy az ajánlórendszer hogyan nyújtson számukra személyre szabott ajánlásokat; folyamat szinten módosíthatják az algoritmus működését meghatározó paramétereket; a kimeneti szinten megváltoztathatják az ajánlások megjelenítési sorrendjét.

- 122/123 -

4.1. A túlzott információterhelés kockázata

Az ajánlórendszerek "felhasználói ellenőrzési mechanizmusainak"[27] megtervezésekor a túlzott információterhelés elkerülése kulcsfontosságú. Egyensúlyt kell teremteni a felhasználóknak biztosított kontroll mértéke és az elfogadható kognitív terhelés között. Ha túl sok technikai információt közölnek az algoritmus működéséről vagy a felhasználói profilról, az túlterhelheti a felhasználókat, ami ellehetetlenítheti a felülvizsgálati lehetőségek gyakorlati alkalmazását. Ezáltal a 27. cikkben megfogalmazott követelmények hatékonysága csökkenhet vagy akár el is veszhet.[28]

A DSA kifejezetten az ajánlórendszerek felhasználói befolyásolhatóságának kérdésével foglalkozik, az online platformok felhasználóinak megerősítésével. Ennek egyik fő eszköze a már említett átláthatóság, amelyet a 27. cikk rögzít, különös tekintettel a tartalomra és a rangsorolásra. Ezért a DSA 27. cikkének egyik kiemelt célja, hogy a felhasználók megértsék, milyen módon kerülnek bizonyos információk előtérbe számukra, valamint hogyan befolyásolja az online viselkedésük egyes termékek, szolgáltatások vagy tartalmak ajánlását. Ugyanakkor ellentmondás figyelhető meg a 27. cikk által követett átláthatósági célkitűzés és aközött a tény között, hogy a felhasználók gyakran csak felületesen átfutják vagy teljesen kihagyják az online általános szerződési feltételeket, mivel azok gyakran hosszúak és nehezen érthetőek. A DSA előírja, hogy az ajánlórendszereket alkalmazó online platformok szolgáltatói "közérthető és világos nyelvezettel" ismertessék az ajánlórendszereik működését meghatározó fő paramétereket. Ezt az információt a platformok általános szerződési feltételeibe kell beépíteni. Ezen intézkedés célja, hogy a technikai szakszavakkal terhelt algoritmikus folyamatokat érthetővé tegye az átlagos felhasználó számára. A gyakorlati megvalósítás két szempontból is fontos: a jogszabályi megfelelés érdekében ugyanis a komplex algoritmikus folyamatokat közérthető módon kell lefordítaniuk. Az online platformoknak egyértelmű kommunikációs csatornákat kell biztosítaniuk, amelyek révén a felhasználók megérthetik, hogy milyen elvek alapján jelennek meg számukra a tartalmak. Az ajánlórendszerek átláthatóságát a DSA azáltal is előtérbe helyezi, hogy nemcsak a fő paraméterek ismertetését írja elő, hanem azok indoklását is. Ez magában foglalja azokat a kritériumokat, amelyek jelentős hatást gyakorolnak a felhasználók számára megjelenő információkra; az ezek közötti prioritási sorrend meghatározásának okait. Ez egyfajta algoritmikus elszámoltathatóság, amely túlmutat a puszta átláthatóságon. A szolgáltatóknak nemcsak az alkalmazott változókat kell feltárniuk, hanem azt is, hogy miért és milyen szempontok alapján fontosak ezek a változók. Ez különösen hasz-

- 123/124 -

nos eszközt jelenthet azok számára, akik vizsgálni kívánják, hogy az ajánlórendszerek milyen mértékben erősíthetnek fel rendszerszintű torzításokat vagy félretájékoztatást.

A felhasználói jogok megerősítésének egyik kulcsfontosságú eleme, hogy a 27. és 38. cikkben meghatározott követelményeken kívül az ajánlórendszereket használó online óriásplatformot vagy nagyon népszerű online keresőprogramot üzemeltető szolgáltatók minden ajánlórendszerük esetében legalább egy olyan lehetőséget biztosítanak, amely nem az (EU) 2016/679 rendelet 4. cikkének 4. pontja szerinti profilalkotáson alapul. A profilozás minden olyan automatizált adatfeldolgozási folyamatot magában foglal, amely egy személy bizonyos jellemzőit elemzi vagy előre jelzi - például viselkedési mintázatait vagy földrajzi helyzetét. Ez a követelmény kiemeli a felhasználói döntéshozatal szerepét, mivel alternatívát kínál a jelenleg domináns, adatvezérelt és gyakran átláthatatlan ajánlórendszerekkel szemben. A DSA tehát egyensúlyt teremt a következő szempontok között: adatvédelem és átláthatóság - a felhasználók nem feltétlenül szeretnék, hogy minden interakciójuk és adatuk befolyásolja az ajánlásokat. Emellett segíti az etikai aggályok kezelését is - az előrejelző algoritmusok gyakran hordoznak rejtett torzításokat, amelyeket így csökkenteni lehet. Ezenkívül ez az előírás technológiai innovációt is ösztönözhet, mivel arra késztetheti a vállalatokat, hogy olyan új tartalomajánlási módszereket fejlesszenek ki, amelyek nem támaszkodnak személyes profilozásra.[29] A DSA ugyanakkor nem írja elő, hogy az ajánlórendszerek alapértelmezés szerint ne alapuljanak profilalkotáson, jóllehet az Európai Adatvédelmi Felügyelő korábban ezt javasolta a DSA-val összefüggésben.[30] Ennek következtében az online platformok alkalmazhatnak olyan ajánlórendszereket, amelyek profilalkotáson alapulnak, és amelyek esetében ez az alapértelmezett beállítás. A DSA alapján az online óriásplatform és a nagyon népszerű online keresőprogram szolgáltatók kötelesek alternatívát biztosítani, azonban a felhasználónak továbbra is aktívan kell kikapcsolnia a profilalkotáson alapuló működést, amennyiben az alapértelmezésként be van állítva az adott platformon. A DSA (94) preambulumbekezdése rögzíti, hogy a profilalkotáson nem alapuló alternatíva kiválasztásának lehetőségét közvetlenül azon online felületen kell biztosítani, ahol a felhasználó az ajánlásokat megtekinti. Ez azt jelenti, hogy az olyan online óriásplatformok esetében, mint például a YouTube vagy a Facebook, az ajánlásokat tartalmazó felületen egyértelmű és jól látható módon - például egy gomb vagy legalább egy legördülő menü formájában - lehetőséget kell biztosítani arra, hogy a felhasználó olyan hírfolyamot válasszon, amely nem profilalkotáson, hanem például időrendi sorrenden alapul. Műszaki szempontból ez minden további nélkül megvalósítható. Tekintettel arra, hogy számos szolgáltató üzleti modellje jelentős mértékben a profilalkotáson alapuló működésből származó bevételre épül, a DSA által választott opt-out megközelítés kétségkívül egy enyhébb szabályozási megoldásnak tekinthető.[31]

- 124/125 -

Ezek az előírások jelentős mértékben átalakíthatják a felhasználók és az online platformok közötti interakciót, mivel megszüntethetik a felhasználók eddigi passzív szerepét az ajánlórendszerek működésében. A felhasználók ugyanis lehetőséget kapnak arra, hogy módosítsák az ajánlások paramétereit, és ezáltal közvetlenebb módon befolyásolják az általuk látott tartalmakat.

Hogyan hajtják végre a platformok ezeket az új jogi követelményeket? A folyamat jelenleg is zajlik, és a tapasztalatok vegyes képet mutatnak. Jól látható azonban, hogy a platformok eddig elsősorban az átláthatósági követelményekre helyezték a hangsúlyt, miközben a kontrollálhatóság gyakorlati biztosítása továbbra is hiányosnak mondható. Példaként említhető a Meta gyakorlata, ami részletes magyarázatokat vezetett be arról, hogy a Facebook és Instagram ajánlórendszereinek kimenetelei hogyan függenek a különböző tartalomtípusoktól (például Reels, Stories) és az ajánlási mechanizmusoktól (például Explore). Ezek az információk betekintést nyújtanak abba, hogy milyen jelek befolyásolják az ajánlásokat, lehetővé téve a felhasználók számára, hogy megértsék, saját viselkedésük és interakcióik miként befolyásolják az általuk látott tartalmakat.[32] A TikTok ezzel szemben egy általánosabb áttekintést nyújt az ajánlórendszereit befolyásoló paraméterekről.[33] Ez az információ azonban elengedhetetlen ahhoz, hogy a felhasználók tudatosabb kontrollt gyakorolhassanak a közösségi médiában megjelenített tartalmak felett.[34]

4.2. A felhasználói kontroll lehetőségei

A tényleges felhasználói beállítási lehetőségek terén azonban a felhasználók választási lehetőségei jelentősen korlátozottak, mivel a platformok csak szűk körű testreszabást tesznek lehetővé. A Meta platformjain a felhasználók csupán korlátozott számú indokot adhatnak meg arra vonatkozóan, hogy miért nem szeretnének látni egy adott tartalmat. Emellett lehetőségük van bizonyos kulcsszavakat vagy hashtageket megadni, amelyek alapján kiszűrhetik a nem kívánt tartalmakat. A TikTok hasonlóan működik, ugyanis a felhasználók az alkalmazás tartalombeállítási menüjében megadhatnak specifikus szavakat vagy hashtageket, amelyeket szeretnének kizárni a megjelenített tartalmak közül. Ez azonban nem biztosít további testreszabási lehetőségeket, így a Meta megközelítését követi, de nem kínál érdemi plusz opciókat. A Facebook, Instagram és TikTok (DSA 38. cikke alapján) lehetőséget biztosítanak arra is, hogy a felhasználók nem személyre szabott hírfolyamot válasszanak. Ugyanakkor felmerül a kérdés, hogy egy teljesen személyre szabás nélküli élmény mennyire hasznos a felhasználók számára, különösen figyelembe véve a releváns és érdekes tartalmak megjelenítésének szerepét a platformhasználati élményben.

- 125/126 -

Nyilvánvaló, hogy a DSA 27. cikk alkalmazása eddig elsősorban a felhasználók számára nyújtott átláthatósági követelmények teljesítésére [27. cikk (2)] korlátozódott, míg a felhasználói kontrollmechanizmusok végrehajtása [27. cikk (3)] a legtöbb esetben elmaradt. Úgy tűnik, hogy a platformok egy "minimalista" értelmezést[35] követtek, amely szerint a 27. cikk nem írja elő a felhasználói beállítási lehetőségek kötelező biztosítását, hanem csupán azok hozzáférhetővé tételét ott, ahol már léteznek.[36]

4.3. A felhasználói kontroll megvalósításának kihívásai

4.3.1. Felhasználói kontroll az adatok rangsorolási célú felhasználása felett

Az egyik lehetséges megközelítés az, hogy a felhasználók dönthessenek arról, hogy milyen adatok szolgálnak a személyre szabás alapjául. Ez elsősorban azt jelentené, hogy a felhasználók maguk választhatnák meg, hogy profiladataik és implicit preferenciáik (például viselkedési jelek, interakciók) felhasználásra kerüljenek-e az ajánlórendszer által a tartalom személyre szabásához. Az ilyen beállítások lehetőséget adnának a felhasználóknak arra, hogy jobban megértsék, mit "gondol" róluk az ajánlórendszer, és hogy kizárhassák a viselkedési profilozásból fakadó ajánlásokat, amelyek eltérhetnek a tényleges vagy tudatosan kifejezett preferenciáiktól. Másodszor, a felhasználók dönthetnének arról is, hogy milyen preferenciákat vegyen figyelembe az ajánlórendszer a személyre szabás során. Bár számos tervezési stratégia létezik az ajánlások és a felhasználói preferenciák összehangolására, ezt az összhangot hatékonyabban lehetne biztosítani a "személyes címkék" (personal tags) operacionalizálásával. Ezek olyan leíró kulcsszavak vagy címkék, amelyek további információt nyújtanak a felhasználó feltételezett érdeklődési köréről. Kína már alkalmazza ezt a megközelítést: a platformok jogszabályi előírás alapján kötelesek biztosítani a felhasználók számára a lehetőséget, hogy kiválasszák vagy eltávolítsák az őket azonosító címkéket. A Douyin, avagy a kínai TikTok, például makrokategóriákba sorolja az érdeklődési területeket, mint például: "Humán tudományok", "Utazás", "Gasztronómia". Ezeken belül további alkategóriák érhetők el. Például a "Gasztronómia" kategória további részekre bontható, mint: "Éttermek felfedezése", "Különleges fogások élvezete", "Hagyományos snackek", "Hozzávalók vásárlása".[37] Amikor egy felhasználó kiválaszt egy kategóriát vagy alkategóriát, lehetősége van meghatározni az érdeklődése prioritását, amely alapján az adott preferencia nagyobb vagy kisebb súllyal esik latba az ajánlórendszer működésében. Bizonyos szempontból ezek a funkciók hasonlítanak a hirdetéskezelési beállításokra, amelyeket például a Google biztosít felhasználóinak.[38] Részben ezek a címkék és beállítások megfelelhetnek a DSA által előírt transzparencia követelményeknek, amely szerint a platformoknak közérthetően ismertetniük kell ajánlási kritériumaikat.

- 126/127 -

A felhasználók dönthetnek arról is, hogy specifikus érdeklődési körök alapján módosítsák az ajánlórendszerek kritériumait. Az Instagramon például a felhasználók korlátozhatják a "érzékeny tartalmak" és a "politikai tartalmak" ajánlásait olyan fiókoktól, amelyeket nem követnek. A TikTok lehetőséget biztosít arra, hogy a felhasználók növeljék a tudomány, technológia, mérnöki tudományok és matematika (STEM) témájú oktatóvideók[39] megjelenítését a hírfolyamukban. Bár ezek a funkciók hasznosak lehetnek, "önkényes módon" kerültek bevezetésre, és nem igazodnak szorosan az EU szabályozás által meghatározott előírásokhoz.[40] Ezek a funkciók nem jogszabályi előírás alapján, hanem a platformok saját döntése nyomán jelentek meg - például üzleti megfontolásokból vagy a felhasználói elégedettség javítása érdekében. A szolgáltatók maguk határozzák meg, hogy milyen típusú tartalmakra, milyen mértékben biztosítanak szűrési vagy beállítási lehetőséget, ami országonként, célcsoportonként vagy időszakonként eltérhet. Ráadásul a felhasználók sok esetben nem kapnak világos tájékoztatást arról, hogy ezek a beállítások pontosan hogyan működnek.

4.3.2. A felhasználói visszajelzés és annak kihívásai

A felhasználók közvetlen visszajelzése (például kedvelések, elutasítások, "nem érdekel" jelzések egy adott tartalomra vagy témára) kulcsszerepet játszik az ajánlórendszerek működésének befolyásolásában. A DSA azonban ezt a kérdést figyelmen kívül hagyta. A legtöbb esetben ezek a beállítások nehezen hozzáférhetők, nem eléggé részletesek, vagy csak az alkalmazásban érhetők el, de a böngészős verzióban nem. Nem világos, hogy a felhasználói visszajelzések hogyan és milyen mértékben befolyásolják az ajánlásokat. Míg a platformok technikailag kiterjeszthetnék a visszajelzési lehetőségeket, továbbra is kérdéses, hogy milyen módon tennék ezt meg. Független auditokra lenne szükség annak ellenőrzésére, hogy ezek az eszközök valóban hatékonyak-e (DSA 37. cikk). A hatékonyság ebben az összefüggésben azt jelenti, hogy a visszajelzések valóban képesek-e érdemben befolyásolni az ajánlórendszer működését, illetve hogy a felhasználók számára érzékelhető-e az eredmény. Ennek megítélése különösen nehéz a felhasználói passzivitás vagy tudatosság hiánya esetén.

5. Az ajánlórendszerek árnyoldalai

2024. október 2-án az Európai Bizottság információkérést nyújtott be a YouTube, Snapchat és TikTok számára a DSA alapján. A megkeresés célja, hogy részletesebb betekintést kapjon az online platformok ajánlórendszereinek felépítésébe és működésébe, különös tekintettel az algoritmusok által alkalmazott paraméterekre. Az Európai Bizottság vizsgálni kívánja, hogy ezek a rendszerek milyen módon erősítenek fel bizonyos rendszerszintű kockázatokat, beleértve a választásokkal és közéleti diskurzussal kapcsolatos problémákat, a felhasználók mentális egészségére gyakorolt hatásokat

- 127/128 -

(például függőséget okozó viselkedések és az ún. nyúlüreg hatás[41]), valamint a kiskorúak védelmét.

Fontos ugyanakkor elkülöníteni ezt a DSA alapján indult vizsgálatot más, különböző jogalapokon nyugvó eljárásoktól. 2024 márciusában például az olasz hatóság bírságot szabott ki a TikTok számára a UCPD megsértése miatt. Ez az eljárás főként a platform ajánlórendszeréhez kapcsolódó, függőséget kiváltó tervezési elemekre irányult, de túlmutatott az algoritmusok működésén: a határozat tágabb értelemben vizsgálta a platform felelősségét a káros tartalmak terjesztésében, különösen a kiskorúakat és serdülőket érintő kontextusban. A döntés az ilyen tervezési gyakorlatokat agresszívnek minősítette, mivel azok aránytalanul befolyásolják a felhasználókat, és kihasználják egyes felhasználói csoportok - például a fiatalok - sérülékenységét.[42]

A fentiekkel részben tematikus átfedésben, de eltérő szabályozási logika mentén jelenik meg az Európai Unió mesterséges intelligenciáról szóló rendelete (a továbbiakban: AI Act),[43] amely egyes gyakorlatokat kifejezetten tilt. Az AI Act tiltja olyan mesterséges intelligencia rendszerek alkalmazását, amelyek tudatalatti befolyásolási technikákra, célzottan manipulatív vagy megtévesztő eljárásokra épülnek, különösen akkor, ha ezek a felhasználók életkorából, fogyatékosságából vagy társadalmi-gazdasági helyzetéből fakadó sérülékenység kihasználásán keresztül jelentős kárt okoznak, vagy megalapozottan feltételezhető, hogy okoznának.

Az AI Act azt is hangsúlyozza, hogy azokra a gyakorlatokra, amelyek nem tartoznak közvetlenül a tilalmak hatálya alá, más uniós jogszabályok - például a GDPR, a fogyasztóvédelmi szabályok, különösen az UCPD, illetve a DSA - is alkalmazhatók lehetnek. Ezek a szabályozások egymást kiegészítve, komplementer módon járulnak hozzá a felhasználók védelméhez és a digitális környezet biztonságosabbá tételéhez.

A platformoknak ismertetniük kell azokat az intézkedéseket, amelyeket a DSA-ban meghatározott rendszerszintű kockázatok mérséklésére tettek. Ilyen kockázat például a dezinformáció terjedése, a kiskorúakat érintő káros tartalmak megjelenése, a mentális egészségre gyakorolt negatív hatások - például addiktív funkciók vagy algoritmikus torzítások -, valamint az alapvető jogok sérelme, mint a diszkrimináció vagy a véleménynyilvánítás szabadságának korlátozása. Például az algoritmikus torzítás minden ilyen rendszerszintű kockázatban megnyilvánulhat, például egyes vélemények szisztematikus vagy olykor "láthatatlan" eltávolításában (shadowbanning, avagy ár-

- 128/129 -

nyékletiltás).[44] A DSA (55) preambulumbekezdése továbbá rögzíti, hogy a láthatóság korlátozása történhet még a rangsorolásban, ajánlórendszerekben való hátrébb sorolással, valamint a hozzáférés korlátozásával.

A DSA célja, hogy ezekre a problémákra proaktív kockázatkezelési mechanizmusokat írjon elő az online óriásplatformot vagy nagyon népszerű online keresőprogramot üzemeltető szolgáltató számára. Amennyiben a platformok nem szolgáltatnak megfelelő adatokat ezekről az intézkedéseikről - például ha hiányos, pontatlan vagy félrevezető jelentést nyújtanak be -, az Európai Bizottság formális vizsgálati eljárást indíthat (DSA 66. cikk). Súlyosabb esetekben ez akár bírság kiszabásához is vezethet [DSA 74. cikk (2)]. Ez azt is jelenti, hogy a kockázatkezelési kötelezettség nem csupán formai, hanem érdemi vizsgálat tárgyát képezheti: a hatóságok nemcsak azt nézik, hogy a platform jelentett-e valamit, hanem azt is, hogy a jelentésben szereplő lépések valósak, arányosak és hatékonyak-e.[45]

A DSA 69. cikk (2) bekezdés d) pontja továbbá felhatalmazást ad az Európai Bizottság számára arra, hogy az online óriásplatformot vagy nagyon népszerű online keresőprogramot üzemeltető szolgáltatótól információt kérjen az érintett platform szervezeti felépítéséről, működéséről, informatikai rendszeréről, algoritmusairól, adatkezelési és üzleti gyakorlatáról, valamint ezek magyarázatát is, továbbá, hogy e magyarázatokat rögzítse vagy dokumentálja.

Ez a jogosítvány elsősorban a digitális vállalatok sajátosságaival magyarázható, ugyanis ezek szervezeti struktúrája, működése, különösen pedig technikai infrastruktúrája külső szereplők számára nem, vagy csak nehezen átlátható, nem hozzáférhető, illetve nem értelmezhető. E vonatkozásban a DSA 69. cikk (2) bekezdés b) pontjában rögzített általános vizsgálati jogosítvány sajátos formájának tekinthető, egyfajta digitális vizsgálati jogosultságként értelmezhető. Ez az intézkedés az érintett szolgáltató digitális vagyoni elemeinek átfogó vizsgálatára irányul, ideértve a kiszervezett felhőkapacitásokat és olyan érzékeny információkat is, mint a platform algoritmusai. A vizsgálat helyszíni ellenőrzés formájában történik, de nem korlátozódik a helyben tárolt adatokra. A "magyarázathoz való jog" - és a kapcsolódó dokumentációs kötelezettség - ugyanakkor ennél is tovább megy, figyelembe veszi azt a tényt, hogy a komplex online platformok és keresőmotorok architektúrája még a Bizottság szakértői számára is "fekete dobozként" viselkedhet, ami megnehezítheti, sőt akár ellehetetlenítheti a DSA rendelkezéseinek hatékony végrehajtását. A DSA 69. cikk (2) bekezdés d) pontja tehát, biztosítja a Bizottság számára a kellő szintű technikai átláthatósághoz való jogot a platform vagy keresőmotor működését illetően, amennyiben az a jogsértéssel összefüggésben releváns. Az ellenőrzés címzettjeinek ezért képesnek és hajlandónak kell lenniük arra, hogy a Bizottság számára érthető és értelmezhető módon bemutassák az

- 129/130 -

érintett rendszerek működését - beleértve a szoftverarchitektúrát is, amely jellemzően az ellenőrzés középpontjában áll.

6. Egyéb jogszabályok alkalmazása az ajánlórendszerekre

Az online platformok számára a DSA ajánlórendszerekre vonatkozó szabályai hasonlóságot mutatnak a már meglévő kötelezettségeikkel, amelyeket a P2B rendelet ír elő, és amely 2020-ban lépett hatályba. Míg a DSA azzal foglalkozik, hogy a személyre szabott ajánlások hogyan jönnek létre az online felhasználói viselkedés alapján, addig a P2B rendelet az online platformok által alkalmazott algoritmusokra összpontosít, amelyek meghatározzák az üzleti felhasználók által kínált termékek és szolgáltatások láthatóságát és kiemeltségét.[46] A P2B rendelet kevésbé az online felhasználói viselkedést veszi alapul, hanem inkább a termékek és szolgáltatások rangsorolására helyezi a hangsúlyt, például az alábbi szempontok alapján: vizuális kiemelések, vásárlói értékelések és vélemények, anyagi ellenszolgáltatás (például fizetett promóciók). Ez a megközelítés üzleti felhasználói szempontból indokolt, mivel az 5. cikk célja, hogy növelje az előrejelezhetőséget az üzleti felhasználók számára. Ennek révén az üzleti szereplők jobban megérthetik az ajánlórendszerek működését, és összehasonlíthatják azokat más online platformokkal. Ez lehetőséget biztosít számukra arra, hogy tudatosan válasszák ki, melyik platformon kívánják termékeiket vagy szolgáltatásaikat értékesíteni. Ha az üzleti felhasználók tisztában vannak azzal, hogyan kerülnek rangsorolásra a termékek és szolgáltatások, akkor javíthatják saját megjelenítésüket, ezáltal növelhetik üzleti sikerüket. Ahogyan a DSA, úgy a P2B rendelet is előírja, hogy az online platformoknak általános szerződési feltételeikben ismertetniük kell, hogy az üzleti felhasználók milyen módon tudják aktívan befolyásolni a rangsorolást. Azonban van egy lényeges különbség: a P2B rendelet csak azt szabályozza, hogy az üzleti felhasználók pénzügyi ellenszolgáltatás révén hogyan tudják befolyásolni a rangsorolást. Ezzel szemben a DSA egy ennél szélesebb jogot biztosít: lehetőséget ad az online preferenciák módosítására is, nemcsak a rangsorolás befolyásolására fizetett promóciókkal. Ez azt jelenti, hogy míg a P2B rendelet főként az üzleti szereplők kiszámíthatóbb működését és a piaci versenyt segíti elő, a DSA elsődleges célja a végfelhasználók jogainak erősítése és az ajánlórendszerek feletti kontroll biztosítása.[47] Az P2B rendelet szerint a rangsorolás az online közvetítő szolgáltatásokon kínált áruk és szolgáltatások relatív kiemelését és strukturálását jelenti. A DMA[48] is tartalmaz a rangsorolásra vonatkozó szabályokat, de ezek elsősorban versenyjogi megfontolásokat tükröznek: a kapuőröknek átlátható, tisztességes és megkülönböztetésmentes feltételeket kell biztosítaniuk, és nem részesíthetik előnyben saját szolgáltatásaikat. Ezzel szemben a DSA nem gazdasági, hanem

- 130/131 -

társadalmi és közérdekű szempontok alapján szabályozza az ajánlórendszerek működését, így azokra szélesebb körű és részletesebb követelményeket határoz meg, különösen az átláthatóság, felhasználói autonómia és kockázatkezelés területén. A DMA (52) preambulumbekezdése hangsúlyozza, hogy a rangsorolás fogalma "minden relatív kiemelési formát magában foglal, beleértve a megjelenítést, értékelést, összekapcsolást vagy hangalapú eredményeket."[49] Ebben az összefüggésben a DMA egy érdekes pontosítást tesz, miszerint a rangsorolás magában foglalhatja azokat az eseteket is, amikor egy alapvető platformszolgáltatás kizárólag egyetlen eredményt jelenít meg vagy közvetít a végfelhasználó felé. Első ránézésre ez ellentmondásosnak tűnhet, azonban valószínűleg az az oka, hogy a DMA által szabályozott "alapvető platformszolgáltatások" közé tartoznak a virtuális asszisztensek is. Amikor a fogyasztók virtuális asszisztenseket használnak online vásárlásra, az Amazon Alexa és más hang vezérelt eszközök nem olvasnak fel hosszú, rangsorolt terméklistákat, hanem csupán egyetlen ajánlatot jelenítenek meg (mint az "Amazon's Choice" ajánlat). Ez bizonyos értelemben a rangsorolás fogalmának egy szélsőséges alkalmazását jelenti. A DSA más terminológiát alkalmaz, és a "recommender system" (ajánlórendszer) technikai kifejezést használja. A különböző megfogalmazás ellenére a szabályozás tartalma lényegében megegyezik a többi jogszabályszöveggel, amelyek a "rangsorolás" fogalmát alkalmazzák, mint például a P2B és a DMA is. A DSA célja sem különbözik más jogi eszközöktől, ugyanis azon rendszerek szabályozását célozza, amelyek meghatározzák a "relatív kiemelés sorrendjét" és így döntési architektúrát alakítanak ki a platformfelhasználók számára. Mindezek alapján megállapítható, hogy a különböző terminológia ellenére a releváns jogszabályok egy fontos közös jellemzővel rendelkeznek: nem tesznek különbséget az ajánlórendszerek típusai között (például tartalom alapú, tudásalapú, együttműködésen alapuló vagy hibrid rendszerek). Ehelyett technológiasemleges megközelítést alkalmaznak, és kizárólag az ajánlórendszerek kimenetére összpontosítanak, azaz arra, hogy milyen "relatív sorrendet" vagy "kiemelést" hoznak létre.[50]

7. Kockázatértékelés szerepe az átláthatóságban

A szolgáltatóknak átfogó kockázatértékeléseket kell végezniük, különös tekintettel a platformjaikon jelentkező rendszerszintű kockázatokra. Ennek részeként elemezniük kell, hogy az ajánlórendszerek és egyéb algoritmusok hogyan befolyásolják ezeket a kockázatokat. Ez különösen fontos a dezinformáció és káros tartalmak terjedésének vizsgálatakor, amelyeket az algoritmusok akár felerősíthetnek. A DSA előírja, hogy a

- 131/132 -

platformoknak fel kell tárniuk a szolgáltatás szándékos manipulációjából eredő kockázatokat, például botok vagy csalárd tevékenységek révén történő dezinformációt. Ez biztosítja, hogy ne csak az algoritmusok hibái, hanem az azokkal kapcsolatos rosszindulatú visszaélések is megfelelő figyelmet kapjanak az online platformok részéről. Az online óriásplatformok és a nagyon népszerű online keresőmotor szolgáltatók évente kötelesek jelentést készíteni a rendszerszintű kockázatok csökkentése érdekében tett lépéseikről, beleértve az ajánlórendszereik módosítását és azok hatását. Ezzel összefüggésben érdemes megemlíteni, hogy a legnagyobb platformok - köztük a Meta és a TikTok - már közzétették első jelentéseiket a DSA 34-35. cikke alapján. Ezekből kiderül, hogy milyen konkrét lépéseket tettek az ajánlórendszerek átalakítására, például a dezinformációs tartalmak terjedésének visszaszorítására vagy a nem profilalapú ajánlások elérhetővé tételére. A jelentések ugyanakkor jelentős eltéréseket mutatnak abban, hogy a platformok milyen részletességgel számolnak be ezek hatásairól - ami további szabályozási kérdéseket is felvet. A Meta 2024. évi DSA kockázatkezelési jelentése szerint a Facebook és az Instagram algoritmusait módosították annak érdekében, hogy azok "ne járuljanak hozzá a gyorsan, vírusszerűen terjedő dezinformáció automatikus felerősítéséhez".[51] Ez arra utal, hogy a platform tudatosan próbálja csökkenteni az olyan tartalmak elérését, amelyek gyorsan terjednek, de alacsony megbízhatóságú forrásból származnak. Ugyanakkor a jelentés nem részletezi, hogy pontosan milyen mechanizmusokon keresztül történik ez a szűrés, illetve hogy a módosítások menynyire befolyásolják a felhasználói élményt vagy a tartalom sokféleségét. Ez felveti az átláthatóság és az elszámoltathatóság kérdését: a felhasználók és szabályozók számára továbbra sem világos, milyen konkrét beavatkozások történnek az algoritmus szintjén, és azok milyen eredményre vezetnek.

A TikTok jelentésében ezzel szemben egy proaktív tartalomirányítási példát emelnek ki: a STEM (tudomány, technológia, mérnöki tudományok, matematika) témájú tartalmakra létrehozott dedikált hírfolyamot. A "STEM feed" célja, hogy növelje a megbízható, oktató jellegű videók arányát a felhasználói ajánlások között, és ezzel alternatívát kínáljon a káros vagy dezinformációs tartalmakkal szemben.[52] Ez a megközelítés pozitív ösztönzést jelent a tartalomajánlás szintjén, és jól illusztrálja, hogy az algoritmikus tervezés nemcsak korlátozásra, hanem tartalomkiemelésre is alkalmas lehet. Ugyanakkor itt is felmerül a kérdés, hogy milyen algoritmikus logika szerint válogat a rendszer, és hogy valóban eléri-e a kívánt célközönséget.

8. Összefoglalás: Út a valódi átláthatóság felé?

A DSA történelmi változást hozhat az online platformok felhasználói élményében, de ennek eléréséhez szükség lenne egyértelmű iránymutatásokra, magatartási kódexre vagy akár felhatalmazáson alapuló jogi aktusokra, amelyek részletezik, hogyan kell biztosítani az ajánlórendszerek átláthatóságát és felhasználói kontrollját.

- 132/133 -

A DSA által előírt átláthatósági kötelezettségek - különösen a 27. és 38. cikk - fontos újításként jelennek meg, mivel előírják, hogy az online platformok közérthető formában tájékoztassák a felhasználókat az általuk alkalmazott ajánlórendszerek fő paramétereiről, illetve kínáljanak lehetőséget nem profilalapú ajánlások választására. Ugyanakkor ezek a szabályozások - bár előrelépést jelentenek - nem biztosítanak tényleges felhasználói kontrollt, különösen annak fényében, hogy a DSA nem írja elő kötelező jelleggel az alternatív beállítások biztosítását, csupán azok elérhetőségét ott, ahol már léteznek.

Az ajánlórendszerek működéséről szóló magyarázatok ugyan hasznosak lehetnek, önmagukban nem elegendőek, ha ezek nem társulnak érdemi felhasználói kontrollal. Az algoritmusok működéséről adott technikai magyarázatok gyakran túlságosan összetettek a laikus felhasználók számára, így azok nem segítik elő a tudatos döntéshozatalt. Ezért szükség lenne egyszerűbb, interaktívabb és személyre szabható mechanizmusokra, amelyek révén a felhasználók valós befolyást gyakorolhatnának arra, hogy milyen szempontok alapján kapnak ajánlásokat. A szabályozás hatékonysága csak akkor érvényesülhet, ha a felhasználók számára nemcsak információt biztosítanak az algoritmusok működéséről, hanem gyakorlati, közérthető és hozzáférhető eszközöket is nyújtanak az ajánlási folyamat alakításához. A jelenlegi online platformok által bevezetett átláthatósági és felhasználói kontrollmechanizmusok egyelőre csak "látszatátláthatóságot" (transparency washing)[53] eredményeznek, valódi befolyásolási lehetőség nélkül.[54] Éppen ezért a jogalkotóknak a jövőbeli jogi szabályozás továbbfejlesztésekor szem előtt kell tartaniuk a technológiai, társadalmi és pszichológiai tényezőket egyaránt, mivel az algoritmikus rendszerek hatása komplex módon jelenik meg az online térben. ■

JEGYZETEK

[1] Az Európai Parlament és a Tanács (EU) 2022/2065 rendelete (2022. október 19.) a digitális szolgáltatások egységes piacáról és a 2000/31/EK irányelv módosításáról (digitális szolgáltatásokról szóló rendelet), HL L 277., 2022.10.27, pp. 1-102.

[2] Az "algoritmus" kifejezés nem értelmezhető akként, mintha az algoritmus önálló döntéshozatali képességgel rendelkezne. A jogalkotó csupán egy általánosan elterjedt technikai terminológiát vett át. Az algoritmikus döntéshozatal alatt minden olyan automatizált mechanizmust érteni kell, amely során a döntéshozatal legalább részben automatizált módon, emberi beavatkozás nélkül történik. Ennek megfelelően nem feltétele a fogalom alkalmazhatóságának, hogy az érintett eljárás különösen komplex algoritmikus struktúrán alapuljon, vagy megfeleljen az Európai Bizottság által az AI Act-ben meghatározott mesterséges intelligencia rendszerekre vonatkozó feltételeknek. Már az is elég, ha valamilyen egyszerű, automatizált megoldást alkalmaznak, például egy egyszerű szabályalapú programot. Ld. erről Benjamin Raue: Art 14 - Allgemeine Geschäftsbedingungen. In: Franz Hofmann - Benjamin Raue (szerk.): Digital Services Act. Nomos, Baden-Baden, 2023. 259.

[3] Sergio Genovesi - Katharina Kaesling - Scott Robbins: Introduction: Understanding and Regulating AI-Powered Recommender Systems. In: Sergio Genovesi - Katharina Kaesling - Scott Robbins (szerk.): Recommender Systems: Legal and Ethical Issues. (The International Library of Ethics, Law and Technology 40) Cham, Springer, 2023. 2. https://doi.org/10.1007/978-3-031-34804-4_1

[4] Ld. erről Fleur Jongepier - Michael Klenk (szerk.): The Philosophy of Online Manipulation. (Routledge Research in Applied Ethics) Routledge, 2022.; valamint Daniel Susser - Beate Roessler - Helen Nissenbaum: Technology, Autonomy, and Manipulation. Internet Policy Review, Vol. 8., No. 2. (2019).

[5] Urbano Reviglio: Serendipity by Design? How to Turn from Diversity Exposure to Diversity Experience to Face Filter Bubbles in Social Media. In: International Conference on Internet Science. Cham, Springer, 2017. 281-300. https://doi.org/10.1007/978-3-319-70284-1_22

[6] Ld. bővebben: Francesco Ricci - Lior Rokach - Bracha Shapira (szerk.): Recommender Systems Handbook (2nd ed.) Cham, Springer, 2015.

[7] Dagmar Gesmann-Nuissl - Sebastian Meyer: Black Hole Instead of Black Box? The Double Opaqueness of Recommender Systems on Gaming Platforms and Its Legal Implications. In: Genovesi-Kaesling-Robbins (szerk.) i. m. 64-65. https://doi.org/10.1007/978-3-031-34804-4_4

[8] Gediminas Adomavicius - Alexander Tuzhilin: Toward the Next Generation of Recommender Systems: A Survey of the State-of-the-Art and Possible Extensions. IEEE Transactions on Knowledge and Data Engineering, Vol. 17., No. 6. (2005) 734-749. https://doi.org/10.1109/TKDE.2005.99

[9] Uo.

[10] Yang Wang - Michal Kosinski - David Stillwell - John Rust - Thore Graepel: Modeling and Predicting Personality with Social Media. International Conference on Artificial Intelligence and Statistics (AISTATS), Vol. 31. (2013).

[11] Jennifer Cobbe - Jatinder Singh: Regulating Recommender Systems: Transparency, Fairness, and Accountability. Computer Law & Security Review, Vol. 35., No. 5. (2019) 105342. https://doi.org/10.1016/j.clsr.2019.105342

[12] Paddy Leerssen: The Soap Box as a Black Box: Regulating Transparency in Social Media Recommender Systems. European Journal of Law and Technology, Vol. 11., No. 2. (2020).

[13] Gesmann-Nuissl-Meyer i. m. 65-66.; valamint Wang et al. i. m.

[14] AI Act 3. cikk 1. pont értelmében a mesterséges intelligencia rendszer olyan "gépi alapú rendszer, amelyet különböző autonómiaszinteken történő működésre terveztek, és amely a bevezetését követően alkalmazkodóképességet tanúsíthat, és amely a kapott bemenetből - explicit vagy implicit célok érdekében - kikövetkezteti, miként generáljon olyan kimeneteket, mint például előrejelzéseket, tartalmakat, ajánlásokat vagy döntéseket, amelyek befolyásolhatják a fizikai vagy a virtuális környezetet."

[15] Genovesi-Kaesling-Robbins i. m. 2-4.

[16] Például ezzel foglalkozik Christoph Molnar: Interpretable Machine Learning: A Guide for Making Black Box Models Explainable. München, 2022.

[17] Thomas Hupperich et al.: An Empirical Study on Price Differentiation Based on System Fingerprints. arXiv, 2017.

[18] Gesmann-Nuissl-Meyer i. m. 64-65.

[19] Uo.

[20] The YouTube Team: An update on our efforts to protect minors and families. YouTube OfficialBlog, Jun. 3, 2019. https://blog.youtube/news-and-events/an-update-on-our-efforts-to-protect/

[21] Ezekről részletesen írnak az alábbi szerzők: Papp János Tamás: Ajánlórendszerek és szűrőbuborékok. In: Koltay András - Szikora Tamás - Lapsánszky András (szerk.): A vadnyugat vége? Tanulmányok az Európai Unió platformszabályozásáról. Budapest, ORAC, 2024. 231-259.; valamint Gálik Mihály: Visszhangkamrák és szűrőbuborékok. A hírfogyasztásról szóló vita a digitális hálózati média-ökoszisztéma világában. Médiakutató, 2020/1.

[22] 2025. február 13-án az Európai Bizottság és a Digitális Szolgáltatások Európai Testülete hivatalosan jóváhagyta a dezinformáció elleni magatartási kódex integrálását a DSA keretrendszerébe. A dezinformáció visszaszorítását célzó 2022. évi gyakorlati kódex értelmében: "A dezinformáció olyan bizonyítottan hamis vagy félrevezető információ, amelyet gazdasági haszonszerzés vagy a nyilvánosság szándékos megtévesztése céljából hoznak létre, terjesztenek, és amely közösségi kárt okozhat (például a demokratikus folyamatokra vagy közjavakra - egészség, környezet, biztonság - gyakorolt hatás révén)." Ld. bővebben: Mezei Kitti - Szentgáli-Tóth Boldizsár: Az online platformok használatában rejlő veszélyek: a dezinformáció és a kibertámadások jogi kockázatai. In: Török Bernát - Ződi Zsolt (szerk.): Az internetes platformok kora. Budapest, Ludovika, 2022. 319-340.

[23] Ld. erről bővebben: Papp János Tamás: A hamis hírek alkotmányos helyzete és szerepe a demokratikus nyilvánosság befolyásolásában. In Medias Res, 2020/1. 141-164.; valamint Falyuna Nóra: Az online dezinformáció és hatásai. In Medias Res, 2024/1. 42-74.

[24] Margaret Hu: Cambridge Analytica's black box. Big Data & Society, Vol. 7., No. 2. (2020) https://doi.org/10.1177/2053951720938091

[25] Tóth András: A tisztességes adatkereskedelmet biztosító szabályozás szükségességéről. Állam- és Jogtudomány, 2021/3. 101-102.

[26] Christoph Busch: From Algorithmic Transparency to Algorithmic Choice: European Perspectives on Recommender Systems and Platform Regulation. In: Sergio Genovesi - Katharina Kaesling - Scott Robbins (szerk.): Recommender Systems: Legal and Ethical Issues. Springer Verlag, 2023. 46.

[27] A tanulmányban az "ellenőrzési mechanizmus" olyan eljárásokat és funkciókat jelöl, amelyek lehetővé teszik a felhasználók számára, hogy az ajánlórendszerek által generált tartalomra vagy ajánlásokra visszajelzést adjanak, azokat vitassák, illetve személyre szabják. E fogalom túlmutat a DSA-ban található "panaszkezelési mechanizmusok" fogalmán, mivel nemcsak jogorvoslatot, hanem a rendszer működésébe való transzparens betekintést és a felhasználói visszacsatolás beépítését is magában foglalja.

[28] Christopher Starke - Ljubiąa Metikoą - Natali Helberger - Claes de Vreese: Contesting personalized recommender systems: a cross-country analysis of user preferences. Information, Communication & Society, Vol. 28., No. 1. (2025) 1-20. https://doi.org/10.1080/1369118X.2024.2363926

[29] Leo Moore - Barry Scannell: For You: AI Recommender Systems and the Digital Services Act. Lexology, October 6, 2023. https://tinyurl.com/3wz26zmp

[30] Opinion 1/2021 on the Proposal for a Digital Services Act. EDPS, 10 February, 2021. https://tinyurl.com/tbmvuyxx

[31] Boris Kandov: Regulatory Approaches or Algorithms on Online Platforms in the Digital Services Act. ELTE Law Journal, 2024/2. 136.

[32] Meta Transparency - A rangsoroláshoz használt megközelítésünk. . https://transparency.meta.com/features/explaining-ranking/

[33] TikTok Support - How TikTok Recommends Content. https://tinyurl.com/2ssvrxae

[34] Urbano Reviglio - Matteo Fabbri: The Regulation of Recommender Systems Under the DSA: A Transition from Default to Multiple and Dynamic Controls? DSA Observatory, November 22, 2024. https://tinyurl.com/29f2esz4

[35] Starke-Metikoą-Helberger-de Vreese i. m.

[36] Reviglio-Fabbri i. m.

[37] Shilin Song: Douyin Advertising: a Step by Step Guide. WalkTheChat, February 9, 2022. https://walkthechat.com/douyin-advertising-a-step-by-step-guide/

[38] Google My Ad Center. https://myadcenter.google.com/home

[39] TikTok Support - STEM Feed. https://support.tiktok.com/en/using-tiktok/exploring-videos/stem-feed

[40] Reviglio-Fabbri i. m.

[41] A nyúlüreg hatás: a felhasználókat egy algoritmus alapján olyan, egymáshoz kapcsolódó, folyamatosan frissülő tartalommal látják el, amelyek ismétlődése és egymásra épülése könnyen függőséghez vezethet. A kifejezés utalás az angolszász nyelvterületen általánosan ismert Alice's Adventures in Wonderland mesére, mert a csodaországba Alice a nyúl üregén át jut be.

[42] AGCM Press Release on Digital Services. Autorità Garante della Concorrenza e del Mercato, 2024. március.

[43] Az Európai Parlament és a Tanács (EU) 2024/1689 rendelete (2024. június 13.) a mesterséges intelligenciára vonatkozó harmonizált szabályok megállapításáról, valamint a 300/2008/EK, a 167/2013/EU, a 168/2013/EU, az (EU) 2018/858, az (EU) 2018/1139 és az (EU) 2019/2144 rendelet, továbbá a 2014/90/ EU, az (EU) 2016/797 és az (EU) 2020/1828 irányelv módosításáról (a mesterséges intelligenciáról szóló rendelet), HL L, 2024/1689, 2024.7.12.

[44] Corinne Jones: Search Engine Discourse Analysis: How 'Shadowban' Affects Policy. Information Communication & Society, Vol. 27. (2023) 1025-1042.; valamint Gergely Ferenc Lendvai - Gergely Gosztonyi: Algorithmic Bias as a Core Legal Dilemma in the Age of Artificial Intelligence: Conceptual Basis and the Current State of Regulation. Laws, Vol. 14., No. 41. (2025) 7.

[45] Commission Sends Requests for Information to YouTube, Snapchat, and TikTok on Recommender Systems under the Digital Services Act. European Commission, 2 October, 2024. https://tinyurl.com/4pzm2x8v

[46] Ld. erről Ződi Zsolt: Platformjog és felhasználóvédelem. Gazdaság és Jog, 2022/3-4. 15-18.

[47] Anna-Lena Kempf - Michelle Seel: How the Digital Services Act Changes Things for Platforms. Pinsent Masons, 20 Feb., 2024. https://tinyurl.com/4w43umyu

[48] Az Európai Parlament és a Tanács (EU) 2022/1925 rendelete (2022. szeptember 14.) a digitális ágazat vonatkozásában a versengő és tisztességes piacokról, valamint az (EU) 2019/1937 és az (EU) 2020/1828 irányelv módosításáról (digitális piacokról szóló jogszabály),. HL L 265., 2022.10.12., pp. 1-66

[49] DMA 2. cikk 22. "rangsorolás: az online közvetítő szolgáltatásokon, online közösségi hálózati szolgáltatásokon, videomegosztóplatform-szolgáltatásokon vagy virtuális asszisztenseken keresztül kínált áruknak és szolgáltatásoknak biztosított relatív elsőbbség, illetve az online keresőprogramok által a keresési eredményekhez rendelt relevancia, ahogyan azokat az online közvetítő szolgáltatást nyújtó vállalkozások, az online közösségi hálózati szolgáltatások, a videomegosztóplatform-szolgáltatások, virtuális asszisztensek vagy az online keresőprogramok megjelenítik, strukturálják vagy kommunikálják, függetlenül az ilyen megjelenítéshez, strukturáláshoz vagy kommunikációhoz használt technológiai eszközöktől, valamint attól, hogy csak egyetlen eredményt jelenítenek-e meg vagy kommunikálnak-e."

[50] Busch i. m. 36-37.

[51] Meta's Progress Implementing the Digital Services Act. Meta, November 28, 2024. https://tinyurl.com/3p8hxz34

[52] TikTok: Digital Services Act Reporting. https://www.tiktok.com/transparency/en/dsa-transparency

[53] Monika Zalnieriute: "Transparency-Washing" in the Digital Age: A Corporate Agenda of Procedural Fetishism. Critical Analysis of Law, Vol. 8., No. 1. (2021) 39-53. UNSW Law Research Paper No. 21-33. Available at SSRN: https://ssrn.com/abstract=3805492

[54] Reviglio-Fabbri i. m.

Lábjegyzetek:

[1] A szerző tudományos főmunkatárs, HUN-REN Társadalomtudományi Kutatóközpont, Jogtudományi Intézet. ORCID: https://orcid.org/0000-0002-6497-1186 A kutatás a Magyar Tudományos Akadémia Bolyai János Kutatási Ösztöndíjának támogatásával valósult meg.

Tartalomjegyzék

Visszaugrás

Ugrás az oldal tetejére