Megrendelés
In Medias Res

Fizessen elő az In Media Resre!

Előfizetés

Lendvai Gergely Ferenc[1]: A Facebook Ellenőrző Bizottság működése és bíráskodása a gyűlöletbeszéd kontextusában (IMR, 2024/1., 195-221. o.)

https://doi.org/10.59851/imr.13.1.11

Absztrakt - A Facebook Ellenőrző Bizottság működése és bíráskodása a gyűlöletbeszéd kontextusában

A jelen tanulmány a Facebook Ellenőrző Bizottsága gyűlöletbeszéddel kapcsolatos esetjogát tekinti át és elemzi. Központi eleme a 2021-től 2023 februárjáig tartó időszak összes, a platformon megvalósult gyűlöletbeszéddel kapcsolatos és a bizottság elé utalt ügy tényállásának bemutatása. Az esetjogi ismertetés két célt szolgál: egyfelől mutatja az esetek változatosságát, másfelől rávilágít a Facebook moderálási tevékenységének ellentmondásosságára. A tanulmány röviden bemutatja a bizottságot mint a Facebook moderálását ellenőrző testületet, majd az esetjogi analízis kapcsán annak hiányosságait is, kiemelve a bizottság strukturális, szabályozási és általános irányítási problémáit. A szakirodalmi áttekintésen és az esetjogi összehasonlításon túl három konstruktív javaslatot is teszünk, amelyek segítségével a bizottság és a mechanizmusai megbízható módon és nagy hatékonysággal tudnának működni.

Kulcsszavak: esetjog, Facebook, gyűlöletbeszéd, Facebook Ellenőrző Bizottság, platformszabályozás

Abstract - The Functioning and Adjudication of the Oversight Board in the Context of Hate Speech

Abstract: The purpose of this paper is to review and analyse the case law related to hate speech of the Facebook Oversight Board, focusing on the facts of all hate speech cases on the platform that were referred to the Oversight Board between February of 2021 and 2023. The case law analysis serves two purposes: on the one hand, it presents the diversity of the cases and, on the other hand, it highlights the controversial nature of Facebook's moderation activities. The paper will briefly describe the Oversight Board as the body that oversees Facebook moderation, and in the context of the case law analysis, its shortcomings as ell. In this regard, the structural, regulatory and general governance problems of the Oversight Board are highlighted and discussed in detail. In addition to the literature review and the case law comparison, we also put forward three constructive suggestions to enable the Oversight Board and its mechanisms to function in a more reliable and highly efficient manner.

Kulcsszavak: case law, Facebook, hate speech, Facebook Oversight Board, platform regulation

- 195/196 -

1. Bevezetés

Amióta Noah Feldman harvardi professzor fejében megszületett,[1] majd Mark Zuckerberg jóváhagyásával megvalósult a Facebook "privátbíróságának" ötlete,[2] a Facebook Ellenőrző Bizottság (FEB) számos kutatót, jogászt, szakértőt és a közösségi média újdonságai iránt érdeklődőt foglalkoztat. Bár a FEB mint intézmény vagy szerv megalakulásának és működésének körülményei gazdagon dokumentáltak, esetjogáról és precedensrendszeréről egyelőre kevés tanulmány született.[3] Célunk a FEB gyűlöletbeszéddel kapcsolatos döntéseinek bemutatása, elemzése és összehasonlítása, különösen annak egyes kritériumai, így a moderálási mechanizmus, a szólás és az emberi jogok érvényesülése kontextusában. Az esetek ismertetésének segítségével az olvasó képet kap a FEB által tárgyalt ügyekről, az ítélkezési eljárásról, a Facebook moderálási tevékenységéről és azokról az alapvető kérdésekről, amelyekre a platformnak és/vagy a FEB-nek válaszolnia kell, hogy a moderálás minősége javuljon.

2. A Facebook-bíróság megalapítása, struktúrája és vonatkozó szabályai

"Független legfelső bíróság", amelynek az a feladata, hogy felülvizsgálja a Facebook tartalommoderálását - így nyilatkozott Mark Zuckerberg a FEB-ről 2018-as nagyinterjújában.[4] A testületet elsősorban azért alapította a Facebook, hogy a platformon további garanciát biztosítsanak a közösségi alapelvekben foglalt értékek, például a véleménynyilvánítási és a szólásszabadság, a magánélet, a hitelesség, a biztonság vagy az emberi méltóság védelmére,[5] még olyan esetekben is, amelyekben ezek az értékek versengenek vagy ellentétesek egymással.[6] A FEB a fentiek alapján értelmezhető a Facebook magáncenzúra-visszásságainak orvoslására létrehozott testületként.[7] Emellett a Facebook alapítási szándéka arra is irányult, hogy a sokak által aggasztónak tartott tartalommoderálási mechanizmusokkal szemben[8] a felhasználóknak legyen egy független és megbízható szerve, ahol a megnyilvánulásaikat érintő (korlátozó) platformeljárások miatti igényeiket el tudják bírálni.[9]

- 196/197 -

Szűk értelmezésben két dokumentum irányadó a FEB-re: az Oversight Board Charter és az eljárási szabályokat rögzítő Bylaws.[10] A FEB működésére és funkcióira vonatkozó szabályokat a Charter tartalmazza, és többek között leírja a Facebook és a FEB közötti kapcsolatot, a testület hatás- és feladatkörét,[11] valamint megállapítja A FEB szerkezetét és az eljárási fajtákat.[12] A FEB felépítése a következő: legalább 11, legfeljebb 40 fős tagsággal kell rendelkeznie, a tagok (bírák) mandátuma három évre szól és kétszer meghosszabbítható.[13] A tagok kinevezését és leváltását a FEB alapjának (Oversight Board Trust) tagjai felügyelik. A díjazásról nem nyilatkozik a Charter,[14] bár tényfeltáró cikkek szerint a - heti 15 órában dolgozó - tagok szakértelmét hat számjegyű fizetéssel honorálja a Facebook (értelemszerűen amerikai dollárban).[15]

A FEB ügyel arra, hogy az ún. nehéz esetek kerüljenek elé,[16] amelyek a Charter meghatározása szerint nagy jelentőségűek, az offline világban is kifejtik hatásukat, és a közéleti diskurzus szempontjából kiemelkedő jelentőségűek, azaz bonyolultak, jelentősek, globálisan relevánsak, és felhasználhatók a Facebook jövőbeni szabályainak megalapozott átdolgozásához.[17] A FEB elé kerülő ügyekben az eljáró bíráknak 90 nap áll rendelkezésre a döntéshez. Ez a relatíve rövid döntéshozatali periódus részben eljárásjogi szempontokból cáfolja az Emberi Jogok Európai Bíróságával[18] vagy az alkotmánybíróságokkal való gyakori összehasonlítások megalapozottságát, mert ezeknél az ügyek jelentős hányadában évekig tart a döntéshozatal.[19]

A FEB elsősorban a Facebook értékeinek kontextusában vizsgálja az ügyeket, és bár rendszeresen hivatkozik rá és preferált lenne a részéről az emberi jogok érvényesítése, nem explicit feladata a közismert nemzetközi jogi dokumentumok, így az Emberi Jogok Európai Egyezménye vagy akár a Polgári és Politikai Jogok Nemzetközi Egyezségokmánya (PPJNE) közvetlen érvényesítése.[20] Ennek ellenére a testület kifejezetten ügyel arra, hogy döntéseiben rendszeresen hivatkozza a releváns emberi jogi joganyagokat, és döntését jogi kötőerővel bíró nemzetközi emberi jogi rendelkezésekkel is alátámassza,[21] ami igen komoly vállalás és alkotmányjogi elköte-

- 197/198 -

leződés a tagok részéről az emberi jogok érvényesülése iránt a felhasználó és a Facebook közötti kötelmi jogi viszonyban.[22]

A FEB legfőbb hatásköre abban áll, hogy jogosult a Facebookra nézve kötelező döntéseket hozni az elé kerülő minden esetben.[23] Ennek értelmében ha a FEB felülbírálja a Facebook moderálási döntését, akkor a Facebook köteles visszaállítani vagy újra elérhetővé tenni az adott tartalmat. Szintén megemlítendő, hogy a FEB jogosult az egyes ügyek nyomán az alapelvekkel és a szabályzatokkal kapcsolatos ajánlásokat tenni a Facebooknak, ugyanakkor a platform nem köteles azokat alkalmazni. Mindezek fényében Kate Klonick jogosan teszi fel a kérdést, miért bajlódik a világ egyik legnagyobb és leghíresebb vállalata egy olyan szerv létrehozásával, amellyel gyakorlatilag csak a saját életét nehezíti meg.[24] A kérdésre Klonick szerint az amerikai Communications Decency Act (CDA) 230. §-ának az irgalmas szamaritánus elvéből levezethető, az óriásplatformokat érintő társadalmi felelősségvállalás lehetősége a válasz, kiegészítve a vállalat anyagi céljaival is, hogy a felhasználók számára megbízható környezet legyen a platform.[25]

A testület státuszára nézve kiemelendő, hogy a FEB magát függetlennek, szakmainak és objektívnek írja le.[26] Ennek értelmében a döntéseket csak és kizárólag a tagok hozzák, a tagságról viszont a Facebook dönt. Emiatt a FEB függetlensége ambivalens véleményeket váltott ki.[27] Ahogy a 2019-ben nyilvánosságra hozott alapítói és finanszírozási dokumentumokból kiderül, az Oversight Board Trust kuratóriumi tagjait a vállalat nevezi ki, ezenkívül a Meta 130 millió dolláros (46-47 milliárd forint) tőkealappal támogatja a FEB működését.[28]

3. Gyűlöletbeszéd a Facebook Ellenőrző Bizottság előtt - "Fekete Pétertől" Azerbajdzsánon át az orosz-ukrán konfliktusig

A Facebook közösségi alapelveinek leggyakrabban citált rendelkezései a gyűlöletbeszédre vonatkozó szabályok.[29] Az alapelvek szerint "a gyűlöletbeszéd megfélemlítő, kirekesztő környezetet teremt, és bizonyos esetekben offline erőszakra ösztönözhet", ezért a véleménynyilvánítás ösztönzése miatt korlátozzák az ilyen típusú jogellenes szólást. A Facebook saját definíciót alkalmaz a gyűlöletbeszédre, amely nem korrelál teljes mértékben a nemzetközi emberi jogi állásponttal, amely szerint a gyűlöletbeszédnek nincs konkrét, globális meghatározása.[30] A Facebook

- 198/199 -

interpretációjában a gyűlöletbeszéd "közvetlenül támad embereket - tehát nem eszméket vagy intézményeket - általunk védett tulajdonságként meghatározott szempontok (faji hovatartozás, etnikai származás, nemzetiség, fogyatékosság, vallási hovatartozás, kaszt, nemi irányultság, nem, nemi identitás, illetve súlyos betegség) alapján".[31] Ez részben egyezik az Egyesült Nemzetek Szervezete (ENSZ) által proponált általános, jogi kötőerővel nem bíró definícióval,[32] ugyanakkor erős hiányosság fedezhető fel abban, hogy magát a formát egyáltalán nem határozza meg. Szintén kiemelendő, hogy a definíció nem tér ki a nyilvánosságra mint közlési sajátosságra, ami a gyűlöletbeszéd szempontjából kiemelkedően releváns.[33]

A Facebook a nagyságát, hatását és elérését tekintve - ha nem is jogi szempontok alapján,[34] de a közgondolkodásban valószínűsíthetően - akár országnak is minősíthető.[35] A gyűlöletbeszéddel kapcsolatos szabályai ugyanis nem egy adott lakosságra vagy nemzetiségre vonatkoznak, hanem közel hárommilliárd jogi alanyra, akiknek - a szerződéses viszony miatt[36] - kötelezettsége keletkezik arra, hogy egy vállalat gyűlöletbeszédhez kapcsolódó szabályozási kultúráját teljes mértékben tiszteletben tartsa. E gondolatból levezetve hatványozott jelentőségű az is, hogy a cég által alapított testület mely eseteket tartja precedensértékűnek és kiemelkedően fontosnak, hiszen a FEB a bíráskodásával gyakorlatilag formálja a gyűlöletbeszéd lokális, Facebook-szintű és valamelyest a globális, nemzetközi percepcióját is.

3.1. A Facebook Ellenőrző Bizottság esetjogának ismertetése

A FEB csak 2021-ben kezdte meg tényleges munkáját, és azóta publikálja döntéseit honlapján.[37] A következőkben a gyűlöletbeszéddel kapcsolatos esetekben a 2023. márciusáig hozott döntéseket ismertetjük. Ez utóbbi kategóriába tartozik a hazai és a nemzetközi szakirodalomban is a legjobban feldolgozott Donald Trump-eset,[38] amelynek bár egyes tényállásbeli elemei

- 199/200 -

miatt a gyűlöletbeszéd is felmerül, összességében az erőszakra való felhívás volt az ügy fő motívuma.[39] Az eseteket a FEB esetelnevezéseit követve jelöljük.

3.1.1. A muszlimokról szóló mianmari bejegyzés 1.[40]

A FEB legelső döntése egy mianmari bejegyzéshez fűzött felhasználói megjegyzés tárgyában született. A felhasználó az akkori malajziai miniszterelnök, Mahathir Mohamad két tweetjét kompiláló képernyőfotót illesztett a hozzászólásába. A képen látható tweeteken Mohamad egy megnyilvánulása volt olvasható: "A muszlimoknak jogukban áll dühösnek lenni és franciák millióit megölni a múltban elkövetett öldöklések miatt", valamint "[d]e összességében a muszlimok nem éltek a »szemet szemért« törvényével. A muszlimok nem. A franciáknak sem kellene. Ehelyett a franciáknak meg kéne tanítaniuk a népüknek, hogy tiszteljék mások érzéseit."[41] A Facebook moderátorai a gyűlöletbeszéddel kapcsolatos szabályokra hivatkozva eltávolították a hozzászólást, amiért a felhasználó a döntés visszavonását kérte a FEB-től, arra hivatkozva, hogy a hozzászólás célja nem gyűlöletkeltés volt, hanem éppen ellenkezőleg, a volt miniszterelnök "elborzasztó szavaira" szerette volna felhívni a figyelmet.

Bár a FEB megkezdte az eset vizsgálatát, végleges döntést nem hozott, mert az a kivételes - és a jelen tanulmány megírása idején is fennálló - helyzet állt elő, hogy a bejegyzést, amelyik alá a felhasználó a hozzászólását fűzte, a vizsgálat ideje alatt eltávolították.[42] Kritikai éllel e helyütt megemlítendő, hogy ez az eset rávilágított a FEB sajátos, procedurális szempontból kifogásolható hatáskörhiányára, hiszen tehetetlen, ha a döntéshozatal alatt a posztot eltávolítják. A FEB az szigorúan kötve van az elé kerülő ügyekhez, emiatt például nem értékelhet általánosan, és nem állapíthat meg alapelveket egy-egy jelenségre - például a szintén mianmari iszlamofóbiára[43] -, ha az alapul szolgáló konkrét ügyet a saját eljárásjogi szabályai miatt nem tárgyalhatja. Felmerül a kérdés: miért nem közölhet a FEB alapelvi szintű döntéseket egyes kiemelt konfliktusok kapcsán? Az két okból is előnyös lenne: egyrészt a testület precedensszerű mechanizmust alakíthatna ki olyan kritikus kérdéskörökre, mint az esetben felmerülő frankofóbia, másrészt fokozná a kiszámíthatóságot,[44] így egységesebb álláspontot közvetíthetne az ellentmondásos eseményekkel és helyzetekkel kapcsolatban megengedett magatartásokról.

3.1.2. A muszlimokról szóló mianmari bejegyzés 2.[45]

Az eset tényállása szerint egy mianmari felhasználó egy Facebook-csoportban burmai nyelven közzétett bejegyzéséhez két, széles körben ismert fényképet csatolt, amely egy megfulladt szíriai

- 200/201 -

kurd menekült gyermeket ábrázolt.[46] A fotóhoz írt szövegben a felhasználó kifejtette, hogy "valami baj van a muszlimokkal (vagy a muszlim férfiakkal) pszichésen, illetve a gondolkodásmódjukat tekintve",[47] és kérdőre vonta a muszlim közösséget, hogy miért nem reagálnak az ujgurok ellen elkövetett kínai agresszióra, miközben Franciaországban egy karikatúra miatt gyilkolnak. A Facebook törölte a posztot arra hivatkozva, hogy a "valami baj [van] a muszlimokkal pszichésen" fordulat sérti a gyűlöletbeszédről szóló szabályok 2. szintjében foglalt, alacsonyabbrendűséget sugalló általánosítások tilalmára vonatkozó rendelkezéseket.

A FEB a vizsgálat során elsősorban a nyelvi értelmezésre fektette a hangsúlyt, és kiemelte, hogy az esetet az adott nyelvi és kulturális környezet kontextusában kell vizsgálni.[48] Arra jutott, hogy a Facebook moderátorai rosszul fordítottak, ugyanis a FEB által felkért szakértők a vitatott szöveghelyet "[a]zoknak a muszlim férfiaknak valami baj van a gondolkodásmódjával" verzióban fordították, ami így nem ellentétes a Facebook szabályaival. A FEB döntésében külön kiemelte, hogy a saját szakértői fordításában teljesen más értelmet nyer a szöveg, hiszen a felhasználó mondandója főképpen az eltérő reakciókra koncentrál, nem pedig a muszlimok általános lealacsonyítására.

Az eset különlegessége az, hogy a FEB rendkívül nagy hangsúlyt fektetett a bejegyzés kontextusára,[49] mind nyelvi, mind kulturális értelemben. Kiemelendő, hogy 2018-ban az ENSZ Emberi Jogi Tanácsa a fokozódó mianmari muszlimellenességről készített jelentésében megállapította, hogy a muszlimokkal, különösen a rohingya kisebbséghez tartozókkal szemben rendszerszintű probléma az erőszakos gyűlöletbeszéd.[50] A jelentés szerint, összhangban a FEB vonatkozó megállapításaival, aggodalomra adnak okot a gyűlöletbeszéd normalizálására utaló társadalmi és politikai trendek, így különösen a rohingyák és a muszlim vallás folyamatos és következetes lealacsonyítása és gyalázása (például a rohingyák "hazug muszlim kutyáknak" titulálása).[51] E tények fényében megosztó lehet a FEB döntése, mivel azt kizárólag arra alapozták, hogy a saját szakértőik más fordítási lehetőséget javasoltak. Megemlítendő az is, hogy a testület kijelentette, az alternatív fordítás is sértő a muszlimokra, ennek ellenére nem tartotta szükségesnek a bejegyzés eltávolítását mások jogainak védelme érdekében.[52]

3.1.3. Az Azerbajdzsánban élő örmények ügy[53]

Egy felhasználó bakui templomokról készült fényképeket tartalmazó bejegyzéséhez kísérőszövegként azt írta, hogy az azeri fővárost örmények építették, és ezt az örmény kulturális örökséget

- 201/202 -

lerombolták. A felhasználó az azerbajdzsániakat tazikoknak nevezte és nomádoknak titulálta. A poszthoz hashtageket is csatolt a felhasználó, kiemelve ezekben, hogy az azeri agressziónak és vandalizmusnak véget kell venni, valamint Arcah[54] elismerését propagálta. A Facebook a gyűlöletbeszédre vonatkozó közösségi alapelvek megsértésére hivatkozva eltávolította az addigra 45 ezer felhasználó által látott bejegyzést.[55] A Facebook szabályzata ugyanis tiltja az olyan közlést, amelyben egy csoport megnevezésére gyakran használt, lealacsonyító kifejezést használnak.

A FEB megerősítette a Facebook döntését,[56] a mianmari esethez hasonlóan kiemelve a kontextus, különösen a nyelvi kontextus szerepét. A tazik oroszul mosdótálat jelent, és az "azik" megnevezésre rímel, amelyet az azeriekre használnak. A Facebook megjegyezte, hogy a tazik kifejezés szerepel a gyalázkodó kifejezések listáján, ugyanakkor ez a lista, ahogy fogalmazott, belső használatú, tehát a felhasználók nem ismerik és nem is ismerhették meg. Érdekesség, hogy A FEB e helyütt nem találta problémásnak azt, hogy a tazik szó szerepel egy belső "cenzúralistán", de attól még a testület szerint a hármas teszt alapján a szóhasználat nem vetett föl előreláthatósági problémát.[57]

A szükségesség kérdésében eltérő volt a bírák véleménye. Bár a többségi álláspont szerint a bejegyzés eltávolítása szükséges és arányos volt, két kisebbségi vélemény megkérdőjelezte az eltávolítás arányosságát, mivel a posztból eredő kockázatok igencsak esetlegesek, továbbá kétségbe vonták azt is, hogy a kétségtelenül sértő "mosdótál" szó valóban dehumanizáló.[58] Egyet lehet érteni a kisebbségi véleménnyel, különösen mert nehezen indokolható a "mosdótálnak" nevezés súlyosabb minősítése, mint a mianmari esetben előforduló "pszichésen beteg muszlimok" kitétel.

3.1.4. A náci idézet eset[59]

Egy Facebook-felhasználó 2020 októberében megosztott egy idézetet,[60] amelyet helytelenül Joseph Goebbelsnek tulajdonított.[61] Az idézetben szerepelt, hogy "nincs értelme az értelmes emberekre hatást gyakorolni, mivel őket úgysem lehet meggyőzni, és egyébként is behódolnak az erősebb átlagembernek [...] az érvekkel az érzelmekre és az ösztönökre kell hatni", továbbá hogy az igazság nem számít, mert alá van rendelve a taktikának és a pszichológiának.[62] A FEB-nek a fel-

- 202/203 -

használó jelezte, hogy az idézet kiemelt jelentőséggel bír, mert az ország (akkori) vezetője "fasiszta modellt követett", utalva Donald Trump volt amerikai elnökre. A Facebook eltávolította a posztot arra hivatkozva, hogy az alapelvek szerint tiltott olyan személyek jelenléte vagy olyan személyek támogatása, dicsőítése, akik erőszakos küldetést vagy tevékenységet propagálnak vagy végeznek.

A FEB-nek komplex kérdést kellett értékelnie: mennyiben minősül támogatásnak egy idézet megosztása, amelyet helytelenül tulajdonítanak valakinek. A Facebook értelmezésében a felhasználó posztja támogatásnak minősült, mivel a felhasználó nem tette egyértelművé a szándékát (tehát hogy ellenzi a goebbelsi gondolatokat).[63] A FEB felülbírálta a döntést, legfőképp arra helyezve az indokolás súlypontját, hogy nem jogszerű, azon belül nem előrelátható a Facebook eljárása, mert a közösségi alapelvekben nem szerepel olyan rendelkezés, amely szerint egy idézet megosztása egyben az abban foglaltak támogatása is.[64] Tágabb kontextusba helyezve az ügyet további aggályok merülnek föl, hiszen igen kétséges és nagyon kevéssé életszerű, hogy egy felhasználó egy Goebbelsnek tulajdonított idézet fölé akkurátusan kiírja, hogy "nem támogatom semmilyen formában az alább általam megosztott idézetben foglaltakat, továbbá nem támogatom azt az embert sem, akinek az idézetet tulajdonítom".

3.1.5. A Zwarte Piet ábrázolása eset[65]

A hazai jogirodalomban is feldolgozott eset[66] alapja egy holland felhasználó videója volt, amelyben egy gyermek találkozását mutatták három felnőttel, akik a holland népi Sinterklaas-hagyományhoz hű jelmezt viseltek. A folklór egyik jelentős alakja az ünnep névadója, Sinterklaas, aki a magyar kultúrkörben a Mikulás figurájának feleltethető meg.[67] A videó másik két szereplője Sinterklaas segítőjét, Zwarte Pietet (Fekete Pétert) formálta meg, a holland népszokásoknak megfelelően afroparókában, fekete arcfestéssel, vörösre festett szájjal és színes ruhákban.[68] Egy hollandiai felhasználó a közzététel napján jelentette a posztot a gyűlöletbeszédre vonatkozó szabályokra hivatkozva, és azt másnap törölte is a Facebook.[69]

Zwarte Pietet az 1850-es évektől kezdve ábrázolják a fentebb említett módon,[70] és bár a hagyományőrzésben fontos szerepe van, azt is meg kell említeni, hogy a holland társadalom egy része az elnyomás, az imperializmus és a gyarmatosítás szimbólumaként tekint a karakterre.[71]

- 203/204 -

A Merriam-Webster-szótár a következőképpen definiálja a blackface-t ("feketearc"): sötét smink, amelyet egy fekete ember küllemének utánzására és különösen a fekete emberek kigúnyolására vagy nevetségessé tételére használnak. A blackface - főként, de nem kizárólag az angolszász, azon belül is az amerikai kultúrkörben - egyértelműen negatív asszociációkat kelt: az afroamerikaiakat lealacsonyító,[72] kirekesztő és az emberi méltóságot sértő megjelenítésként tartják számon.[73]

A FEB megerősítette a Facebook döntését. Az indokolásból kiderül, hogy a blackface minden formája a közösségi alapelvek 1. szintű gyűlöletbeszéd-kategóriájába tartozik, ezért tilos blackface-t ábrázoló tartalmat posztolni, bármilyen körülményről is legyen szó. A többségi álláspont szerint a videó potenciálisan káros sztereotípiákat tartalmazott, mint amilyen a szolgalelkűség és az alsóbbrendűség,[74] a kisebbségi vélemény viszont kifogásolta azt az álláspontot, hogy a blackface-nek megfélemlítő vagy egyáltalán bármilyen erőszakot támogató hatása lenne.[75]

3.1.6. A "kétgombos" mém eset[76]

Az ügy kiindulópontja egy olyan poszt eltávolítása volt, amelyben a népszerű "kétgombos" mém (1. ábra) iterációját közölte egy felhasználó.[77] A mém azt a vacillálást jeleníti meg, amikor két olyan lehetőségről kell komplex, fájdalmas vagy éppen kellemetlen döntést hozni, amely kihívásokkal vagy komoly következményekkel jár. A mém célja, hogy rávilágítson a paradox vagy egyformán "kényszerítő erejű" (lényegében "lose-lose") döntésekkel való szembenézés keltette szorongásra, stresszre és gyakran azok humorára is.

1. ábra

A "kétgombos" mém

- 204/205 -

Az ügyben szereplő bejegyzésben a mémben szereplő férfialak feje helyére egy török zászló volt rászerkesztve, a két piros gomb fölé pedig két felirat: "Az örmény népirtás hazugság" és "Az örmények terroristák voltak, akik megérdemelték a sorsukat".[78] A mémet a Facebook két körben is törölte, először csak érzéketlen tartalomnak nyilvánítva, majd a döntés megfellebbezése után eltávolította a képet a gyűlöletbeszédre vonatkozó szabályok megsértése miatt, mindezt úgy, hogy a felhasználót nem értesítette.[79] A Facebook azzal érvelt, hogy a mémen megjelenített két opció jelenthet elítélést és támogatást is, ez utóbbi pedig az alapelvekkel nincs összhangban.

A FEB felülbírálta a Facebook döntését. Kiemelte, hogy a mém alapvetően nem az ellenzés-támogatás dichotómia alapján értelmezendő, jóval inkább figyelemfelkeltés a felhasználó részéről: az örmény atrocitásnak ellentmondó narratívái ismertek Törökországban.[80] A FEB többségi döntésében felhívta a figyelmet arra a kivételes szabályra a közösségi irányelvekben, amely szerint egy tiltott tartalmat nem távolítanak el, ha a posztoló az elítélés szándékával vagy felvilágosítás céljából osztja meg más gyűlöletbeszéd-tartalmát.[81]

"Az örmény népirtás hazugság" mondat kapcsán eltérő vélemények születtek a bírák között. Míg a többségi vélemény szerint tisztázott a mém tartalma, azaz hogy a felhasználó az örmény atrocitások tagadásának ambivalens aspektusaira kívánta felhívni a figyelmet, a kisebbségi vélemény szerint nem volt egyértelmű a szándéka, és akár az állítás támogatása céljából is megoszthatta a tartalmat.[82] Bár a kisebbségi álláspont szerint védendő érték a szatíra, a posztból nem derül ki egyértelműen, hogy a felhasználó közlése mögött milyen szándék húzódott.[83] Ez az eset részben rávilágít arra a hiányosságra, hogy a FEB-nek nincsen saját, kidolgozott sztenderdje, amelyet ilyen esetben használni tudna a szándék vizsgálatához, részben pedig arra is, hogy a már létező tesztek nem kötelezően alkalmazandók (például a Rabat Akciótervnek a szándékot vizsgáló "hármas tesztje").

3.1.7. A Mianmar - robot eset[84]

Egy felhasználó 2021-ben, a februári mianmari puccsot követően burmai nyelven közzétett egy bejegyzést, amelyben kifejtette, milyen módon lehetne korlátozni a mianmari hadseregnek juttatott pénzügyi forrásokat. A bejegyzést, amelyet körülbelül félmillió felhasználó látott, az alábbi passzus miatt törölte a Facebook, annak ellenére, hogy egy felhasználó sem jelentette: "A hongkongiak, mivel a k[...]tt kínaiak kínozták őket, egyesült királyságbeli bankokra váltottak, így [a kínaiak] már nem férhetnek hozzájuk."[85] Egy "adminisztratív műveleti robot" megjelölte a bejegyzést, amelyet aztán két emberi ellenőr is megvizsgált. A Facebook az előbbiekben kiemelt mondatot a 2. szintű gyűlöletbeszéd-szabály megsértésének találta, azaz a felhasználó védett tulajdonság vagy tulajdonság alapján vett célba egy adott személyt vagy embercsoportot.

- 205/206 -

A FEB felülbírálta a döntést. Az eredeti bejegyzésben szereplő kifogásolt kifejezés bár valóban rendelkezik kínai összefüggéssel, és a fordításnak a kínaiakat érintő része pontos volt, a FEB fordítói úgy találták, hogy a "k[...]tt kínaiak" nem emberekre vonatkozik, hanem a szöveg összefüggéseinek alapos vizsgálata alapján Kínára mint országra. A FEB kiemelte a szövegek integritásának fontosságát, azaz hogy a szöveget teljes kontextusban kell elemezni és értelmezni. Megemlítendő, hogy a Facebook az indokolásában idézte a Zwarte Piet-esetet az embercsoportot érintő kirekesztő környezet kapcsán, és bár a FEB az érvelést elutasította, a vállalat működésének lényeges eleme, hogy a saját döntései precedensrendszert alkotnak, és a döntésekben foglalt alapelvek és magyarázatok a FEB számára is irányadók, nem csak a Facebooknak.[86] Ez fontos előrelépés az esetek vizsgálata során, különösen a gyűlöletbeszéddel foglalkozó ügyeknél, ahol a körülmények vizsgálata és az esetleges hasonlóságok szerinti tényálláselem értékelése kiemelt jelentőségű.

3.1.8. A kolumbiai tüntetések eset[87]

A Facebook 2021 szeptemberében eltávolította egy kolumbiai hírszolgáltató videóját egy kolumbiai tüntetésről, ahol a tömeg az akkori kolumbiai elnököt, Iván Duquét kritizálta. A videóban jól kivehető, ahogy a tüntetők Duquét válogatott szitokszavakkal illetik, és azt skandálják, hogy "deja de hacerte el m[...]a en la tv", azaz "ne légy k[...]g a tévében". A Facebook az eltávolítást azzal indokolta, hogy a kirekesztő kifejezés sérti az alapelveket, továbbá a szó szerepel a Facebook tiltott szavainak listáján is. A FEB-nek mérlegelnie kellett, hogy egy ismert, a Facebookon tiltott kifejezés elhangzása mennyiben helyezhető el a szólásszabadság keretein belül akkor, ha azt egy közismert politikussal szemben használják, egy nagy hírértékkel rendelkező politikai megmozduláson.[88]

A FEB felülbírálta a Facebook döntését. Indokolásában kiemelte, hogy a szó valóban kirekesztő és dehumanizáló egy adott szexuális kisebbségre nézve, ugyanakkor a tüntetés nagy hírértékkel bírt, és a tüntetőknek sem célja, sem szándéka nem volt kirekesztő módon fellépni a szóban forgó csoport ellen, és a videó elsősorban a tüntetés iránti figyelem felkeltésére szolgált.[89] Itt érdemes visszaidézni az azeri ügyben tett meglátásokat. A Facebook ugyanis ismételten a saját tiltott kifejezései szerinti értékelést részesítette előnyben, megint csak helytelenül. Az azeri és a kolumbiai eset rámutat arra is, hogy a FEB hatásköre és általában vett hatása rendkívül szűk és korlátozott.

3.1.9. A gyalázkodások Dél-Afrikában eset[90]

Egy felhasználó 2021 májusában egy nyilvános csoportban, amely Dél-Afrika különböző etnikumait érintő kérdésekkel foglalkozik, bejegyzést tett közzé, amelyben a "vagyonos feketéket"

- 206/207 -

bírálta. A felhasználó a több, nemzetközileg is ismert kirekesztő kifejezést tartalmazó posztjában arra kívánt utalni,[91] hogy a "vagyonos feketék" a "fehérek helyettesei" és "kifinomult rabszolgák".[92] A bejegyzést jelentették, ennek ellenére az egy napig a platformon maradt. A Facebook indokolása szerint a bejegyzés számos ponton megsértette a vállalat gyűlöletbeszédre vonatkozó szabályait, és a felhasználó több olyan kifejezést is használt, amely a Facebook szubszaharai piacán tiltott gyalázkodó kifejezésnek számít.[93] A FEB megerősítette a Facebook döntését, mivel a felhasználó kifejezései és szándéka egyértelműen diszkriminatív volt.

3.1.10. A wampum öv eset[94]

Az ügy a FEB számára két versengő érték: az alkotási és a véleménynyilvánítási szabadság közötti választást jelentette. Az ügy alapjául szolgáló esetben egy felhasználó - aki egyben az alkotás készítője is volt - közzétett egy képet egy wampum övről,[95] amelyen a Kamloops-eseményeket illusztrálta,[96] és annak a "Kill the Indian / Save the Man" ("Öld meg az indiánt / mentsd meg az embert") címet adta.

Ahogy a 10208. számú esethozzászólásból kiderül, amelyet az Association on American Indian Affairs szervezet írt, a mű címe egy idézet attól a kanadai katonai tiszttől, aki az első őslakosoknak szóló bentlakásos iskolát alapította azzal a céllal, hogy "civilizálja" az őslakosokat és "kiirtsa az indián kultúrát".[97] A felhasználó a képleírásban az észak-amerikai őslakosok elnyomására utaló szövegeket tüntetett fel (például "Az ártatlanok meglopása", "Koncentrációs tábor", "Hozzátok haza a gyermekeinket"). A Facebook (ekkor már Meta) automatikus rendszere jelezte, hogy a tartalom potenciálisan gyűlöletbeszédnek minősülhet, a jelzést követően pedig két ellenőr is azt állapította meg, hogy a felhasználói tartalom megsérti a közösségi alapelveket. Amikor az ügy a FEB elé került, a Facebook "szabálybetartási hibaként" kategorizálta a bejegyzés eltávolítását és visszaállította a tartalmat, de erről nem tájékoztatta haladéktalanul az érintett felhasználót.[98]

A FEB felülbírálta a Facebook eredeti döntését. Elfogadva és üdvözölve, hogy a vállalat visszaállította a tartalmat, a FEB kiemelte, hogy a mű klasszikusan ún. válaszbeszédnek minősül,[99] azaz olyan szólásnak, amely bár gyűlöletbeszédet tartalmaz, de csak azért, hogy fellépjen a

- 207/208 -

diszkrimináció ellen és hogy felhívja a figyelmet egy eseményre.[100] A FEB aggodalmát fejezte ki azzal kapcsolatban, hogy a moderátorok mennyire pontosan szűrik ki a tartalmakat, valamint a visszaállítási mechanizmust és a tájékoztatás színvonalát illetően. A testület szerint a Facebooknak pontosabb eljárásra van szüksége a művészi kifejezés és a szólásszabadság viszonyának megítélésére, ezért pontossági felmérést javasolt a platformnak.[101]

3.1.11. Az állítólagos atrocitások Raya Kobóban eset[102]

Egy felhasználó 2021 júliusában amhara nyelven közzétett bejegyzésében azt állította, hogy tigrinya etnikumú civilek támogatták a tigréi népi felszabadítási front (Tigray People's Liberation Front) paramilitáris politikai szervezetet abban, hogy tagjai nőket és gyermekeket erőszakoljanak és öljenek meg, továbbá hogy Raya Kobóban és az Amhara régióban fekvő más városokban fosztogassanak.[103] A Facebook automatikus rendszere potenciális gyűlöletbeszédként jelölte meg a bejegyzést, amelyről később két tartalommoderátor is megállapította, hogy az sérti a közösségi alapelveket, ezért eltávolították. Miután a FEB kiválasztotta az esetet felülvizsgálatra, a Facebook helytelennek minősítette az eltávolításról szóló döntést és visszaállította a posztot (egy hónappal az eltávolítása után). A Facebook, emberi hibára hivatkozva, csak egy hónappal később tájékoztatta a felhasználót az eltávolított tartalom visszaállításáról.[104]

A FEB megerősítette a Facebook eredeti döntését, azaz hogy a bejegyzés tartalma ellentétes a platform közösségi alapelveivel, és kijelentette, hogy visszaállítása mind tartalmi, mind eljárási okokból helytelen és nem elég részletesen indokolt. Ítéletében a FEB hosszan és alaposan bemutatta a tigréi háború körülményeit,[105] továbbá azt, hogy a tigréi népi felszabadítási fronthoz köthető, atrocitásokra utaló felhasználói bejegyzésben foglaltak nem ellenőrizhetők vagy bizonyíthatók. Utalva a korábbi mianmari ügyekre, a FEB hangsúlyozta, hogy a megalapozatlan vádaskodások egy fegyveres konfliktus idején súlyos következményeket vonhatnak maguk után, ezért a tartalmat eltávolító eredeti döntés nemcsak a gyűlöletbeszéd, hanem a biztonság mint Facebook-érték szempontjából is megalapozott volt. A döntés értelmében a Facebooknak ismételten el kellett távolítania a bejegyzést, ugyanakkor a FEB hangsúlyozta, hogy a vállalatnak javítania kell a sok tekintetben káros eljárásán (értve ez alatt, hogy a posztot visszaállította és az elérhető volt).[106]

- 208/209 -

3.1.12. Az arab szavak helyreállítása eset[107]

Egy magát "queer narratívák arab kultúrabeli megvitatásának helyeként" leíró nyilvános Instagram-fiók[108] 2021 novemberében tíz darabból álló képsort tett közzé, arab nyelven és angol fordításban olyan szavakkal és kifejezésekkel ellátva, amelyek a "feminin" vagy a "nőiesen viselkedő" arab férfiakat írták le becsmérlő, lealacsonyító és kirekesztő módon. A felhasználó kifejezte, hogy a bejegyzés célja a bántó kifejezések kontextuális jelentésének és értelmezésének bemutatása - egyben "helyreállítása" - volt. Az Instagram gyűlöletbeszédnek minősítette és eltávolította a tartalmat, bár a felhasználó felülvizsgálati kérelmét követően visszaállította a bejegyzést. A visszaállított tartalmat jelentette egy felhasználó, az Instagram pedig újfent eltávolította azt, majd ismételten visszaállította, mivel arra a megállapításra jutottak az esetet vizsgáló tartalommoderálók, hogy nem sérti a gyűlöletbeszédre vonatkozó alapelveket. Az Instagram az eltávolításra vonatkozó döntéseit azzal magyarázta, hogy a bejegyzés tárgyát képező egyes szitokszavak ellenőrzése során alakult ki kétszer is az az álláspont, hogy a bejegyzés gyűlöletbeszédnek minősül.[109]

A FEB felülbírálta a döntést, és hivatkozott a dél-afrikai és a wampumöv-esetben foglaltakra is. Egyfelől bírálta az Instagram eljárását a "tiltott" szavak kapcsán, mivel nem volt teljes mértékben előrelátható a felhasználó számára, hogy mely szavak tiltottak egyes régiókban, másfelől, különösen az előző megállapítás kontextusában, analógiát vonva a wampumöv-esettel, kifejtette, hogy a tiltott, gyűlöletbeszédnek minősített bejegyzést az Instagram pontatlanul és a kontextus figyelembevétele nélkül távolította el. A jelen esetben ugyanis a felhasználó célja nem a posztban meghatározott alanyi kör becsmérlése volt, hanem jóval inkább figyelemfelhívás és a tudatosítás, akárcsak a wampumöv-esetben taglalt "válaszbeszédnél".[110] A FEB súlyosan aggályosnak találta, hogy az Instagram gyűlöletbeszédre vonatkozó mechanizmusai a wampumöv-esetet követően sem mutattak érdemi változást, és ismételten felhívta a vállalatot arra, hogy szorítsa szűkebb keretek közé a tartalommoderálást, valamint világosan fogalmazza meg a szabályait és tegye hozzáférhetővé, ennek eszközéül pedig a gyűlöletbeszéddel kapcsolatos negyedéves jelentés kiadását szorgalmazta.[111]

Az ügy ismételten megmutatta, hogy a cenzúrázott vagy tiltott szavak listájának alkalmazása igen problémás, és számos moderálási kérdést felvet. Azonban érdemes hangsúlyozni, hogy ez volt az egyik első eset, amelyben a FEB nyíltan kifejezte elégedetlenségét a Facebookkal szemben, mert a vállalat nem fogadja meg a javaslatokat, gyakorlatilag következmények nélkül hoz szabályzatellenes döntéseket hoz, és nem változtatott érdemben az ilyen döntéshozó mechanizmusokon.

- 209/210 -

3.1.13. A knini rajzfilm eset[112]

Egy horvát Facebook-oldal 2021 decemberében videót tett közzé, amelyben A hamelni patkányfogó című német mese Disney-adaptációjának iterált változatában a mesében szereplő patkányok szerbeket jelenítettek meg, míg a patkányokat varázslatos fuvoladallammal kiűző "egérfogó" a horvát Čavoglave városából származó hős volt.[113] A videó címe A čavoglavei muzsikus és a knini patkányok, utalva Knin városára, amely a szerb-horvát fegyveres konfliktusban a szerbek fontos bázisa volt.[114] A szerkesztett rajzfilmjelenetben egy "Knin" feliratú várkapu mögötti városban patkányok uralják a tereket, és kisemmizik, tönkreteszik az ott lakókat. A videó alatt a horvát nyelvű narráció "a nagy patkányagresszióról" számol be, a hős horvát fuvolamester pedig a "patkánytömeget" úgy vezeti ki a városból, hogy a második világháború jelentős szerb alakjáról, Momčilo Đujić emlékéről szóló dalt fúj a fuvolájával, a patkányokat ezt követően egy traktorba tereli, majd a traktor eltűnik, és a narráció szerint "mindenki boldogan élt ezután".[115]

Đujić megítélése igen ellentmondásos: egyes horvát kutatások szerint a szerb tiszt vezette csetnik csoport háborús bűnöket követett el a horvát polgári lakosság, különösen a nők ellen a horvát Krivi Put községben.[116] A traktor szimbolikus jelentőségű: 1995-ben, amikor a horvát nacionalista Storm hadművelet zajlott, közel 200 ezer etnikai szerb volt kénytelen embertelen és megalázó körülmények között elhagyni lakhelyét - többen traktorral menekültek el Dél-Horvátországból.[117] A videót, amelyet közel 380 ezren láttak, 397 felhasználó jelentette. A bejelentéseket egy negyvenfős moderáló csapat ellenőrizte, amely arra a megállapításra jutott, hogy a videó nem sérti a gyűlöletbeszédre vonatkozó irányelveket. Miután az eset a FEB elé került, a Facebook eltávolította a videót, azzal az indokolással, hogy bár az "nem sérti a gyűlöletbeszédre vonatkozó szabályzat betűjét" (sic!), a "szabályzat szelleme" vezérelte döntés értelmében el kellett távolítani a tartalmat.[118]

A FEB felülbírálta a Facebook eredeti döntését. A testület különös alapossággal részletezte, hogy a videóban szereplő szimbólumok, referenciák és hasonlatok miként formálnak gyűlö-

- 210/211 -

letbeszédet, és hosszasan sorolta érveit a szerb-horvát konfliktus kapcsán. Továbbá felrótta, hogy a többfős moderáló csapat képtelen volt a videó mögöttes és implicit tartalmát értelmezni, és javasolta, hogy a Facebook a gyűlöletbeszéd-szabályzatban térjen ki a gyűlöletkeltő utalásokra is.[119]

3.1.14. Az orosz vers eset[120]

Egy lettországi Facebook-2022 áprilisában orosz nyelvű kísérőszöveggel megosztott egy képet az ukrajnai Bucsa utcáján fekvő, feltételezhetően halott emberről. A szövegben a felhasználó a második világháború alatt Németországban háborús bűnöket elkövető szovjet katonák és a jelenleg is zajló orosz-ukrán fegyveres konfliktusban részt vevő orosz katonák között vont párhuzamot. Állítása szerint az orosz hadsereg "fasisztává vált", és Konsztantyin Szimonov szovjet költő Öld meg! (Убей его!) című, 1942-es versének sorait idézve fejezte be az írását: "Öld meg a fasisztát, hogy helyetted ő feküdjön a földön / [...] Öld meg! Öld meg! Öld!" A bejegyzést egy felhasználó jelentette, a Facebook pedig eltávolította a posztot a gyűlöletbeszédre vonatkozó szabályzat megsértésére hivatkozva. Amikor az eset a FEB elé került, a Facebook visszaállította a tartalmat, és megállapította, hogy tévesen távolította el, de három héttel később figyelmeztető képet helyezett el a bejegyzésben található képnél.[121]

A FEB felülbírálta a Facebooknak az eltávolításra és a figyelmeztető képre vonatkozó döntéseit. Megítélése szerint a poszt nem általánosságban véve az oroszokra, hanem az orosz katonákra vonatkozik, és a szólás, bár provokatív, élvezi a szólásszabadság védelmét. A FEB érvelése szerint a versből idézett részek nem minősülnek erőszaknak, sem erőszakra való felhívásnak vagy uszításnak, hanem a felhasználó lelkiállapotát tükrözik. A többségi vélemény szerint a bejegyzés semmilyen erőszakra utaló tartalmat nem jelenít meg, míg a kisebbségi vélemény szerint erőszakra való felhívásnak minősül, és szükséges és arányos intézkedés volt a Facebook részéről a figyelmeztetés kihelyezése.[122]

3.2. Esetjogi összehasonlítás és következtetések

A felülvizsgált 14 ügy közül a FEB négy esetben megerősítette, kilenc esetben felülbírálta az eredeti döntést, egy esetben pedig nem tudott döntést hozni. A gyűlöletbeszéddel kapcsolatos ügyek földrajzi megoszlása szerint a FEB hat ázsiai, három európai, két-két afrikai és észak-amerikai, valamint egy dél-amerikai ügyet vizsgált (a kaukázusi és a közel-keleti térségbe tartozó régiók és országok az Ázsia kategóriába kerültek). Kiemelendő, hogy a 14 vizsgált ügyből három is egy országot érintett, Mianmart, míg két eset a török és a kaukázusi régiót (Azerbajdzsán, Örményország, Törökország). Az 1. táblázat a döntésekhez nemcsak az adott földrajzi régiót rendeli hozzá, hanem a gyűlöletbeszéd megállapításának alapját és a hivatkozott értékeket, jog-

- 211/212 -

forrásokat is. A gyűlöletbeszéd kvalifikációja az adott eset középpontjában álló lehetségesen jogellenes tartalom megítélését jelenti, azaz hogy az

- etnikai;

- politikai vagy háborús;

- általánosan kirekesztő vagy veszélyes személyekhez kapcsolódó;

- kulturális vagy szokásbeli;

- történelmi eredetű;

- nemiségen/szexualitáson alapuló.

Ugyanitt azt is feltüntetjük, hogy a tartalom

- tisztán szöveges;

- hibrid (azaz szöveg és kép vagy videó);

- tisztán vizuális (csak kép vagy videó, akkor is, ha a képeken szöveg szerepel).

A FEB fő hivatkozási alapja minden esetben a gyűlöletbeszédre vonatkozó rendelkezések voltak, ugyanakkor egyes esetekben nemzetközi normákra vagy Facebook-értékekre is hivatkozott, amelyeket a vizsgált tartalom potenciálisan veszélyeztetett.

1. táblázat

A FEB gyűlöletbeszédet érintő ügyei

EsetA FEB döntéseFöldrajzi régióGyűlölet-
beszéd-
kvalifikáció
A hivatkozott értékek
és normák
Muszlimokról szóló mianmari bejegyzés 1.Nem hozott döntést, mivel az eredeti tartalom nem volt elérhetőÁzsia--
Muszlimokról szóló mianmari bejegyzés 2.Felülbírálta
a Facebook döntését
ÁzsiaEtnikai, tisztán szöveges"Véleménynyilvánítás" és "biztonság"; PPJNE
Azerbajdzsánban élő örményekMegerősítette
a Facebook döntését
ÁzsiaEtnikai, tisztán szöveges"Véleménynyilvánítás", "biztonság", "méltóság" PPJNE, ENSZ Emberi Jogi Bizottság, General comment No. 34, rabati akcióterv, több ENSZ-vélemény
Náci idézetFelülbírálta
a Facebook döntését
Észak-AmerikaVeszélyes személyhez kapcsolódó, történelmi eredetű, hibrid"Véleménynyilvánítás" és "biztonság"; PPJNE, ENSZ Emberi Jogi Bizottság, General comment No. 34, rabati akcióterv, több ENSZ-vélemény
Zwarte Piet ábrázolásaMegerősítette
a Facebook döntését
EurópaKulturális, tisztán vizuális"Véleménynyilvánítás", "biztonság", "méltóság" ; PPJNE, ENSZ Emberi Jogi Bizottság, General comment No. 34, rabati akcióterv, több ENSZ-vélemény

- 212/213 -

EsetA FEB döntéseFöldrajzi régióGyűlölet-
beszéd-
kvalifikáció
A hivatkozott értékek
és normák
Kétgombos mémFelülbírálta
a Facebook döntését
ÁzsiaTörténeti, tisztán vizuális"Véleménynyilvánítás", "biztonság", "méltóság"; PPJNE, ENSZ Emberi Jogi Bizottság, General comment No. 34, rabati akcióterv, több ENSZ-vélemény
Mianmar - robotFelülbírálta
a Facebook döntését
ÁzsiaPolitikai és háborús, tisztán szöveges"Véleménynyilvánítás", "biztonság", "méltóság"; PPJNE, ENSZ Emberi Jogi Bizottság, General comment No. 34, rabati akcióterv, több ENSZ-vélemény
Kolumbiai tüntetésekFelülbírálta
a Facebook döntését
Dél-AmerikaPolitikai, tisztán vizuális"Véleménynyilvánítás" és "méltóság"; PPJNE, ENSZ Emberi Jogi Bizottság, General comment No. 34, rabati akcióterv, több ENSZ-vélemény
Gyalázkodások Dél-AfrikábanMegerősítette
a Facebook döntését
AfrikaEtnikai, tisztán szöveges"Véleménynyilvánítás", "biztonság", "méltóság"; PPJNE, ENSZ Emberi Jogi Bizottság, General comment No. 34, rabati akcióterv, több ENSZ-vélemény
Wampum övFelülbírálta
a Facebook döntését
Észak-AmerikaKulturális, hibrid"Véleménynyilvánítás", "biztonság", "méltóság"; PPJNE, ENSZ Emberi Jogi Bizottság, General comment No. 34, rabati akcióterv, több ENSZ-vélemény
Állítólagos atrocitások Raya KobóbanMegerősítette
a Facebook döntését
AfrikaPolitikai és Háborús, tisztán szöveges"Véleménynyilvánítás", "biztonság", "méltóság"; PPJNE, ENSZ Emberi Jogi Bizottság, General comment No. 34, rabati akcióterv, több ENSZ-vélemény
Arab szavak használatának helyreállításaFelülbírálta
a Facebook döntését
ÁzsiaSzexualitáson alapuló, hibrid"Véleménynyilvánítás", "biztonság", "méltóság"; PPJNE, ENSZ Emberi Jogi Bizottság, General comment No. 34, rabati akcióterv, több ENSZ-vélemény

- 213/214 -

EsetA FEB döntéseFöldrajzi régióGyűlölet-
beszéd-
kvalifikáció
A hivatkozott értékek
és normák
Knini rajzfilmFelülbírálta
a Facebook döntését
EurópaEtnikai, tisztán vizuális"Véleménynyilvánítás", "biztonság", "méltóság"; PPJNE, ENSZ Emberi Jogi Bizottság, General comment No. 34, rabati akcióterv, több ENSZ-vélemény
Orosz versFelülbírálta
a Facebook döntését
EurópaEtnikai, politikai és háborús, hibrid"Véleménynyilvánítás", "biztonság", "méltóság"; PPJNE, ENSZ Emberi Jogi Bizottság, General comment No. 34, rabati akcióterv, több ENSZ-vélemény

Az 1. táblázat összesítését kiegészítve kiemelendő, hogy a FEB a potenciális gyűlöletbeszédet tartalmazó etnikai és a nemiséggel kapcsolatos tartalmaknál kivétel nélkül a fordítási hibákra és a kontextuális interpretáció hiányára hivatkozva bírálta felül a Facebook eredeti döntését.

4. Moderálás a Facebookon - sziszüphoszi küzdelem vagy megoldható nehézség?

Majdnem hárommilliárd felhasználó ügyeiben bíráskodni grandiózus vállalkozás.[123] Mårten Schultz úgy fogalmaz, hogy a FEB tagjai az emberi jogok valaha volt legnagyobb hatalommal rendelkező bírái.[124] Azonban az egyes ügyek lassú és részletes tárgyalása nem hoz rendszerszintű változást.[125] A gyűlöletbeszéddel szembeni harc "első frontvonala", azaz az automatikus észlelés és jelzés összességében nem jelent megnyugtató megoldást a jogellenes tartalmak problémájára. Evelyn Douek szerint ennek több oka is van: egyrészt az automatikus rendszerek továbbra is nehezen különböztetik meg a nyelvi sajátosságokat,[126] másrészt képtelenek felmérni a közlés szándékát, harmadrészt pedig a legtöbb automatikus észlelőrendszer nincs felkészítve a lokális jellegzetességek megértésére.[127] A fenti esetekből az is kirajzolódik, hogy a Facebook a FEB-n keresztül kénytelen-kelletlen egyfajta kulturális pufferzónává is válhat, ami nem előnyös a vállalat számára.[128]

- 214/215 -

Teljes mértékben lehetetlen elvárás, hogy a FEB vagy akár a Facebook teljes körű, hermetikus védelmet nyújtson a gyűlöletbeszéddel szemben.[129] Kate Klonick meglátása szerint a gyűlöletbeszéd elleni harc legfontosabb lépése az lenne, ha a Facebook felülvizsgálná a saját szabályait, ugyanis azok nem semlegesek, és nem fedik le pontosan a nemzetközi sztenderdek gyűlöletbeszéd-rendelkezéseit. Klonick jelzi, a Facebooknak egészen addig központi probléma lesz a gyűlöletbeszéd kezelése, amíg egy adott tartalom egy kanadainak sértés, egy koreainak viszont művészet, vagy egy adott hír egy ausztrálnak álhír, míg egy brazilnak szatíra.[130] Az alapvető feladat tehát a globális és a lokális értékek közti ütközés megszüntetése,[131] nem pedig a tartalom és a közösségi alapelvek közti különbségek mérlegelése. Tehát végső soron a gazdasági és a magánérdekek jobb harmonizációja lenne szükséges a nemzetközi emberi jogokkal,[132] hogy FEB valóban érdemi és hivatkozható precedensrendszert alakíthasson ki.[133]

Ugyancsak kérdés, hogy lesz-e lehetősége a FEB-nek adott esetben a bejegyzések és a képek tartalmain túl más olyan felületet vagy eszközt vizsgálni, ahol gyűlöletbeszéd fordulhat elő. Bár többen felvetették ennek szükségességét, a Facebook explicit módon kifejezte, hogy nem hajlandó kibővíteni a bizottság feladatkörét az algoritmusok felülvizsgálatára,[134] így nem vizsgálja és nem is vizsgálhatja azokat,[135] csupán az algoritmusok által végzett hibás tartalommoderálásokból eredő felhasználói panaszokat[136] - ha egyáltalán az ügy eljut elé. Ezenkívül a FEB más ún. egyéb felületet sem vizsgálhat,[137] például csoportelnevezéseket vagy akár személyre szabott URL-eket sem, noha a gyűlöletbeszéd mint kifejezésmód utat törhet ezeken a felületeken is (ha például egy Facebook-oldal személyre szabott URL-je egy antiszemita szlogen).[138]

5. Javaslatok a gyűlöletbeszéddel kapcsolatos döntéshozatali mechanizmus javítására - lehetséges utak a Facebook "elitbírósága" előtt

A következőkben három javaslaton keresztül bemutatjuk a FEB-nek azokat a gyenge pontjait, amelyek erősítésével nőhetne a bizottságba vetett felhasználói bizalom, a mechanizmusok hatékonyabbak lehetnének, és a testület valóban kulcsfontosságú szereplőjévé válhatna a Meta tartalommoderálásának.

- 215/216 -

5.1. Teljes körű átvilágítási jog és kötelező erejű előírások

Bár a FEB ajánlásai nem kötelező erejűek, a Meta sokszor figyelembe veszi azokat. A Facebook - például a mianmari ügyek után - a bizottság javaslatát elfogadva több délkelet-ázsiai nyelvre is lefordíttatta a szabályzatait, többek között pandzsábi és urdu nyelvre, aminek köszönhetően közel 400 millió felhasználó olvashatja a platform dokumentumait a saját nyelvén.[139] A kötőerővel nem bíró ajánlások mellett szólhat az az optimistának mondható érv is, hogy a Meta azért nem kívánja a FEB által szabott keretek közé szorítani magát, hogy az online platformjain előforduló jogellenes tartalmak elleni fellépését dinamikusabbá és rugalmasabbá tegye.[140] Mégis, a 2022. évi negyedik negyedéves jelentés szerint a Facebook a FEB által közzétett 140 ajánlás közül mindössze 24-et implementált teljes körűen, és 15-öt részben - a maradék 101 ajánlásból 24-et Facebook elutasított, a többi kapcsán pedig egyelőre semmilyen érdemi lépés nem született.[141] Ahogy ez az esetjog ismertetéséből is kiderült, egyes területeken az ajánlások átültetése nehézkes, esetenként pedig kudarcos. Az előbbire példa lehet, hogy bár a FEB szinte kivétel nélkül ajánlja, hogy az adott tartalom eltávolításakor a Facebook jelezze a felhasználónak, a vállalat szerint melyik szabályzatot sérti a bejegyzés és adjon indokolást is, a Facebook egyelőre nem alkotott sztenderd mechanizmust.

Bár csupán spekulálni lehet, hogy javítana-e a Facebook moderálásán, ha minden tanácsot és ajánlást megfogadna, összességében a FEB javaslatai átláthatóbb és megbízhatóbb tartalomeltávolítási és -visszaállítási eljárást eredményeznének, és feloldanák a bizottság jelenleg erősen bináris eljárását (helyesen döntött-e a Facebook vagy sem).[142] Brenda Dvoskin szerint az ajánlások komolyabban vétele emberi jogi perspektívából is megfontolandó, ugyanis ha a Facebook elfogad egy ajánlást, amelynek lényege valamelyik emberi jog védelme, ahhoz feltehetően más platformok is idomulni fognak, így indirekt módon a Facebook hozzájárulhat ahhoz, hogy másutt is erősebb garanciális védelmet nyújtsanak az emberi jogoknak.[143]

Laurence Helfer és Molly Land érdekes kérdést vetett fel az ajánlások kapcsán. Tételezzük fel, hogy a Facebook elfogadja és implementálja a FEB ajánlását, tehát negyedévente beszámolót készít a gyűlöletbeszédről a platformon, csakhogy arról nem tájékoztat egy felhasználót sem, és gondosan elrejti a riportot egy ritkán látogatott aloldalára. Ez a példa rámutat, hogy a Facebook ki tudja kerülni az ajánlott intézkedések tényleges alkalmazását.[144]

- 216/217 -

5.2. Nagyobb szervezeti apparátus

A Facebook az évek során jól érzékelhetően alapos és globális moderálási mechanizmust kívánt kiépíteni. A platform jelenleg egyaránt alkalmaz algoritmusokat és emberi alkalmazottakat a jogellenes tartalmak kiszűrésére. Ha a Facebook moderálási rendszerét piramisként képzeljük el, akkor a FEB egyértelműen a csúcson helyezkedik el.[145] A hasonlat alapján észszerűnek tűnik, hogy a moderálási ügyek többsége megáll az algoritmusok és az emberi moderálók szintjén, a problémásabb és kevésbé egyértelmű esetek pedig a második, egyben végső körben jutnak a bizottság elé, vagyis csak az esetek legkisebb hányadában. Ugyanakkor kérdés, mennyire megfelelő, hogy az egy negyedév alatt beküldött közel 200 ezer bejelentés közül csak 3-4-et bírál el a FEB.[146] A számokból kiindulva a FEB kézzelfogható munkája, vagyis az általa elbírált ügyek százalékosan kifejezve a moderálási tevékenység hozzávetőleg 0,000025%-a. Figyelemmel a panaszok hatalmas mennyiségére, a FEB 2023 februárjában két új eljárást vezetett be: egy gyorsítottat és egy sommásat.[147] Az előbbi az eredeti eljárás gyorsított verziója: a bíráknak 48 órájuk, de adott esetben maximum 30 napjuk van a döntéshozatalra, míg az utóbbinál a Meta eredeti, majd később módosított döntését vizsgálják, figyelembe véve a vállalat olykor hektikus eljárását.[148]

5.3. Regionális ellenőrző bizottságok

Bár a Facebook kifejezetten úgy hozta létre a FEB-t, hogy a tagok sokszínű háttérből érkezzenek és a tagság diverz legyen,[149] a testület jelenleg minimálisan tükrözi ezt.[150] Az Oversight Board Trust négy amerikai, egy brit és egy dél-afrikai tagból áll. E tanulmány megírásakor a Bizottság 23 tagja közül hat amerikai, és csak egy indiai, hiába Indiában használják havi szinten a legtöbben a Facebookot.[151] A tagok túlnyomó többsége jogász vagy jogi szakértő, és az etnikai és a szexuális kisebbségi csoportok is alulreprezentáltak köztük.[152] Ahogyan a nemzetközi emberi jogi bíróságok regionálisan és kontinentálisan is elkülönültek a történelem során és ahogyan kialakultak az egyes bíróságok sajátosságai,[153] a FEB előtt is nyitva lehetne a lehetőség regionális testületek létrehozására. Az esetjogi összehasonlításban látottak alapján kontinensek szerint lehetne altestületekre bontani a bizottságot, amelyek a lokális nyelvek, szokások és jogszabályi környezetek ismeretében megalapozottabb döntéseket tudnának hozni, és sokkal több ügyet lehetne így elbírálni.

- 217/218 -

6. Összegzés

Közel három év, közel 2,5 millió bejelentés, 35 elbírált ügy.[154] Nem túlzás azt állítani, hogy a FEB a jelenlegi állapotában igen nehezen összemérhető egy legfelső bírósággal - inkább hasonlít egy kisebb hírű jogi tanácsadóhoz.[155] A nemzeti és az európai uniós jogok egyértelmű célja a kevesebb tanácsadás és a több cselekvés. Többek között ez a magánjogi megfontolás érvényes a dél-afrikai alkotmányra is, amely alkotmányos szinten rendelkezik arról, hogy a cégek kötelesek részlegesen érvényre juttatni az emberi jogokat,[156] és az e célkitűzésből eredő platformszabályozási filozófia áll a szingapúri, a német, az osztrák és a brit szabályozás, valamint az amerikai Digital Services Act mögött is.[157] Egyelőre talány marad, hogy a "Facebookisztánnak" aposztrofált óriásplatform[158] milyen szabályozást képzel el és hogy milyen további szabályozásoknak lesz alávetve.

A FEB-vel kapcsolatban sok kérdés merülhet fel a jövőben. Mennyire szabad engedni a testület hatáskörbővítési igényének? Legyen-e szerepe a FEB-nek a Meta platformjait érintő olyan rendszerszintű problémák kiküszöbölésében is, amilyen a cyberbullying vagy a politikai dezinformáció elleni harc?[159] Beavatkozhat-e a Metaverzumra vonatkozó felhasználói panaszok miatt a Meta működésébe?[160] És végső soron: mi legyen a FEB sorsa egy olyan világban, ahol gyors válaszok kellenek, nem pedig évek alatt kikristályosodó precedensrendszerek?

Irodalomjegyzék

Arun, Chinmayi: Facebook's Faces. 135 Harvard Law Review (2021) 236-264.

Barata, Joan: The Decisions of the Oversight Board from the Perspective of International Human Rights Law. Global Freedom of Expression, 2022, https://bit.ly/4dG2L3M.

Benesch, Susan: But Facebook's Not a Country: How to Interpret Human Rights Law for Social Media Companies. 38 Yale Journal on Regulation Bulletin (2020) 86-111.

Bietti, Elettra: A Genealogy of Digital Platform Regulation. 7(1) Georgia Law Technology Review (2023) 1-68.

Chander, Anupam: Facebookistan. 90(5) North Carolina Law Review (2012) 1807-1844.

Cowls, Josh et al.: Constitutional Metaphors: Facebook's "Supreme Court" and the Legitimation of Platform Governance. 26(5) New Media & Society (2022) 2448-2472.

https://doi.org/10.1177/14614448221085559

David, Bruce: Christmas: A Candid History. Berkeley, University of California Press, 2017.

- 218/219 -

Douek, Evelyn: Facebook's "Oversight Board": Move Fast With Stable Infrastructure And Humility. 21 North Carolina Journal Of Law & Technology (2019) 1-78.

Dvoskin, Brenda: Expert Governance of Online Speech, 64 Harvard International Law Journal (2023) 85-135.

Elkin-Koren, Niva - Perel, Maayan: Separation of Functions for AI: Restraining Speech Regulation by Online Platforms. 24 Lewis & Clark Law Review (2020) 857-898.

Frazier, Kevin: Why Meta Users Need A Public Advocate: A Modest Means To Address The Shortcomings Of The Oversight Board. 28 Richmond Journal of Law and Technology (2021) 596-622.

Goldman, Eric: Content Moderation Remedies. 28 Michigan Technology Law Review (2021) 1-59.

https://doi.org/10.36645/mtlr.28.1.content

González-Ocantos, Ezequiel - Sandholtz, Wayne: The Sources of Resilience of International Human Rights Courts: The Case of the Inter-American System. 47 Law & Social Inquiry (2021) 95-131.

https://doi.org/10.1017/lsi.2021.22

Gosztonyi Gergely: Az internetes tartalomszabályozással kapcsolatos új gondolkodási irányok az Amerikai Egyesült Államokban. Miskolci Jogi Szemle, 2021/4., 40-54.

https://doi.org/10.32980/MJSz.2021.4.1257

Gosztonyi Gergely: Cenzúra Arisztotelésztől a Facebookig. A közösségi média tartalomszabályozási gyakorlatának komplexitása. Budapest, Gondolat, 2022.

https://doi.org/10.24362/cenzura.gosztonyi.2022

Gyetván Dorina: A cenzúra privatizációja avagy a cenzúra új virágkora? In Gosztonyi Gergely (szerk.): A velünk élő történelmi cenzúra. Budapest, Gondolat, 2022, 57-69.

Helfer, Laurence R. - Land, Molly K.: The Facebook Oversight Board's Human Rights Future. 44 Cardozo Law Review (2023) 2233-2301.

https://doi.org/10.2139/ssrn.4197107

Klonick, Kate: The New Governors: The People, Rules, and Processes Governing Online Speech. 131 Harvard Law Review (2018) 1599-1670.

Klonick, Kate: The Facebook Oversight Board: Creating an Independent Institution to Adjudicate Online Free Expression. 129 The Yale Law Journal (2020) 2418-2499.

Klonick, Kate: Inside the Making of Facebook's Supreme Court. The New Yorker, 2021. február 12., https://bit.ly/4adPgoZ.

Kohl, Uta: A gyűlöletbeszéd szabályozása az online platformokon - transzatlanti kompromisszum a szólásszabadság terén? In Medias Res, 2022/2., 31-54.

Koltay András: A Vajnai-ügy. Az Emberi Jogok Európai Bíróságának ítélete a vörös csillag viselésének büntethetőségéről. Jogesetek Magyarázata, 2010/1., 77-82.

Koltay, András: The Protection of Freedom of Expression from Social Media Platforms. 73 Mercer Law Review (2022) 523-589.

Kulick, Andreas: Meta‘s Oversight Board and Beyond - Corporations as Interpreters and Adjudicators of International Human Rights Norms. 22 The Law and Practice of International Courts and Tribunals (2022) 161-193.

https://doi.org/10.1163/15718034-12341496

- 219/220 -

Lagnado, David A. - Channon, Shelley: Judgments of Cause and Blame: The Effects of Intentionality and Foreseeability. 108(3) Cognition (2008) 754-770. https://doi.org/10.1016/j.cognition.2008.06.009

Lendvai Gergely Ferenc: Zwarte Piet a Facebook Oversight Board kontextusában - a Zwarte Piet és a kulturális különbségek értelmezése. Ars Boni, 2022/3-4, 22-31.

Lendvai, Gergely Ferenc: "Pure Rat Country" - Reflections on Case Decision 2022-001-FB-UA of Facebook Oversight Board (Knin Cartoon Case). 1(3) Journal of Digital Technologies and Law (2023) 612-628.

https://doi.org/10.21202/jdtl.2023.26

Luo, Zhifan: "Why Should Facebook (Not) Ban Trump?" Connecting Divides in Reasoning and Morality in Public Deliberation. 25(2) Information Communication and Society (2021).

https://doi.org/10.1080/1369118X.2021.2021272

Medzini, Rotem: Enhanced Self-Regulation: The case of Facebook's Content Governance. 24 New Media & Society (2022) 2227-2251.

https://doi.org/10.1177/1461444821989352

Meier, Nele - Golia, Angelo Jr: The Emerging Normative System of Meta's Oversight Board. Max Planck Institute, MPIL Research Paper Series, no. 2022-29 (2022) 1-41.

https://doi.org/10.2139/ssrn.4300480

Neuvonen, Riku - Sirkkunen, Esa: Outsourced Justice: The Case of the Facebook Oversight Board. Journal of Digital Media & Policy (2022), https://bit.ly/3UYxqSk.

https://doi.org/10.1386/jdmp_00108_1

Nunziato, Dawn C.: Protecting Free Speech and Due Process Values on Dominant Social Media Platforms. 73 Hastings Law Journal (2022) 1255-1303.

https://doi.org/10.2139/ssrn.4069380

O'Kane, Ruby: Meta's Private Speech Governance and the Role of the Oversight Board: Lessons from the Board's First Decisions. 25 Stanford Technology Law Review (2022) 167-209.

Osman, Mohamed N. B. M.: Understanding Islamophobia in Asia: The Cases of Myanmar and Malaysia. 4(1) Islamophobia Studies Journal (2017) 17-36.

https://doi.org/10.13169/islastudj.4.1.0017

Otto, Paul: Wampum, Tawagonshi, and the Two Row Belt. 3 Journal of Early American History (2013) 110-125.

https://doi.org/10.1163/18770703-00301008

Papp János Tamás: A közösségi média szabályozása a demokratikus nyilvánosság védelmében. Budapest, Wolters Kluwer, 2022.

Pickup, Edward L.: The Oversight Board's Dormant Power to Review Facebook's Algorithms. 39(1) Yale Journal on Regulation Bulletin (2021) 1-22.

Pongó Tamás: Új korszak az online véleménynyilvánítás korlátozásában? Gondolatok a Facebook Oversight Board működéséről. Iustum Aequum Salutare, 2020/4., 147-162.

Reyes, Angelita D.: Performativity and Representation in Transnational Blackface: Mammy (USA), Zwarte Piet (Netherlands), and Haji Firuz (Iran). 16 Atlantic Studies () 521-550.

https://doi.org/10.1080/14788810.2018.1490508

- 220/221 -

Rodenberg, Jeroen - Wagenaar, Pieter: Essentializing "Black Pete": Competing Narratives Surrounding the Sinterklaas Tradition in the Netherlands. 22 International Journal of Heritage Studies (2016) 716-728.

https://doi.org/10.1080/13527258.2016.1193039

Sale, Hillary A.: Monitoring Facebook. 12 Harvard Business Law Review (2022) 401-433.

Schultz, Mårten: Six Problems with Facebook's Oversight Board. Not Enough Contract Law, Too Much Human Rights. In Bayer, Judit et al. (szerk.): Perspectives on Platform Regulation: Concepts and Models of Social Media Governance Across the Globe. Baden-Baden, Nomos, 2021, 145-163.

https://doi.org/10.5771/9783748929789-145

Sobolevski, Mihael: Robbery and Terror of Dinara Četnik Division in the Krivi Put Region on 28th and 29th December 1944. 31 Senjski zbornik : prilozi za geografiju, etnologiju, gospodarstvo, povijest i kulturu (2004) 95-113.

Szikora Tamás: A platformszabályozás egy új iránya Donald Trump Facebookról való kitiltásának példáján keresztül. In Török Bernát - Ződi Zsolt (szerk.): Az internetes platformok kora. Budapest, Ludovika, 2022, 209-226.

Takhshid, Zahra: Regulating Social Media in the Global South. 24(1) Vanderbilt Journal of Entertainment & Technology Law (2021) 1-55.

Thompson, Ayanna: Blackface. New York, Bloomsbury, 2021.

https://doi.org/10.5040/9781501374043

Vukčević, Ivana: Facebook Oversight Board's Decision On The Indefinite Suspension Of Donald Trump's Account. Pravni Zapisi, 2021/1., 295-311.

https://doi.org/10.5937/pravzap0-32521

Wong, David - Floridi, Luciano: Meta's Oversight Board: A Review and Critical Assessment. 33 Minds & Machines (2022) 261-284.

https://doi.org/10.1007/s11023-022-09613-x

JEGYZETEK

[1] Kate Klonick: The Facebook Oversight Board: Creating an Independent Institution to Adjudicate Online Free Expression. 129 The Yale Law Journal (2020) 2449.

[2] Josh Cowls et al.: Constitutional Metaphors: Facebook's "Supreme Court" and the Legitimation of Platform Governance. 26(5) New Media & Society (2022), https://doi.org/10.1177/14614448221085559, 2452.

[3] Ezek közül kiemelendő Joan Barata: The Decisions of the Oversight Board from the Perspective of International Human Rights Law. Global Freedom of Expression, 2022, https://bit.ly/4dG2L3M.

[4] Mark Zuckerberg on Facebook's Hardest Year, and What Comes Next. Vox, 2018. április 2., https://bit.ly/3UUNjt4.

[5] Edward L. Pickup: The Oversight Board's Dormant Power to Review Facebook's Algorithms. 39(1) Yale Journal on Regulation Bulletin (2021) 3.

[6] Oversight Board Charter, https://bit.ly/4bzsJnE, Introduction.

[7] Gyetván Dorina: A cenzúra privatizációja avagy a cenzúra új virágkora? In Gosztonyi Gergely (szerk.): A velünk élő történelmi cenzúra. Budapest, Gondolat, 2022, 67.

[8] Anupam Chander: Facebookistan. 90(5) North Carolina Law Review (2012) 1816.

[9] Klonick i. m. (1. lj.) 2448-2465.; Ruby O'Kane: Meta's Private Speech Governance and the Role of the Oversight Board: Lessons from the Board's First Decisions. 25 Stanford Technology Law Review (2022) 169.

[10] David Wong - Luciano Floridi: Meta's Oversight Board: A Review and Critical Assessment. 33 Minds & Machines (2022), https://doi.org/10.1007/s11023-022-09613-x, 263.

[11] Klonick i. m. (1. lj.) 2418., 2458.

[12] Pickup i. m. (5. lj.) 4.

[13] Oversight Board Charter 1. cikk 1. és 3. szakasz.

[14] Oversight Board Charter 5-8. cikk.

[15] Kate Klonick: Inside the Making of Facebook's Supreme Court. The New Yorker, 2021. február 12., https://bit.ly/4adPgoZ.

[16] O'Kane i. m. (9. lj.) 202.

[17] Oversight Board Charter 2. cikk 1. szakasz; Gosztonyi Gergely: Az internetes tartalomszabályozással kapcsolatos új gondolkodási irányok az Amerikai Egyesült Államokban. Miskolci Jogi Szemle, 2021/4., https://doi.org/10.32980/MJSz.2021.4.1257, 44.

[18] Pongó Tamás: Új korszak az online véleménynyilvánítás korlátozásában? Gondolatok a Facebook Oversight Board működéséről. Iustum Aequum Salutare, 2020/4., 157.

[19] Laurence R. Helfer - Molly K. Land: The Facebook Oversight Board's Human Rights Future. 44 Cardozo Law Review (2023), https://doi.org/10.2139/ssrn.4197107, 2236-2241.

[20] Uo. 10-11.

[21] Lásd a Trump-ügyben Dawn C. Nunziato: Protecting Free Speech and Due Process Values on Dominant Social Media Platforms. 73 Hastings Law Journal (2022), https://doi.org/10.2139/ssrn.4069380, 1301.

[22] Andreas Kulick: Meta's Oversight Board and Beyond - Corporations as Interpreters and Adjudicators of International Human Rights Norms. 22 The Law and Practice of International Courts and Tribunals (2022), https://doi.org/10.1163/15718034-12341496, 171.

[23] Oversight Board Charter 2. cikk.

[24] Kate Klonick: The New Governors: The People, Rules, and Processes Governing Online Speech. 131 Harvard Law Review (2018) 1625.

[25] Uo.

[26] Oversight Board Charter, Introduction.

[27] Klonick i. m. (1. lj.) 2475-2586.; Cowls i. m. (2. lj.) 5.

[28] Oversight Board Trust Agreement 2.2. szakasz.

[29] Nele Meier - Angelo Jr Golia: The Emerging Normative System of Meta's Oversight Board. Max Planck Institute, MPIL Research Paper Series, no. 2022-29 (2022), https://doi.org/10.2139/ssrn.4300480, 17.

[30] United Nations Strategy and Plan of Action on Hate Speech 2. szakasz.

[31] Gyűlöletbeszéd-szabályok, https://bit.ly/3QKY4vv.

[32] United Nations Strategy and Plan of Action on Hate Speech 2.

[33] Uta Kohl: A gyűlöletbeszéd szabályozása az online platformokon - transzatlanti kompromisszum a szólásszabadság terén? In Medias Res, 2022/2., 36.

[34] Zahra Takhshid: Regulating Social Media in the Global South. 24(1) Vanderbilt Journal of Entertainment & Technology Law (2021) 32-34.

[35] Vö. Chander i. m. (8. lj.); Susan Benesch: But Facebook's Not a Country: How to Interpret Human Rights Law for Social Media Companies. 38 Yale Journal on Regulation Bulletin (2020) 86-111.

[36] Mårten Schultz: Six Problems with Facebook's Oversight Board. Not Enough Contract Law, Too Much Human Rights. In Judit Bayer et al. (szerk.): Perspectives on Platform Regulation: Concepts and Models of Social Media Governance Across the Globe. Baden-Baden, Nomos, 2021, https://doi.org/10.5771/9783748929789-145, 154.

[37] Klonick i. m. (1. lj.) 2448-2450.; O'Kane i. m. (9. lj.) 168.

[38] Lásd például Szikora Tamás: A platformszabályozás egy új iránya Donald Trump Facebookról való kitiltásának példáján keresztül. In Török Bernát - Ződi Zsolt (szerk.): Az internetes platformok kora. Budapest, Ludovika, 2022, 209-226.; Zhifan Luo: "Why Should Facebook (Not) Ban Trump?" Connecting Divides in Reasoning and Morality in Public Deliberation. 25(2) Information Communication and Society (2021), https://doi.org/10.1080/1369118X.2021.2021272; Ivana Vukčević: Facebook Oversight Board's Decision On The Indefinite Suspension Of Donald Trump's Account. Pravni Zapisi, 2021/1., https://doi.org/10.5937/pravzap0-32521, 295-311.

[39] 2021-001-FB-FBR.

[40] 2020-001-FB-UA.

[41] Uo.

[42] Facebook Bylaws 3. cikk.

[43] Lásd még Mohamed N. B. M. Osman: Understanding Islamophobia in Asia: The Cases of Myanmar and Malaysia. 4(1) Islamophobia Studies Journal (2017), https://doi.org/10.13169/islastudj.4.1.0017, 17-36.

[44] Vö. David A. Lagnado - Shelley Channon: Judgments of Cause and Blame: The Effects of Intentionality and Foreseeability. 108(3) Cognition (2008), https://doi.org/10.1016/j.cognition.2008.06.009, 755-770.

[45] 2020-002-FB-UA.

[46] Aylan and Galip Kurdi: Everything We Know about Drowned Syrian Refugee Boys. The Telegraph, 2015. szeptember 3., https://bit.ly/3UUPxIW.

[47] Vö. Zemmour v. France, no. 63539/19, 2022. december 20-i ítélet.

[48] Többek között ezen ügy miatt is javasolta a Bizottság, hogy a Meta fordítsa le a legnagyobb dél-kelet ázsiai nyelvekre a közösségi alapelveket; lásd Wong-Floridi i. m. (10. lj.) 7.

[49] Ezt azért kell ismételten hangsúlyozni, mert a Facebook a moderálás során többször is elmulasztotta figyelembe venni a kontextust; lásd Helfer-Land i. m. (19. lj.) 43.

[50] A/HRC/39/CRP.2, Human Rights Council, 2018, 320-345.

[51] Uo. 322-325.

[52] 2020-002-FB-UA 8.3.

[53] 2020-003-FB-UA.

[54] Hegyi-Karabah örmény neve, az azeri-örmény fegyveres konfliktus egyik fontos helyszíne.

[55] 2020-003-FB-UA 2.

[56] 2020-002-FB-UA.

[57] Ezt azzal indokolták, hogy a felhasználó pontokkal elválasztva használta a szót ("т.а.з.и.к.и"), a FEB pedig feltételezte, hogy a felhasználó tudhatta, hogy a szó tiltott, és így akarta elkerülni az automatikus észlelési mechanizmust, lásd 2020-003-FB-UA 8.3.1.a.

[58] 2020-003-FB-UA 8.3.1.c).

[59] 2020-005-FB-UA.

[60] Az eset elemeiben hasonlít a Nix v. Germany-ügyhöz (no. 35285/16, 2018. március 13-i ítélet), ahol egy felhasználó a bevándorlókkal szembeni atrocitások bemutatásaként horogkeresztet és náci vezetők képeit posztolta. Továbbá vö. Koltay András: A Vajnai-ügy. Az Emberi Jogok Európai Bíróságának ítélete a vörös csillag viselésének büntethetőségéről. Jogesetek Magyarázata, 2010/1., 77-82.

[61] Megemlítendő, hogy a Reuters tényellenőrzői 2020 júliusában megvizsgálták a felhasználó által közzétett idézetet, és nem találtak arra utaló jelet, hogy Goebbels valóban mondott volna az idézetnek megfelelő szöveget. Fact Check: Joseph Goebbels Misquote on "Converting Intellectuals" Resurfaces. Reuters, 2020. július 8., https://reut.rs/3UWsgpT.

[62] 2020-005-FB-UA 2.

[63] Uo. 6.

[64] Uo. 8.3.1.

[65] 2021-002-FB-UA.

[66] Papp János Tamás: A közösségi média szabályozása a demokratikus nyilvánosság védelmében. Budapest, Wolters Kluwer, 2022, 234-235.; Lendvai Gergely Ferenc: Zwarte Piet a Facebook Oversight Board kontextusában - a Zwarte Piet és a kulturális különbségek értelmezése. Ars Boni, 2022/3-4, 22-31.

[67] Lendvai i. m. (66. lj.) 25.

[68] Angelita D. Reyes: Performativity and Representation in Transnational Blackface: Mammy (USA), Zwarte Piet (Netherlands), and Haji Firuz (Iran). 16 Atlantic Studies (2019), https://doi.org/10.1080/14788810.2018.1490508, 531-532.

[69] 2021-002-FB-UA 1-2.

[70] Bruce David: Christmas: A Candid History. Berkeley, University of California Press, 2017, 54.

[71] Reyes i. m. (68. lj.) 530-534.; Jeroen Rodenberg - Pieter Wagenaar: Essentializing "Black Pete": Competing Narratives Surrounding the Sinterklaas Tradition in the Netherlands. 22 International Journal of Heritage Studies (2016), https://doi.org/10.1080/13527258.2016.1193039, 716-718.; Office of the High Commissioner for Human Rights CERD/C/NLD/CO/19-21 report S.17.

[72] Blackface: The Birth of An American Stereotype. National Museum of African American History & Culture, https://s.si.edu/3yht2oJ.

[73] Lásd még Ayanna Thompson: Blackface. New York, Bloomsbury, 2021, https://doi.org/10.5040/9781501374043.

[74] Reyes i. m. (68. lj.) 531-532.

[75] 2021-002-FB-UA 8.

[76] 2021-005-FB-UA.

[77] Daily Struggle / Two Buttons. Know Your Meme, https://bit.ly/4dGfPpu.

[78] Vö. Perinçek v. Switzerland, no. 27510/08, 2015. október 15-i ítélet.

[79] 2021-005-FB-UA 2.

[80] 2021-005-FB-UA 8.

[81] Uo. 8.1.3.

[82] Uo. 8.1.1.

[83] Uo. 8.2.

[84] 2021-007-FB-UA.

[85] Uo. 2.

[86] Wong-Floridi i. m. (10. lj.) 18.

[87] 2021-010-FB-UA.

[88] Vö. Standard Verlagsgesellschaft v. Austria (No. 3), no. 39378/15, 2021. december 7-i ítélet.

[89] 2021-010-FB-UA 8.1, 8.3.

[90] 2021-011-FB-UA.

[91] Lásd ehhez Racial Slur Database, https://bit.ly/4dEpi0D.

[92] 2021-011-FB-UA 2.

[93] Uo.

[94] 2021-012-FB-UA.

[95] A wampum az észak-amerikai őslakosok hagyományos művészeti formája - leggyakrabban csigahéjból és kagylógyöngyökből készített fonatszerű képek, amelyek eseményeket ábrázolnak, de akár szerződésként vagy megállapodásként is szolgálhatnak. Paul Otto: Wampum, Tawagonshi, and the Two Row Belt. 3 Journal of Early American History (2013), https://doi.org/10.1163/18770703-00301008, 110-113.

[96] Kanadában 2021-ben egy korábban őslakosoknak fenntartott iskola alatt végzett régészeti vizsgálat során kiderült, hogy ott feltételezhetően 215 jelöletlen sírhely található. Az ásatás kapcsán még tudományos vita zajlik a feltételezésről.

[97] 2021-012-FB-UA, Public Comment no. 10208.

[98] Uo. 2.

[99] A válaszbeszéd kapcsán a Meta külön felületet hozott létre, ahol deklaráltan vállalja a cég, hogy a válaszbeszéd megengedett a platformon: https://bit.ly/4bgwWwL.

[100] 2021-012-FB-UA 8.1.

[101] Uo. 10.

[102] 2021-014-FB-UA.

[103] A Tigré és az Amhara régió Etiópia északi részén fekszik, a 2020-2022 közötti tigréi fegyveres konfliktus helyszínei. 2021-014-FB-UA 2.

[104] Uo.

[105] Tigray Forces Killed 120 Civilians in village in Amhara - Ethiopia Officials. Reuters, 2021. szeptember 9., https://reut.rs/4dF6zBY.

[106] 2021-014-FB-UA 8-10.

[107] 2022-003-IG-UA.

[108] A Facebook - és egyéb platformok, projektek és szolgáltatások - mellett az Instagram is a Meta cégcsoporthoz tartozik.

[109] Uo. 2, 6.

[110] Uo. 8.

[111] Uo. 8.3.

[112] 2022-001-FB-UA.

[113] Vö. Leroy v. France, no. 3619/03, 2009. április 6-i ítélet. A grafikus és rajzoló felperes szerint sérültek az Emberi Jogok Európai Egyezményének 10. cikkében foglalt jogai, amikor a nemzeti bíróság elítélte azért, mert egy újságban a World Trade Center elleni terrortámadáshoz kapcsolódóan egy képregényben azt írta: "Mindannyiunk álmodtunk róla... a Hamas megcsinálta." Az Emberi Jogok Európai Bírósága megállapította, hogy a felperes szólása nem élvezi a 10. cikk védelmét, és elutasította a kérelmet.

[114] Gergely Ferenc Lendvai: "Pure Rat Country" - Reflections on Case Decision 2022-001-FB-UA of Facebook Oversight Board (Knin Cartoon Case). 1(3) Journal of Digital Technologies and Law (2023), https://doi.org/10.21202/jdtl.2023.26, 615-616.

[115] 2022-001-FB-UA 2.

[116] Mihael Sobolevski: Robbery and Terror of Dinara Četnik Division in the Krivi Put Region on 28th and 29th December 1944. 31 Senjski zbornik : prilozi za geografiju, etnologiju, gospodarstvo, povijest i kulturu (2004) 95-113.

[117] Croatia: Praise for "Operation Storm" creates climate of impunity. Amnesty International, Index:EUR 64/010/2011, 09.08.2011; Croatia Captures Rebel Serb City; Thousands Flee - Balkans: Takeover of Knin Sends Refugees on Panicked Flight to Serb-held Areas of Bosnia. U.N. Officer Tells of Bodies Lying in the Streets. Two More Peacekeepers Killed. Los Angeles Times, 1995. augusztus 6., https://lat.ms/44GSD6D.

[118] 2022-001-FB-UA 6.

[119] Uo. 8-10.

[120] 2022-008-FB-UA.

[121] Uo. 2.

[122] Uo. 8.

[123] Number of Monthly Active Facebook Users Worldwide as of 3rd Quarter 2023. Statista, https://bit.ly/3Wzun4l.

[124] Schultz i. m. (36. lj.) 160.

[125] Gosztonyi Gergely: Cenzúra Arisztotelésztől a Facebookig. A közösségi média tartalomszabályozási gyakorlatának komplexitása. Budapest, Gondolat, 2022, https://doi.org/10.24362/cenzura.gosztonyi.2022, 132.

[126] Mark Zuckerberg: A Blueprint for Content Governance and Enforcement. Facebook, 2018. november 15., https://bit.ly/3yilHoP.

[127] Evelyn Douek: Facebook's "Oversight Board": Move Fast With Stable Infrastructure And Humility. 21 North Carolina Journal Of Law & Technology (2019) 13.

[128] Uo. 27.

[129] Klonick i. m. (1. lj.) 2429-2430.

[130] Uo. 2475.

[131] Papp i. m. (66. lj.) 235.

[132] Lásd ehhez Schultz i. m (36. lj.) 153-154.

[133] Elettra Bietti: A Genealogy of Digital Platform Regulation. 7(1) Georgia Law Technology Review (2023) 43-44.

[134] Pickup i. m. (5. lj.) 4.

[135] Szikora i. m. (38. lj.) 218.

[136] Vö. András Koltay: The Protection of Freedom of Expression from Social Media Platforms. 73 Mercer Law Review (2022) 531-534.

[137] Kevin Frazier: Why Meta Users Need A Public Advocate: A Modest Means To Address The Shortcomings Of The Oversight Board. 28 Richmond Journal of Law and Technology (2021) 606.

[138] Douek i. m. (127. lj.) 63.

[139] Wong-Floridi i. m. (10. lj.) 6.

[140] Douek i. m. (127. lj.) 7.

[141] Oversight Board Q4 2022 Transparency Report, https://bit.ly/3QGzMTe, 17.

[142] Eric Goldman: Content Moderation Remedies. 28 Michigan Technology Law Review (2021), https://doi.org/10.36645/mtlr.28.1.content, 5.

[143] Brenda Dvoskin: Expert Governance of Online Speech, 64 Harvard International Law Journal (2023) 131-133.

[144] Helfer-Land i. m. (19. lj.) 14.

[145] Ehhez lásd Chinmayi Arun: Facebook's Faces. 135 Harvard Law Review (2021) 243.

[146] Oversight Board Q4 2022 Transparency Report (141. lj.).

[147] Oversight Board Charter 7.7.1-7.7.2.

[148] Lásd az "arab szavak helyreállítása" vagy a "knini rajzfilm" esetet.

[149] Rotem Medzini: Enhanced Self-Regulation: The case of Facebook's Content Governance. 24 New Media & Society (2022), https://doi.org/10.1177/1461444821989352, 2237.

[150] Wong-Floridi i. m. (10. lj.) 8.

[151] Leading Countries Based on Facebook Audience Size as of January 2023. Statista, https://bit.ly/4bDDdlF.

[152] Wong-Floridi i. m. (10. lj.) 8.

[153] Ehhez lásd Ezequiel González-Ocantos - Wayne Sandholtz: The Sources of Resilience of International Human Rights Courts: The Case of the Inter-American System. 47 Law & Social Inquiry (2021), https://doi.org/10.1017/lsi.2021.22, 95-131.

[154] Oversight Board Q4 2022 Transparency Report (141. lj.).

[155] Riku Neuvonen - Esa Sirkkunen: Outsourced Justice: The Case of the Facebook Oversight Board. Journal of Digital Media & Policy (2022), https://bit.ly/3UYxqSk, https://doi.org/10.1386/jdmp_00108_1, 12.

[156] Bill of Rights 8. §.

[157] Niva Elkin-Koren - Maayan Perel: Separation of Functions for AI: Restraining Speech Regulation by Online Platforms. 24 Lewis & Clark Law Review (2020) 880.

[158] Chander i. m. (8. lj.).

[159] Vö. Hillary A. Sale: Monitoring Facebook. 12 Harvard Business Law Review (2022) 401.

[160] Wong-Floridi i. m. (10. lj.) 16.

Lábjegyzetek:

[1] A szerző PhD-hallgató, Pázmány Péter Katolikus Egyetem Jog- és Államtudományi Kar. A tanulmány a Kulturális és Innovációs Minisztérium ÚNKP-23-3 kódszámú Új Nemzeti Kiválóság Programjának a Nemzeti Kutatási, Fejlesztési és Innovációs Alapból finanszírozott szakmai támogatásával készült.

Tartalomjegyzék

Visszaugrás

Ugrás az oldal tetejére