https://doi.org/10.59851/mj.72.12.9
Általános értelemben a deepfake alatt olyan audiovizuális tartalom értendő, amely teljesen vagy részben valós tartalom manipulálásával jött létre. A manipulált tartalom erőteljesen érintheti az egyes személyek emberi méltósághoz, képmáshoz, hangfelvételhez, magánélethez és személyes adatok védelméhez való jogát. Jelen tanulmányban a deepfake-tartalmak legfontosabb személyiségi jogi kihívásait tekintjük át, áttekintő, problémafelvető jelleggel.
Kulcsszavak: deepfake; személyiségi jogok; mesterséges intelligencia; manipulált tartalom; képmáshoz való jog
In general terms, deepfake refers to audiovisual content that has been created by manipulating real content, either in whole or in part. Manipulated content can have a significant impact on individuals' rights to human dignity, image, voice recording, privacy and personal data protection. In this study, we review the most important privacy law challenges posed by deepfake content in an overview and problem-raising manner.
Keywords: deepfake, personality rights, artificial intelligence, manipulated content, right to image
Az Európai Unió mesterséges intelligenciáról szóló rendelete[1] meghatározza a deepfake fogalmát. E definíció szerint olyan mesterséges intelligencia által generált vagy manipulált kép, illetve audio- vagy videótartalom értendő e kifejezés alatt, amely hasonlít létező személyekre, tárgyakra, helyekre, entitásokra vagy eseményekre, és amely egy személy számára megtévesztő módon autentikusnak vagy valóságosnak tűnik.[2]
A kifejezés eredete 2017 decemberére nyúlik vissza. A rendkívül népszerű, jelenleg több mint 1,1 milliárd havi aktív használóval rendelkező Reddit közösségimédia-oldal[3] fórumán alkotta meg egy felhasználó, etimológiailag a "deep", vagyis a "mély" és a "fake", vagyis a "hamis" szavak összeolvasztásával.[4] Az érintett felhasználó olyan pornográf tartalmú videófelvételre[5] reflektálva használta a kifejezést, amelyen egy híresség arcképét az egyik szereplő arcának a helyére illesztették.[6] Az így megszületett felvétel szinte a megtévesztésig valóságosnak tűnt, és lényegében egy tendencia kezdetét is jelentette: a szexuális tartalmú videók manipulálása azóta is a deepfake-technológia jellegzetes felhasználási esetköreként tartható számon.[7]
A "hasznosítás" köre azonban folyamatosan bővül. Erre szemléletes - és széles társadalmi körben ismert - példát jelentenek a közéleti szereplőket, tipikusan politikusokat érintő manipulált felvételek, amelyek lehetőség nyújthatnak a különböző társadalmi, politikai folyamatok befolyásolására is. 2022 márciusában például rendkívüli gyorsasággal terjedt az internetfelhasználók között egy videó, amelyben Volodimir Zelenszkij ukrán elnök arra kérte a fronton harcoló katonáit, hogy tegyék le a fegyvert.[8] A felvétel deepfake-technológiával készült, hasonlóan egy 2024 májusában generált hanghoz, amely Joe Biden akkori amerikai elnök nevében és hangjával buzdította a demokrata szavazókat arra, hogy a New Hampshire állambeli előválasztáson tagadják meg a részvételt.[9]
A társadalmi hatásokon túl, érdemes röviden szót ejteni a deepfake működését meghatározó technikai háttérről is, amelynek alapját lényegében két fejlesztés, a
- 770/771 -
mélytanulás és a generális adverzális hálózatok jelentik.[10] A deepfake alkalmazásának a lényege, hogy mesterséges intelligencia (röviden: MI) felhasználásával a célszemélyről rendelkezésre álló tanítóadatok segítségével átalakít egy másik személyről készült felvételt. Ennek eredményeképpen a másik személy megnyilvánulása a célszemélynek lesz tulajdonítható, annak "sajátjaként" jelenik meg. A technológia fejlődésének eredményeként, egyre kevesebb minta, azaz tanítóadat lesz szükséges a hitelesnek tűnő szintetikus megjelenéshez.[11] Az algoritmus az adott személy attribútumait (például arckifejezéseit, mimikáját, hangját, beszédstílusát) először modellezi, majd ezeket beépíti egy mesterségesen létrehozott tartalomba.
Egy 2022-es tanulmányban foglaltak szerint, a deepfake-technológia többféleképpen is alkalmazásra kerülhet. Az egyik jellegzetes esetkör az arccsere, amelynek célja, hogy a videón vagy fényképen szereplő személy arcát kicserélje egy másik személy arcára. Szintén jellemző az attribútumszerkesztés, amely egy videóban vagy képfelvételen szereplő személy valamilyen külső jellemzőjét változtatja meg, például az általa viselt ruházatot, hajszínt stb. De gyakori használati módot jelent az arc mimikáinak megváltoztatása, eltorzítása is. Teljesen szintetikus képmás vagy hangfelvétel létrehozására is lehetőség van deepfake-technológiával, amelynek szintén alapját képezheti egy valós személy attribútumainak a felhasználása, amelyből az algoritmusok új tartalmat állítanak elő.[12]
Az imént ismertetett technológiai jellemzőket alapul véve, a hazai jogirodalomban született néhány kísérlet a deepfake fogalmának a meghatározására. E körből kiemelést érdemel Gosztonyi Gergely 2024-es definíciója, amely szerint "A deepfake olyan digitális manipuláció, amellyel kép-, illetve hangfelvétel-tartalmakat állítanak elő a mesterséges intelligenciát alkalmazó technológia segítségével a valóságtól eltérő tartalommal és valamely szándékolt hatás elérése érdekében".[13] Aczél Petra megfogalmazásában pedig a deepfake lényegében egy adott személy plágiumaként értelmezhető.[14] A magunk részéről - általános értelemben - deepfake alatt olyan mesterséges intelligencia segítségével létrehozott digitális tartalmat értünk, amely egy természetes személy attribútumainak a felhasználásával - például az arcával, hangjával vagy mozgásával - megtévesztően a valóság látszatát kelti.
A fent bemutatott néhány gondolat reményeink szerint szemléletesen példázza azt, hogy a deepfake-felvételek természetüknél és céljuknál fogva magukban hordozzák a személyiségi jogok megsértésének számos lehetőségét. Az emberi méltóságból levezetésre került[15] személyiségi jogok egyik sajátossága az abszolút jelleg, amely lényegében az egyén identitása feletti önrendelkezés biztosítását is szolgálja. A deepfake-technológia azonban éppen ezt a kontrollt vonja el: az érintett személy saját képmása és hangja felett való rendelkezési joga de facto megszűnik. Ez a helyzet különösen súlyos akkor, ha a manipulált tartalom úgy kerül nyilvánosságra, hogy az egyén nem is értesül róla. Ez a magatartás sértheti akár az információs önrendelkezéshez való jog érvényesülését is, különösen, ha a tartalom online platformokon tömeges elérést eredményez. Habár a Ptk. nem nevesíti külön az információs önrendelkezés szabadságát, a személyiségi jogok generálklauzulája alapján minden olyan magatartás, amely az egyén autonómiáját és személyes integritását sérti, jogellenesnek tekintendő.[16]
A deepfake-technológia alkalmazása számos gyakorlati akadályt is támaszt a jogsértő magatartásokkal szembeni fellépés vonatkozásában. A jogsértést elkövető személyének azonosítása, jellemzően a nemzetközi adattovábbítás és a platformalapú terjesztés esetén a legtöbb esetben eredménytelennek bizonyul. További problémát jelenthet, hogy a jogsértő tartalom hozzáférhetőségének megszüntetése, például a tartalom törlése vagy a további terjesztés megakadályozása technikai szempontból is ne-
- 771/772 -
hezen kivitelezhető művelet, tipikusan akkor, ha az adott manipulált felvétel virális módon terjed.
Szintén fontos körülményt jelent, hogy a manipulált és hamisított audiovizuális tartalmak - különösen a deepfake-technológiával előállított felvételek - gyakran közéleti szereplőket, például politikusokat vagy ún. celebritásokat érintenek.[17] E felvételek jelentős része az internethasználók széles köre előtt ismertté válik, ezáltal fokozva a személyiségi jogsértések súlyosságát. Ezen a ponton felmerül a kérdés, hogy az ilyen helyzetekben érvényesülhet-e a közéleti szereplőkre vonatkozó többlettűrési kötelezettség.
A Ptk. 2:44. §-a részletesen szabályozza a közéleti szereplők személyiségi jogainak védelmét, egyúttal kijelöli a véleménynyilvánítás szabadságának és a személyiségvédelemnek az alkotmányos egyensúlyát.[18] A törvény értelmében a közéleti szereplő személyiségi jogait a közügyek szabad vitatását biztosító alapjogok gyakorlása szükséges és arányos mértékben, az emberi méltóság sérelme nélkül korlátozhatja. E rendelkezésből fakad az a bírósági gyakorlatban is érvényesülő elv, miszerint a közéleti szereplők - közszereplésükből fakadóan - kötelesek a kritikák egy magasabb szintjét eltűrni, amennyiben azok közügyet érintenek.
Fontos azonban hangsúlyozni, hogy ez a többlettűrési kötelezettség nem korlátlan. A Ptk. egyértelműen kimondja, hogy a közéleti szereplő magán- és családi életének, valamint otthonának sérelme a közéleti vita keretében sem megengedhető.[19] Emellett a törvény külön is rögzíti, hogy a közéleti szereplőt a közügyek szabad vitatásának körén kívül eső közléssel vagy magatartással szemben ugyanaz a személyiségi jogi védelem illeti meg, mint bármely más természetes személyt. Végül a jogszabály deklarálja, hogy nem minősül közügynek a közéleti szereplő magán- vagy családi életével kapcsolatos tevékenység, illetve adat.
Mindezek alapján a közéleti szereplők többlettűrési kötelezettsége kizárólag szűk körben, a közéleti viták keretei között, az arányosság és az emberi méltóság sérelmének tilalma mellett érvényesülhet. A magánszféra, különösen a családi élet és az otthon védelme ilyen esetekben is elsőbbséget élvez, még a nyilvános diskurzus szabadságával szemben is. A manipulált, hamis látszatot keltő felvételek tehát egyértelműen sérthetik a közéleti szereplők személyiségi jogait.
Az általános megállapításokat követően, érdemes a képmáshoz és hangfelvételhez való jogot érintően[20] is megvizsgálni a deepfake-jelenség hatásait, tekintettel arra, hogy a digitális technológia, különösen a deepfake-alkalmazások terjedése új jogsértő magatartások megjelenését eredményezi. A deepfake-tartalmak terjedése többek között azért is tekinthető problematikusnak, mert több, már korábban ismert jogsértési típust egyidejűleg valósítanak meg.
A képmással vagy hangfelvétellel való visszaélés klasszikus - a bírói gyakorlatban is visszatérően megjelenő - esetei közé tartozik: (1) a felvétel elkészítése az érintett hozzájárulása nélkül; (2) a jogszerűen készült felvétel rendeltetésellenes felhasználása, különösen annak nyilvánosságra hozatala; (3) az ábrázolás módjának jogsértő jellege - például megtévesztő, megalázó vagy méltóságot sértő ábrázolásmód alkalmazása; valamint (4) a felvétel jogosulatlan megváltoztatása, vagyis manipulálása.[21] A deepfake-technológia e négy jogsértési forma metszéspontjában áll: az engedély nélküli, félrevezető módon manipulált képi és hangi tartalom a személyiségi jogsértés különösen súlyos eseteit eredményezheti.
Érdekes előképeként említhető a deepfake-jelenségnek a karikatúra, amely szintén a képi ábrázolás torzított, gyakran ironikus vagy kritikus célú formája. A Legfelsőbb Bíróság egy korábbi határozatában[22] kimondta, hogy a közszereplőről készült, karikatúrának minősülő fénykép nyilvánosságra hozatala nem feltétlenül sérti a képmáshoz való jogot, amennyiben a közlés nem indokolatlanul bántó, sértő vagy lealacsonyító. Ez a döntés előrevetítette a vizuális véleménynyilvánítás kereteinek értelmezését, és azt is világossá tette, hogy a képi torzítás önmagában nem jogsértő - feltéve, hogy nem lépi át az emberi méltóság és az abból fakadó személyiségi jogok védelmének a határát.
- 772/773 -
A deepfake azonban túlmutat a karikatúra műfaján: míg a karikatúra kifejezetten felismerhetően torzít, és ezáltal stilizált módon fejez ki véleményt, addig a deepfake-technológia épp a valódiság látszatát kelti, miközben tudatosan hamisítja meg a valóságot. Ezzel nem csupán a képmáshoz fűződő jog, hanem a jóhírnévhez, becsülethez, sőt sok esetben az identitáshoz való jog is sérülhet. Erre világít rá a Fővárosi Ítélőtábla ítélete,[23] amely egy sajtóban megjelent manipulált fénykép kapcsán állapította meg a képmáshoz és jóhírnévhez fűződő jog megsértését. Az ügyben egy közszereplő olyan képi kontextusban jelent meg, amely hamis tényállítást közvetített a politikai meggyőződésére vonatkozóan, noha az eredeti fénykép ezzel ellentétes üzenetet hordozott. A bíróság nemcsak a jogsértést állapította meg, hanem helyreigazítás közzétételére és az eredeti, torzításmentes felvétel nyilvánosságra hozatalára is kötelezte az alperest.
A hatályos szabályozást tekintve, a képmáshoz való jog védelmét a Ptk. deklarálja, amikor kimondja, hogy a képmás- és hangfelvétel kizárólag az érintett hozzájárulásával készíthető el és használható fel.[24] A jogsértés megállapításához tehát elegendő az érintett hozzájárulásának hiánya. A deepfake-technológia alkalmazása rendszerint éppen ebben a pontban sérti meg a képmáshoz való jogot, hiszen az ábrázolt személy tudta és belegyezése nélkül állít elő olyan képi tartalmat, amely valósághű megjelenéssel látszólag hiteles információt közvetít.
A 2:48. § implicit módon a valóságnak megfelelő, autentikus képmás védelmét is garantálja: a manipulált, torzított képmás nem az érintett tényleges megjelenését tükrözi, ezért annak közzététele még hozzájárulás esetén is jogsértő lehet. A deepfake-tartalmak tehát - amelyek akár hamis kontextusba helyezett, vizuálisan élethű, de valótlan képmásokat hoznak létre - közvetlenül sértik az érintettek képmáshoz és hangfelvételhez való jogát.
A Ptk. rendszerében tehát a deepfake-technológia alkalmazása egyrészt a képmás jogosulatlan elkészítését és felhasználását, másrészt a felhasználás megtévesztő, manipulatív, emberi méltóságot sértő voltát is megalapozza, amely akár egyéb személyiségi jog vagy a személyiségi jogvédelem generálklauzulájának a megsértéseként is értelmezhető.[25]
Mindezek alapján megállapítható, hogy a deepfake-technológia erőteljesen érinti a képmáshoz és hangfelvételhez való jog érvényesülését, technikai és jogdogmatikai szempontból is új problémákat vethet fel, és kiemelten fontossá teszi a polgári jogi személyiségvédelem szabályait.
Összegzésképpen megállapítható, hogy a deepfake-technológia személyiségi jogokat veszélyeztető hatásaira válaszul a szabályozási környezet fejlesztése elengedhetetlennek mutatkozik.
A szabályozási törekvések megjelenése mellett említést érdemel, hogy számos technológiai kezdeményezés irányul a manipulált képi és hangi tartalmak azonosítására, kiszűrésére. Ilyenek például az észlelő szoftverek, mint a Project Maru, amely hibás képkockák elemzése alapján mutatja ki a manipuláció jeleit, vagy a Project Angora, amely a képi tartalom internetes eredetét keresi vissza. Hasonló célt szolgál a DARPA által létrehozott Media Forensics rendszer, valamint a nagy technológiai platformok - így a Facebook és a Google - által fejlesztett detekciós eszközök is.[26]
A jelenleg hatályos szabályozási környezetből kiemelést érdemel az Európai Unió - a már tanulmányunk elején említett - MI Rendeletének a szövege, amely expressis verbis előírja a deepfake-technológia alkalmazóinak tájékoztatási kötelezettségét. Az 50. cikk (4) bekezdése szerint az olyan MI-rendszerek felhasználóinak, amelyek "eredetinek vagy valóságosnak tűnő" képi, hangi vagy audiovizuális tartalmakat hoznak létre vagy manipulálnak, egyértelműen közölniük kell, hogy a tartalom mesterséges eredetű. A rendelet 134. preambulumbekezdése ennél is részletesebben fogalmaz: minden olyan MI-rendszerrel létrehozott tartalmat, amely "megtévesztően valóságosnak tűnik", és konkrét személyekre, tárgyakra vagy eseményekre hasonlít, jól érzékelhető módon meg kell jelölni, és az MI-eredetet címkézéssel és közzététellel egyértelművé kell tenni. Ezek a rendelkezések tehát nagymértékben segítik a manipulált tartalmakkal szembeni egységes fellépést és az így készült tartalmak felismerését, ami előmozdítja a személyiségi jogok érvényesülését.
Ez a szabályozási irány világosan mutatja azt is, hogy a jövőbeni jogi keretek - a polgári jogi felelősségi szabályokon túl - preventív, tájékoztató mechanizmusokkal kívánják mérsékelni a deepfake-technológia személyiségi jogokat sértő hatásait. Ezzel az Európai Unió egyértelmű lépést tesz a digitális személyiségvédelem új szintre emelése felé, amely már nem csupán a jogsértések utólagos orvoslására, hanem a manipulatív tartalmak megelőző azonosítására és átláthatóságára épül. Jelenleg azonban még számos nyitott kérdés nevesíthető a deepfake-technológia személyiségi jogokat érintő hatásaival kapcsolatban. ■
JEGYZETEK
[1] Az Európai Parlament és a Tanács 2024. június 13-i (EU) 2024/ 1689 RENDELETE a mesterséges intelligenciára vonatkozó harmonizált szabályok megállapításáról, valamint a 300/2008/EK, a 167/2013/EU, a 168/2013/EU, az (EU) 2018/858, az (EU) 2018/1139 és az (EU) 2019/2144 rendelet, továbbá a 2014/90/EU, az (EU) 2016/797 és az (EU) 2020/1828 irányelv módosításáról (röviden: mesterséges intelligenciáról szóló rendelet, MI Rendelet).
[2] Mesterséges intelligenciáról szóló rendelet 3. cikk 60. pont.
[3] A Reddit felhasználókra vonatkozó statisztikai adatokhoz lásd: John Paul Hernandez: Reddit statistics in 2025 and tactics to grow your brand. sproutsocial.com, 2025.04.28., https://sproutsocial.com/insights/reddit-statistics/
[4] Lásd hozzá: Kristjan Kikerpill - Andra Siibak - Suido Valli: Dealing with Deepfakes: Reddit, Online Content Moderation, and Situational Crime Prevention. In: Julie B. Wiest (ed.): Theorizing Criminality and Policing in the Digital Media Age. Leeds, Emerald Publishing Limited, 2021. (Studies in Media and Communications, 20.) 25-45. DOI: https://doi.org/10.1108/S2050-206020210000020008
[5] A deepfake-technológia fényképek, videófelvételek és hangfelvételek manipulálására kerül használatra.
[6] Madhura Thombre: Deconstructing Deepfake: Tracking Legal Implications and Challenges. International Journal of Law Management & Humanities, 2021. (4), 2267-2274.
[7] Abban az esetben, ha a deepfake-technológia használata nem közéleti szereplő természetes személyeket érint, akkor jellegzetes hasznosítási módnak tekinthető a különböző szexuális felvételek manipulálása. Az egyik "piacvezető" deepfake-felvételeket kínáló, pornográf tartalmakat megosztó oldalra havonta közel 15 millió új videó kerül megosztásra. 2023-ban az USA-ban létrehozásra került egy egyesület, amely kifejezetten azoknak a nőknek nyúlt jogi és pszichés segítséget, akikről deepfake felhasználásával készült pornográf felvételek került közzétételre az interneten. Lásd hozzá: Sophie Compton - Reuben Hamlyn: Opinion: The rise of deepfake pornography is devastating for women. cnn.com, 2023.10.29., https://edition.cnn.com/2023/10/29/opinions/deepfake-pornography-thriving-business-compton-hamlyn/index.html
[8] Deepfake video of Zelenskyy could be 'tip of the iceberg' in info war, experts warn.
[9] Shannon Bond: A political consultant faces charges and fines for Biden deepfake robocalls. npr.org, 2024.05.23., https://www.npr.org/2024/05/23/nx-s1-4977582/fcc-ai-deepfake-robocall-biden-new-hampshire-political-operative
[10] A mély tanulás alatt olyan gépi tanulás értendő, amely mesterséges neurális hálózatokkal teszi lehetővé, hogy a digitális rendszerek tanuljanak és döntéseket hozzanak strukturálatlan, címkézetlen adatok alapján. A generatív adverzális hálózat alatt (röviden, angol nyelvű mozaikszóval: GAN) olyan mesterséges neurális hálózat értendő, amely alkalmas új, valóságnak látszó adatok generálására. Maga a technológia két részre osztható: a generátor és a diszkriminátor. A generátor feladata az új adatok létrehozása, míg a diszkriminátor feladata az, hogy megkülönböztesse a valódi és a generált adatokat egymástól. A technikai háttér magyarázathoz lásd az alábbi tanulmányokat: Joanna Black - Cody Fullerton: Digital Deceit: Fake News, Artificial Intelligence, and Censorship in Educational Research. Open Journal of Social Sciences, 2020. (7), 71-88. DOI: https://doi. org/10.4236/jss.2020.87007; Jason Davis: Disinformation in the Era of Generative AI. In: Regina Luttrell - Adrienne A. Wallace (eds): Public Relations and the Rise of AI. New York, Routledge, 2025. 242-270.
[11] Vadász Pál: Szép új világ: deepfakes ante portas. ludovika.hu, 2024.02.19., https://www.ludovika.hu/blogok/itkiblog/2024/02/19/szep-uj-vilag-deepfakes-ante-portas/
[12] Naomi Masood - Khalid Malik - Ali Jawed - Marriam Nawaz: Deepfakes Generation and Detection: State-of-the-art, open challenges, countermeasures, and way forward. Applied Intelligence, 2022. (4), 3974-4026. DOI: https://doi.org/10.1007/s10489-022-03766-z
[13] Lásd hozzá: Gosztonyi Gergely - Lendvai Gergely: Deepfake és dezinformáció. Mit tehet a jog a mélyhamisítással készített álhírek ellen? Médiakutató, 2024. (1), 41-49. DOI. https://doi.org/10.55395/MK.2024.1.3
[14] Lásd hozzá: Aczél Petra - Veszelszki Ágnes (szerk.): Deepfake: A valótlan valóság. Budapest, Gondolat Kiadó, 2023.
[15] A Polgári Törvénykönyvről szóló 2013. évi V. törvény (a továbbiakban: Ptk.) 2:42. §.
[16] Ptk. 2:42. § (1) bekezdés.
[17] A Guardian 2024 márciusában publikált kutatása szerint az öt legismertebb, deepfake-videókat bemutató online oldalon több mint négyezer, világszerte ismert emberről készültek manipulált szexuális tartalmú anyagok, közülük 255 brit. Köztük egyaránt vannak színésznők, televíziós műsorvezetők, zenészek, youtuberek. Nadeem Badshah: Nearly 4,000 celebrities found to be victims of deepfake pornography. theguardian.com, 2024.03.21., https://www.theguardian.com/technology/2024/mar/21/celebrities-victims-of-deepfake-pornography. Giorgia Meloni olasz kormányfő a közelmúltban peres eljárást indított az arcképét felhasználó, szexuális tartalmú deepfake-felvétel elkészítése miatt. Lásd hozzá: Mukul Sharma: Giorgia Meloni sues father-son duo over pornographic deepfake. wionews.com, 2024.03.20., https://www.wionews.com/world/giorgia-meloni-sues-father-son-duo-aged-40-and-73-over-pornographic-deepfake-seeks-eu100000-in-damages-702610
[18] Ptk. 2:44. § (1) bekezdés.
[19] Ptk. 2:44. § (2)-(3) bekezdés.
[20] Megjegyzést érdemel, hogy egyéb személyiségi jogok érvényesülésére is hatással van a deepfake-technológia. Említést érdemel a jóhírnév, a becsület, az emberi méltóság, a személyes adatok védelméhez való jog és a magánélethez való jog oltalma is. Ezek vizsgálatára terjedelmi korlátok miatt jelen tanulmányban nem térünk ki, de a vizsgálat folytatása indokolt.
[21] Barzó Tímea: Személyiségvédelem. In: Barzó Tímea - Papp Tekla (szerk.): Civilisztika I. Általános tanok - Személyek joga - Szellemi alkotások joga. Budapest, Dialóg Campus, 2018. 212., https://antk.uni-nke.hu/document/akk-uni-nke-hu/ATMA_Civilisztika_I.pdf
[22] BH 2000.7.293. sz. ítélet.
[23] Pf.20796/2013/3. számú ítélet.
[24] Ptk. 2:48. § (1) bekezdés.
[25] Ptk. 2:42. § (2) bekezdés.
[26] Lásd hozzá: Herke Csongor: Deepfake: áldás vagy átok? Jogi szabályozási szempontok. Pro Futuro, 2023. (1), 157-178. DOI: https://doi.org/10.26521/profuturo/2023/1/13334
Lábjegyzetek:
[1] A szerző PhD, egyetemi adjunktus, Miskolci Egyetem Állam- és Jogtudományi Kar Civilisztikai Tudományok Intézete Kereskedelmi Jogi Tanszék.
Visszaugrás