NMHH: egyéni és társadalmi kockázata is van a deepfake-nek!
A Nemzeti Média- és Hírközlési Hatóság (NMHH) a pénteki közleményében a deepfake-jelenség társadalmi kockázatára hívja fel a figyelmet: elemzésük szerint egyéni és társadalmi kockázata is van a mesterséges intelligencia által előállított hamis arcmásnak.Az NMHH kommunikációs igazgatósága azt közölte az MTI-vel, hogy a deepfake olyan, a hitelességét tekintve rendkívül meggyőző videó, amelyben általában emberek arcát felhasználva hamis képmásokat mutatnak be, melyeket mesterséges intelligencia felhasználásával állítottak elő.
Megjegyezték, hogy a fényképek retusálása, azaz technikai értelemben vett meghamisítása nem újkeletű gyakorlat, azonban a mesterséges intelligencia nemcsak a képek megváltoztatását, hanem azok létrehozását is lehetővé teszi. A deepfake-jelenség 2017-ben indult hódító útjára a Reddit fórumon, ahol az egyik felhasználó egy pornószínésznő arcát egy híres színésznőével helyettesítette - idézték fel.
A videót követően számos hasonló hamisítvány látott napvilágot, és 2018 végére már szinte általánossá vált - írták. Úgy folytatták, hogy ma már bárki tud jobb vagy rosszabb minőségben, különösebb utánajárás és technikai ismeret nélkül is deepfake tartalmakat készíteni. Az internetfelhasználók főként pornográfia hamisítására és mémek készítésére használták - tették hozzá.
A kifejezetten félrevezető céllal megalkotott, úgynevezett megtévesztő deepfake víziója is hamar megszületett: az effajta tartalom hosszú ideig csak fikcióként élt a köztudatban. Az elméleti lehetőség azóta valósággá vált, erről árulkodik az a 2022 júniusában történt magyarországi eset is, amely Budapest főpolgármesterhez, Karácsony Gergelyhez, valamint Kijev polgármesterhez, Vitalij Klicskóhoz kapcsolódott, pontosabban egy ál-Klicskóhoz, ugyanis - mint később kiderült - a budapesti főpolgármester a videóbeszélgetés során nem a hivatalban lévő ukrán városvezetővel folytatott beszélgetést - olvasható a közleményben.
Karácsony és a hivatal dolgozói sokáig nem észlelték, hogy hamisítvánnyal van dolguk, mivel a deepfake Klicsko a háborút és a menekültválságot érintően releváns kérdéseket tett fel - fűzték hozzá, azzal együtt, hogy utólag kiderült, az ál-Klicsko korábban Madrid, Berlin és Bécs polgármestereivel is kezdeményezett videóhívásokat.
Nagy port kavart az a 2019-es eset is, amikor egy brit energiavállalat vezérigazgatójának hangját deepfake technológia segítségével reprodukálták, és a cég ügyvezető igazgatóját 200 ezer euró átutalására kérték fel egy állítólagos magyar beszállító javára. Mire az átverést felfedezték, a pénz, ami magyarországi, valamint mexikói számlákon mozgott, már szétszóródott a világban.
A közleményben azt írták, hogy a tapasztalatok szerint a hamisítványt legkönnyebben az apró részleteken keresztül tudjuk leleplezni. Léteznek ugyanis a deepfake-re jellemző tipikus hibák, melyek általános ismertetőjegyei az ilyen jellegű hamisítványoknak. Ha odafigyelünk ezekre, egy idő után már könnyebben felfedezhetjük, hogy nem egy valódi személyt látunk a felvételeken.
Azt tanácsolták, hogy az első és legfontosabb, hogy jól szemügyre vegyük a képen vagy videófelvételen látható arcot, a pórusokat, a homlokot, kiváltképpen a haj és a nyak vonalát, hiszen számos esetben a hamisítvány már az illesztési pontokat követve leleplezhető. Bár a jelenlegi algoritmusok nagyon precízek, árulkodó nyom lehet, ha rendellenességet tapasztalunk a száj és a szemöldök mozgását figyelve - hívták fel a figyelmet.
A törvényi rendelkezések a deepfake létrejöttét elősegítő technológiát nem, de a felhasználásának módját már szabályozzák - jelezték. Közölték azt is, hogy a deepfake algoritmussal létrehozott tartalmak viszonylag új jelenségnek számítanak, de a szakértők már felhívták a figyelmet arra, hogy milyen kockázatokat is jelenthetnek az egyénekre, szervezetekre vagy akár országok kormányaira nézve.
Hangsúlyozták, hogy senki sincs biztonságban a deepfake-tartalmaktól. Egyes országokban már léteznek kifejezetten az ilyen tartalmakkal való visszaélések ellen létrehozott büntető szankciók, ugyanakkor a legtöbb helyen, ahogy hazánkban is, a jogi háttér még nem biztosított. A deepfake-technológia által generált kép- és hanganyag jogszerű használata nagyszerű üzleti lehetőségeket kínál, valamint számos új kaput nyit ki a marketing, a televízió és a mozi számára szerte a világon.
A technológia önmagában ártalmatlan és a konstruktív felhasználása nemcsak a különböző cégek és vállalatok érdekeit szolgálja, hanem jelentős társadalmi együtthatója révén, nagy hatással lehet az emberek életére - áll az NMHH elemzésében.
(Forrás: MTI)
Hozzászólások