Van, ahol már szankcionálják a csaló tartalmakkal való visszaéléseket, de másutt, így hazánkban is még büntetlenül terjeszthetők a deepfake tartalmak.

Ahol szabályozzák is, az ott is egyelőre csak a felhasználásának a módját érinti, a deepfake létrejöttét segítő technológiát nem.
A deepfake algoritmussal létrehozott tartalmak viszonylag új jelenségnek számítanak, de a szakértők már egy ideje figyelmeztetnek rá, hogy milyen kockázatokat jelenthetnek mind az egyénekre, mind a szervezetekre, de akár az egyes országok kormányaira is.
A legfontosabb figyelmeztetés, hogy senki sincs biztonságban a deepfake-tartalmaktól. Az ezt létrehozó technológia által generált kép- és hanganyag szabályos használata amúgy remek üzleti lehetőségeket kínál, számos új kaput nyit ki a marketing, a televízió és a mozi számára szerte a világon.
A technológia ugyanis önmagában ártalmatlan és a megfelelő használata nagy hatással lehet az emberek életére is. Ugyanakkor azzal is tisztában kell lennünk, hogy a média konstruált, manipulált, sőt gyakorta hamis képet tár elénk – olvasható a média- és hírközlési hatóság(NMHH) közleményében.
A deepfake árnyoldalai
A deepfake egy olyan meggyőzőnek beállított videó, amelyben főleg emberek arcát felhasználva, a mesterséges intelligencia(AI) segítségével hamis képmásokat mutatnak be. A fényképek retusálása, meghamisítása régóta bevett gyakorlat, a különbség annyi, hogy az AI-val nemcsak a képeket változtathatjuk meg, hanem újakat is létrehozhatunk vele.
A deepfake-jelenség 2017-ben jelent meg a Reddit fórumon, ahol az egyik felhasználó egy pornószínésznő arcát egy híres színésznőével helyettesítette. Ezt követően számos hasonló hamisítvány látott napvilágot.
Ma már bárki tud jobb vagy rosszabb minőségben, különösebb utánajárás és technikai ismeret nélkül is deepfake tartalmakat készíteni. Az internetezők főként pornográfia hamisítására és mémek készítésére használják.
A kifejezetten félrevezető céllal gyártott, megtévesztő deepfake víziója is hamar megszületett. Az effajta tartalom hosszú ideig csak fikcióként élt a köztudatban. Az elméleti lehetőség azóta valósággá vált, és több esetben okozott komoly anyagi károkat is. A digitalizálódó bankvilágban a csalók akár hitelt is felvehetnek a nevünkben.
Nagy port kavart például az a 2019-es eset, amikor egy brit energiavállalat vezérigazgatójának hangját deepfake technológia segítségével reprodukálták, és a cég ügyvezető igazgatóját 200 ezer euró átutalására kérték fel egy állítólagos magyar beszállító javára. Mire az átverést felfedezték, a pénz, ami magyarországi, valamint mexikói számlákon mozgott, már szétszóródott a világban.
Miről ismerhető fel a deepfake?
A tapasztalatok szerint a hamisítványt legkönnyebben az apró részleteken keresztül tudjuk leleplezni. Léteznek ugyanis a deepfake-re jellemző tipikus hibák. Az első és legfontosabb, hogy jól szemügyre vegyük a képen vagy videófelvételen látható arcot, a pórusokat, a homlokot, kiváltképp a haj és a nyak vonalát, hiszen számos esetben a hamisítvány már az illesztési pontokon leleplezhető. Bár a jelenlegi algoritmusok nagyon precízek, árulkodó nyom lehet, ha rendellenességet tapasztalunk a száj és a szemöldök mozgását figyelve.