A deepfake videók veszélyei

Egészen szokatlan bejegyzéssel jelentkezett nyár elején a Facebookon Karácsony Gergely. Budapest főpolgármestere júniusi posztjában arra hívta fel a figyelmet, hogy a közelmúltban videóbeszélgetést folytatott Vitalij Klicsko kijevi főpolgármesterrel az aktuálpolitikai helyzetről. Mivel a videóhívásra való megkeresés egy, a kijevi főpolgármesteri hivatal domainjét használó e-mail-címről érkezett, és korábban is kapcsolatban álltak az ukránokkal, senki sem gyanakodott átverésre. Azonban a mintegy negyedórás beszélgetés során több olyan provokatív jellegű kérdés is elhangzott – írta a főpolgármester –, ami miatt a hívást a tervezettnél végül előbb fejezték be. A beszélgetőpartner, aki pontosan úgy nézett ki, és úgy beszélt, mint Kijev első embere, nemcsak Karácsony Gergelyt verte át néhány napon belül, hanem a berlini, a madridi és a bécsi városvezetőket is. Később kiderült, hogy az eset mögött a Vovan and Lexus csatorna állt, amelyet két híres orosz komikus üzemeltet. Ők ketten az elmúlt időszakban a városvezetőkön kívül több világsztárt és ismert politikust is megvezettek, köztük volt Elton John, Mihail Gorbacsov, John McCain amerikai szenátor vagy Bernie Sanders amerikai demokrata elnökjelölt is. „Ez az eset is bizonyítja, hogy a deepfake technológia elképesztő tempóban fejlődik, és egyre komolyabb szintet ér el” – szögezte le Guld Ádám kommunikációs szakértő. Itt ugyanis nem egy korábban elkészített fotóról, vagy egy előre megszerkesztett videóról, hanem egy élő beszélgetés során alkalmazott átverésről volt szó, ráadásul kifejezetten fontos pozícióban lévő embereket sikerült átmenetileg megtéveszteniük.
Bárki számára elérhető
A deepfake technológia viszonylag új jelenség, magát a kifejezést 2017-ben egy Reddit-felhasználó találta ki, és a deep learning (mélytanulás) meg a fake (hamisítás, manipuláció) szavakból ered. A gyakorlatban ez azt jelenti, hogy a mesterséges intelligencia segítségével olyan tartalmakat hoznak létre, amelyekben az eredeti szereplőket egy másik személy képmásával és hangjával helyettesítik. Itt nem egyszerűen egy Snapchat vagy Instagram által használt és felettébb népszerű arccserefunkcióról van szó, ugyanis a deepfake hatékonysága jócskán felülmúlja még a legjobb photoshop-applikációét is. A technológia szinte tökéletesen leképezi az ember arcát és hangját, amit korlátlanul lehet manipulálni, ahogy csak szeretnénk. Guld Ádám szerint
néhány év alatt annyit tökéletesedett a deepfake videók dinamikája, vizuális megjelenése és hatásai, hogy az átlagos felhasználó számára szinte lehetetlen megállapítani, hogy ezek a tartalmak a valóságot ábrázolják, vagy egyszerűen digitális hamisítványokról van szó.
Ráadásul míg korábban csak speciális programokkal tudtak ilyen szintű tartalmakat létrehozni, két-három évvel ezelőtt már megjelentek azok az alkalmazások is, amelyek hatására napjainkra tömegek élnek a technológia adta lehetőséggel. A fejlesztők egyre több, mindössze néhány gigabájt tárhelyet igénylő alkalmazást dobtak piacra, ilyenek például a FakeApp, a DeepFaceLab, a FaceSwap, a MyFakeApp vagy a kínai fejlesztésű Zao.

„A deepfake videók döntő többsége teljesen ártalmatlan, szórakoztató, alig néhány másodperces tartalom, készítőit nem a rossz szándék vezérli. Hetente százezrével készülnek ilyen videók, amelyek mechanizmusa a TikTokhoz hasonlít, és egyetlen céljuk van, hogy ismerőseink és követőink szórakozzanak” – hívta fel a figyelmet a PTE BTK Kommunikáció- és Médiatudományi Tanszékének docense, aki ugyanakkor azt is elismerte, hogy ezzel a technológiával komoly károkat is lehet okozni. Guld Ádám azt is elmondta, hogy a szórakoztató videók mellett több új műfaj is megjelent, ezek közül a legismertebb az úgynevezett celebrity porn, melyben pornográf tartalmak érhetők el híres emberek arcával. A médiakutató szerint kulturális szempontból elgondolkoztató, hogy a visszaélések több mint 95 százaléka nőkkel kapcsolatos, és elsősorban híres hollywoodi színésznők arcával találkozhatunk pikáns jelenetekben.
A másik érintett terület a politika világa, nemzetközi színtéren több alkalommal is próbáltak tönkretenni ismert politikusokat. „Nancy Pelosi demokrata házelnököt például több alkalommal is azzal vádolták meg, hogy részegen beszélt nyilvános fellépésein” – emelt ki egy elhíresült esetet Guld Ádám, aki hozzátette: „Indiában pedig egy parlamenti képviselőről került nyilvánosságra egy homoszexuális tartalmú videó.” Szakértők szerint az ilyen típusú támadások alkalmasak a politikusi hitelesség rombolására, ráadásul a videó miatt hosszú távon rögzülhet a negatív képsor a nézőben. A kommunikációs szakértő ugyanakkor arra is felhívta a figyelmet, hogy mindez kétélű fegyver, mert ha a jövőben negatív anyag kerül ki a világhálóra, bárki védekezhet azzal, hogy pusztán hamisításról van szó. És bár sok esetben ez valóban így van, nehéz lesz tudni, mikor van igaza az illetőnek. Guld Ádám véleménye szerint
komoly bizalmi válság van kialakulóban az online térben, senki sem lehet biztos abban, hogy amit lát, annak mi a valóságtartalma.
Természetesen léteznek olyan politikai tartalmú deepfake videók, melyek szándékosan felismerhetővé teszik a technológiát. Ilyen például az idén tavasszal közel félmillió kattintást eredményező próbálkozás, melyen Vlagyimir Putyin orosz elnök Radnóti Miklós-verset szaval. A versválasztás beszédes, ugyanis az orosz–ukrán konfliktus árnyékában a Himnusz a békéről sorait halljuk magyarul.
Üzleti fogások
A deepfake videók másik felhasználási területe az influenszer-marketing, ahol nem hús-vér emberek, hanem digitális deepfake karakterek viszik a prímet. „Elsőként egy svédországi bútorüzlet élt a kampányában ezzel a megoldással, ami kereskedelmi szempontból hasznos megoldás volt, ugyanis egy élő kisbabával nemcsak forgatni nehéz, de reklámfilmekben szerepeltetni őket etikai és bizonyos jogi kérdéseket is felvet” – jegyezte meg a docens.
A digitális karakterek egy másik kockázati tényezőt is kiiktatnak, az élő influenszerek ugyanis főként a Z generáció tagjai, akik fiatal korukból adódóan olykor nem megfelelően viselkednek – ez nemcsak egy kábítószeres bulit vagy ittas gyorshajtást, de akár egy rosszul sikerült kommentet is jelenthet –, ami visszaüthet az influenszer által képviselt márka hírnevére. „Éppen ezért – hangsúlyozta Guld Ádám – az USA-ban már létezik digitális influenszerekre specializálódott ügynökség, ahol több világhírű deepfake karakter vesz részt piacvezető vállalatok promócióiban és reklámkampányaiban.” Ezek a karakterek teljesen élethűek, van dokumentált „életük”, vannak hobbijaik, baráti kapcsolataik, érzelmi szálaik, szinte minden, ami a valós emberekre jellemző, ugyanakkor megjelenéseik abszolút előre tervezhetőek és kiszámíthatóak – a megrendelő igényei alapján.
A kommunikációs szakértő arra a szomorú tényre is felhívta a figyelmet, hogy egy tavalyi felmérés alapján a követők mintegy 60 százaléka azzal sem volt tisztában, hogy az általa lájkolt karakter nem valós személy. „A mai fiatalok döntő többsége egyrészt csak videókat vagy képeket néz, cserébe alig olvas, hosszabb leírásokat pláne nem, másrészt pedig a technológia is olyan szintre került, hogy a megszólalásig valósághűek tudnak lenni” – magyarázta a lesújtó eredmény okait Guld Ádám. A szakember arra is kitért, hogy elsősorban a szemmozgás és a mimika terén sikerült nagyot előrelépniük a fejlesztőknek. A korábban olykor kissé esetlen tartalmakat ma már a szakértőknek is nehéz kiszűrniük, ráadásul az algoritmusnak egyre kevesebb inputra van szüksége a hamisított tartalom előállításához.

És ha már reklámok: a deepfake technológia élő szereplő esetében is hasznos lehet; David Beckham például egy maláriaellenes kampányban – a mesterséges intelligencia felhasználásával – kilenc különböző afrikai nyelven közvetítette a kór veszélyeire vonatkozó legfontosabb üzeneteket. Ezzel a megoldással a jövőben bármilyen nemzetközi piac meghódítása könnyebb lehet.
Jogosan merül fel a kérdés: vajon az oktatásban is fel lehetne használni ezt a technológiát? Guld Ádám szerint valóban meglenne a helye a deepfake alkalmazásának az iskolákban, hiszen mennyivel izgalmasabb lenne egy történelemóra, ha, mondjuk, Marilyn Monroe hangján mutatnák be az ötvenes évek Amerikáját, vagy Jefferson elnök mesélne a Függetlenségi Nyilatkozat aláírásának részleteiről. Az meg aztán igazi csemege lenne, ha a relativitáselméletet torzonborz frizurával Einstein próbálná elmagyarázni a diákoknak. „Azonban miután olyan újításról van szó, melynek komoly piaci szerepe van, ezért elsőként olyan szektorok kezdték el hasznosítani, melyek a profitot, nem pedig a közjót tartják szem előtt” – jegyezte meg a médiakutató.
Mit tehetünk ellene?
A deepfake tartalmak rosszindulatú felhasználása miatt még a Magyar Nemzeti Bank is lépni kényszerült. A jegybank megújított pénzmosási rendelete szerint a pénzintézeteknek egy megbízhatóbb „élőségvizsgálat” alá kell vetnie ügyfeleit, és az auditált elektronikus hírközlő rendszernek meg kell állapítania, hogy a távoli helyszínen lévő ügyfél valós, élő személy valós időben, személyesen igazolja magát, és az élőkép semmilyen formában nem manipulált. A mondás szerint tűz ellen tűzzel lehet legjobban harcolni, a deepfake technológia ellen így a mesterséges intelligenciát hívták segítségül. Kutatóintézetek, IT-cégek tucatjai dolgoztak azon, hogy olyan szoftvert fejlesszenek ki, amely képes felismerni a manipulált tartalmakat.

A Microsoft Video Authenticator a gyanús felvétel képkockáit egyesével vizsgálja, és minden egyes mozdulathoz olyan plusztartalmat ad hozzá, amely az ellenőrzésre készített mesterséges intelligenciától kikényszeríti a hibát, és ezek alapján pontozza, mennyire lehet valós a felvétel.
Természetesen ezek a szoftverek sem tévedhetetlenek, éppen ezért az Egyesült Államokban az ilyen típusú visszaélések bírósági ügyeinél két külön szakértői csoport is vizsgálja az érintett videókat. Guld Ádám elmondása szerint a fejlesztői gárda a technológiai alkalmazásokat vizsgálja, míg a másik csapatot nyelvészeti területtel és nonverbális kommunikációval foglalkozó szakértők alkotják, akik a videókon megjelenő karakterek szájmozgásából, hangsúlyozásából, intonációjából és szóhasználatából állapítják meg, hogy a videó valóságos-e vagy sem. Az Egyesült Államokban Virginia állam büntetőkódexének 18. cikke 2019 óta bünteti a pornográf tartalmú hamisított videókat; az első állam pedig, amely a politikai célú manipulálást szankcionálja, Texas volt. Guld Ádám úgy véli,
ebben a kérdésben nemcsak a gyermekek tudatosabb oktatására, hanem az idősebb generációk közösségimédia-jártasságának növelésére is fókuszálni kellene.
Mint fogalmazott, ebben a rendkívül gyorsan változó digitális kultúrában ugyanakkora hangsúlyt kell fektetni az idősebb korosztály tagjaira, akik a megfelelő tudással felvértezve hatással lehetnek a fiatalabbakra is. A médiakutató kitért arra is, hogy a közösségi média megjelenésével párhuzamosan a hagyományos médiaplatformok háttérbe szorultak, és a Facebookot nemcsak ismerősökkel való csevegésre vagy fényképek nézegetésére, hanem tájékozódási pontként is használják. „Összgenerációs probléma a fakenews oldalak minden valóságalapot nélkülöző cikkeinek lelkes megosztása” – figyelmeztetett a szakember, kiemelve: tudatos médiahasználattal lehet a legtöbbet tenni a hamisítások ellen. Guld Ádám hozzátette azt is, hogy a mainstream médiaszereplők kellő forráskritikával kezelik a deepfake videókat is, így a manipulált felvételekkel szemben egyfajta szűrőt képeznek. És nem utolsósorban józan ésszel, higgadtan kell megközelíteni az internetes tartalmakat, bármilyen nehéz is ez a mai rohanó világban.•