A deepfake videók veszélyei

Egyre mélyebb bizalmi válság alakul ki az interneten, szinte senki sem lehet biztos abban, hogy amit lát az online térben, annak mi a valóságtartalma – figyelmeztet a deepfake technológia elterjedésére Guld Ádám médiakutató. A Pécsi Tudományegyetem Bölcsészet- és Társadalomtudományi Kar (PTE BTK) Kommunikáció- és Médiatudományi Tanszékének docense szerint nemcsak a gyermekek tudatosabb oktatására kellene fókuszálni ebben a kérdésben, hanem az idősebb generációk közösségimédia-jártasságának növelésére is.


Egészen szokatlan bejegyzéssel jelentkezett nyár elején a Facebookon Karácsony Gergely. Budapest főpolgár­mestere júniusi posztjában arra hívta fel a figyelmet, hogy a közelmúltban videó­beszélgetést folytatott Vitalij Klicsko kijevi főpolgár­mesterrel az aktuál­politikai helyzetről. Mivel a videó­hívásra való megkeresés egy, a kijevi főpolgármesteri hivatal domainjét használó e-mail-címről érkezett, és korábban is kapcsolatban álltak az ukránokkal, senki sem gyanakodott átverésre. Azonban a mintegy negyedórás beszélgetés során több olyan provokatív jellegű kérdés is elhangzott – írta a fő­polgár­mester –, ami miatt a hívást a tervezettnél végül előbb fejezték be. A beszélgető­partner, aki pontosan úgy nézett ki, és úgy beszélt, mint Kijev első embere, nemcsak Karácsony Gergelyt verte át néhány napon belül, hanem a berlini, a madridi és a bécsi város­vezetőket is. Később kiderült, hogy az eset mögött a Vovan and Lexus csatorna állt, amelyet két híres orosz komikus üzemeltet. Ők ketten az elmúlt időszakban a város­vezetőkön kívül több világsztárt és ismert politikust is megvezettek, köztük volt Elton John, Mihail Gorbacsov, John McCain amerikai szenátor vagy Bernie Sanders amerikai demokrata elnökjelölt is. „Ez az eset is bizonyítja, hogy a deepfake technológia elképesztő tempóban fejlődik, és egyre komolyabb szintet ér el” – szögezte le Guld Ádám kommunikációs szakértő. Itt ugyanis nem egy korábban elkészített fotóról, vagy egy előre megszerkesztett videóról, hanem egy élő beszélgetés során alkalmazott átverésről volt szó, ráadásul kifejezetten fontos pozícióban lévő embereket sikerült átmenetileg megtéveszteniük.

Bárki számára elérhető

A deepfake technológia viszonylag új jelenség, magát a kifejezést 2017-ben egy Reddit-felhasználó találta ki, és a deep learning (mélytanulás) meg a fake (hamisítás, manipuláció) szavakból ered. A gyakorlatban ez azt jelenti, hogy a mesterséges intelligencia segítségével olyan tartalmakat hoznak létre, amelyekben az eredeti szereplőket egy másik személy képmásával és hangjával helyettesítik. Itt nem egyszerűen egy Snapchat vagy Instagram által használt és felettébb népszerű arccserefunkcióról van szó, ugyanis a deepfake hatékonysága jócskán felülmúlja még a legjobb photoshop-applikációét is. A technológia szinte tökéletesen leképezi az ember arcát és hangját, amit korlátlanul lehet manipulálni, ahogy csak szeretnénk. Guld Ádám szerint

Ráadásul míg korábban csak speciális programokkal tudtak ilyen szintű tartalmakat létrehozni, két-három évvel ezelőtt már megjelentek azok az alkalmazások is, amelyek hatására napjainkra tömegek élnek a technológia adta lehetőséggel. A fejlesztők egyre több, mindössze néhány gigabájt tárhelyet igénylő alkalmazást dobtak piacra, ilyenek például a FakeApp, a DeepFaceLab, a FaceSwap, a MyFakeApp vagy a kínai fejlesztésű Zao.

A mesterséges intelligencia segítségével olyan tartalmakat hoznak létre, amelyben az eredeti szereplőket egy másik személy képmásával és hangjával helyettesítik, ám a szórakoztató videók mellett gyakran híres emberek arcával élnek vissza.

„A deepfake videók döntő többsége teljesen ártalmatlan, szórakoztató, alig néhány másodperces tartalom, készítőit nem a rossz szándék vezérli. Hetente százezrével készülnek ilyen videók, amelyek mechanizmusa a TikTokhoz hasonlít, és egyetlen céljuk van, hogy ismerőseink és követőink szórakozzanak” – hívta fel a figyelmet a PTE BTK Kommunikáció- és Médiatudományi Tanszékének docense, aki ugyanakkor azt is elismerte, hogy ezzel a technológiával komoly károkat is lehet okozni. Guld Ádám azt is elmondta, hogy a szórakoztató videók mellett több új műfaj is megjelent, ezek közül a legismertebb az úgynevezett celebrity porn, melyben pornográf tartalmak érhetők el híres emberek arcával. A médiakutató szerint kulturális szempontból elgondolkoztató, hogy a visszaélések több mint 95 százaléka nőkkel kapcsolatos, és elsősorban híres hollywoodi színésznők arcával találkozhatunk pikáns jelenetekben.

A másik érintett terület a politika világa, nemzetközi színtéren több alkalommal is próbáltak tönkretenni ismert politikusokat. „Nancy Pelosi demokrata házelnököt például több alkalommal is azzal vádolták meg, hogy részegen beszélt nyilvános fellépésein” – emelt ki egy elhíresült esetet Guld Ádám, aki hozzátette: „Indiában pedig egy parlamenti képviselőről került nyilvánosságra egy homoszexuális tartalmú videó.” Szakértők szerint az ilyen típusú támadások alkalmasak a politikusi hitelesség rombolására, ráadásul a videó miatt hosszú távon rögzülhet a negatív képsor a nézőben. A kommunikációs szakértő ugyanakkor arra is felhívta a figyelmet, hogy mindez kétélű fegyver, mert ha a jövőben negatív anyag kerül ki a világhálóra, bárki védekezhet azzal, hogy pusztán hamisításról van szó. És bár sok esetben ez valóban így van, nehéz lesz tudni, mikor van igaza az illetőnek. Guld Ádám véleménye szerint

Természetesen léteznek olyan politikai tartalmú deepfake videók, melyek szándékosan felismerhetővé teszik a technológiát. Ilyen például az idén tavasszal közel félmillió kattintást eredményező próbálkozás, melyen Vlagyimir Putyin orosz elnök Radnóti Miklós-verset szaval. A versválasztás beszédes, ugyanis az orosz–ukrán konfliktus árnyékában a Himnusz a békéről sorait halljuk magyarul.

Üzleti fogások

A deepfake videók másik felhasználási területe az influenszer-marketing, ahol nem hús-vér emberek, hanem digitális deepfake karakterek viszik a prímet. „Elsőként egy svédországi bútorüzlet élt a kampányában ezzel a megoldással, ami kereskedelmi szempontból hasznos megoldás volt, ugyanis egy élő kisbabával nemcsak forgatni nehéz, de reklámfilmekben szerepeltetni őket etikai és bizonyos jogi kérdéseket is felvet” – jegyezte meg a docens.

A digitális karakterek egy másik kockázati tényezőt is kiiktatnak, az élő influenszerek ugyanis főként a Z generáció tagjai, akik fiatal korukból adódóan olykor nem megfelelően viselkednek – ez nemcsak egy kábítószeres bulit vagy ittas gyorshajtást, de akár egy rosszul sikerült kommentet is jelenthet –, ami visszaüthet az influenszer által képviselt márka hírnevére. „Éppen ezért – hangsúlyozta Guld Ádám – az USA-ban már létezik digitális influenszerekre specializálódott ügynökség, ahol több világhírű deepfake karakter vesz részt piacvezető vállalatok promócióiban és reklámkampányaiban.” Ezek a karakterek teljesen élethűek, van dokumentált „életük”, vannak hobbijaik, baráti kapcsolataik, érzelmi szálaik, szinte minden, ami a valós emberekre jellemző, ugyanakkor megjelenéseik abszolút előre tervezhetőek és kiszámíthatóak – a megrendelő igényei alapján.

A kommunikációs szakértő arra a szomorú tényre is felhívta a figyelmet, hogy egy tavalyi felmérés alapján a követők mintegy 60 százaléka azzal sem volt tisztában, hogy az általa lájkolt karakter nem valós személy. „A mai fiatalok döntő többsége egyrészt csak videókat vagy képeket néz, cserébe alig olvas, hosszabb leírásokat pláne nem, másrészt pedig a technológia is olyan szintre került, hogy a megszólalásig valósághűek tudnak lenni” – magyarázta a lesújtó eredmény okait Guld Ádám. A szakember arra is kitért, hogy elsősorban a szemmozgás és a mimika terén sikerült nagyot előrelépniük a fejlesztőknek. A korábban olykor kissé esetlen tartalmakat ma már a szakértőknek is nehéz kiszűrniük, ráadásul az algoritmusnak egyre kevesebb inputra van szüksége a hamisított tartalom előállításához.

Az influenszer-marketing már nem hús-vér embereket, hanem digitális deepfake karaktereket használ, „akik” teljesen élethűek, van dokumentált „életük”, vannak hobbijaik, baráti kapcsolataik, érzelmi szálaik, szinte minden, ami a valós emberekre jellemző, ugyanakkor megjelenéseik abszolút előre tervezhetőek és kiszámíthatóak – a megrendelő igényei alapján.

És ha már reklámok: a deepfake technológia élő szereplő esetében is hasznos lehet; David Beckham például egy maláriaellenes kampányban – a mesterséges intelligencia felhasználásával – kilenc különböző afrikai nyelven közvetítette a kór veszélyeire vonatkozó legfontosabb üzeneteket. Ezzel a megoldással a jövőben bármilyen nemzetközi piac meghódítása könnyebb lehet.

Jogosan merül fel a kérdés: vajon az oktatásban is fel lehetne használni ezt a technológiát? Guld Ádám szerint valóban meglenne a helye a deepfake alkalmazásának az iskolákban, hiszen mennyivel izgalmasabb lenne egy történelemóra, ha, mondjuk, Marilyn Monroe hangján mutatnák be az ötvenes évek Amerikáját, vagy Jefferson elnök mesélne a Függetlenségi Nyilatkozat aláírásának részleteiről. Az meg aztán igazi csemege lenne, ha a relativitáselméletet torzonborz frizurával Einstein próbálná elmagyarázni a diákoknak. „Azonban miután olyan újításról van szó, melynek komoly piaci szerepe van, ezért elsőként olyan szektorok kezdték el hasznosítani, melyek a profitot, nem pedig a közjót tartják szem előtt” – jegyezte meg a médiakutató.

Mit tehetünk ellene?

A deepfake tartalmak rosszindulatú felhasználása miatt még a Magyar Nemzeti Bank is lépni kényszerült. A jegybank megújított pénzmosási rendelete szerint a pénzintézeteknek egy megbízhatóbb „élőségvizsgálat” alá kell vetnie ügyfeleit, és az auditált elektronikus hírközlő rendszernek meg kell állapítania, hogy a távoli helyszínen lévő ügyfél valós, élő személy valós időben, személyesen igazolja magát, és az élőkép semmilyen formában nem manipulált. A mondás szerint tűz ellen tűzzel lehet legjobban harcolni, a deepfake technológia ellen így a mesterséges intelligen­ciát hívták segítségül. Kutatóintézetek, IT-cégek tucatjai dolgoz­tak azon, hogy olyan szoftvert fejlesszenek ki, amely képes felismerni a manipulált tartalmakat.

A deepfake technológia ellen fejlesztettek már olyan szoftvert, amely képes felismerni a manipulált tartalmakat. A gyanús felvétel képkockáit egyesével vizsgálja, és minden egyes mozdulatnál hibát keres. Peres esetekben szakértőket is bevonnak, akik a videókon megjelenő karakterek szájmozgásából, hangsúlyozásából, intonációjából és szóhasználatából állapítják meg, hogy a látott videó valóságos-e vagy sem.

A Microsoft Video Authenticator a gyanús felvétel képkockáit egyesével vizsgálja, és minden egyes mozdulathoz olyan plusztartalmat ad hozzá, amely az ellenőrzésre készített mesterséges intelligenciától kikényszeríti a hibát, és ezek alapján pontozza, mennyire lehet valós a felvétel.

Természetesen ezek a szoftverek sem tévedhetetlenek, éppen ezért az Egyesült Államokban az ilyen típusú visszaélések bírósági ügyeinél két külön szakértői csoport is vizsgálja az érintett videókat. Guld Ádám elmondása szerint a fejlesztői gárda a technológiai alkalmazásokat vizsgálja, míg a másik csapatot nyelvészeti területtel és nonverbális kommunikációval foglalkozó szakértők alkotják, akik a videókon megjelenő karakterek szájmozgásából, hangsúlyozásából, intonációjából és szóhasználatából állapítják meg, hogy a videó valóságos-e vagy sem. Az Egyesült Államokban Virginia állam büntetőkódexének 18. cikke 2019 óta bünteti a pornográf tartalmú hamisított videókat; az első állam pedig, amely a politikai célú manipulálást szankcionálja, Texas volt. Guld Ádám úgy véli,

Mint fogalmazott, ebben a rendkívül gyorsan változó digitális kultúrában ugyanakkora hangsúlyt kell fektetni az idősebb korosztály tagjaira, akik a megfelelő tudással felvértezve hatással lehetnek a fiatalabbakra is. A médiakutató kitért arra is, hogy a közösségi média megjelenésével párhuzamosan a hagyományos médiaplat­formok háttérbe szorultak, és a Facebookot nemcsak ismerősökkel való csevegésre vagy fényképek nézegetésére, hanem tájékozódási pontként is használják. „Összgenerációs probléma a fakenews oldalak minden valóságalapot nélkülöző cikkeinek lelkes megosz­tása” – figyelmeztetett a szakember, kiemelve: tudatos médiahasználattal lehet a legtöbbet tenni a hamisítások ellen. Guld Ádám hozzátette azt is, hogy a mainstream médiaszereplők kellő forráskritikával kezelik a deepfake videókat is, így a manipulált felvételekkel szemben egyfajta szűrőt képeznek. És nem utolsósorban józan ésszel, higgadtan kell megközelíteni az internetes tartalmakat, bármilyen nehéz is ez a mai rohanó világban.•


 
Archívum
 2011  2012  2013  2014  2015  2016  2017  2018  2019  2020  2021  2022
Címkék

Innotéka