Vicces technológiai újdonságnak indult, veszélyes csalássá és kivédhetetlen fenyegetéssé változott: körüljárjuk, mi is az a deepfake.
Az ezredforduló környékén még a legnagyobb hollywoodi filmstúdiók milliós költségvetésű szuperprodukcióiban volt csak lehetőség arra, hogy aprólékos, sokszor hónapokon vagy akár éveken át tartó munkával színészek arcát megváltoztassák, esetleg már elhunytak vonásait ültessék dublőrök arcára, ahogy ez a Holló című film egyes jeleneteiben történt a forgatás közben elhunyt Brandon Lee vonásaival. Akkoriban tehát az ilyesmi egyáltalán nem volt mindennapos jelenség, de kevesebb mint két évtized kellett csak hozzá, hogy szó szerint bárki pillanatok alatt hihető fejcseréket hajtson végre mozgóképeken.
A deepfake névre keresztelt technológia nevében is benne van, mi tette mindezt lehetővé: a mesterséges intelligencia és a gépi tanulás, azaz a deep learning. Ma már ugyanis nem arról szól a digitális fejcsere, hogy grafikusok, programozók és trükkmesterek cincálják szét a filmeket képkockáról képkockára: ehelyett a gép-agyak automatikus algoritmusait eresztik rá az átalakítandó tartalmakra. Hogy miről is beszélünk? Érdemes például az alábbi videót megnézni, amely egy néhány hónappal ezelőtti, nagy médiavisszhangot kapott sorozat egyik része. Itt a Ragyogás című film, és Jack Nicholson arca az alap, amelyre a mesterséges intelligencia olyan ügyesen “húzza rá” Jim Carrey arcát, hogy szinte láthatatlanok a digitális műtéti hegek. Először nézzünk egy összehasonlítást, balra az eredeti felvétel, jobbra a gép által átgondolt ál-Carrey verzió:
Tehát hogy is történt mindez, aminek során a bal oldali Carrey-változat mimikával, szájmozgással együtt tökéletesen felülírta az eredeti arcot? Fontos, hogy az egészhez Jim Carrey-nek az égvilágon semmi köze nem volt, legalábbis közvetlenül. Nem vett részt a videó készítésében, sőt talán nem is tudott róla, hogy létezik ez a projekt. A fejét, mozgását és arcjátékát egy az egyben gépi intelligencia gyűjtötte össze és alkalmazta a jelenlegi feladatra.
Hogyan működik a deepfake?
- A mesterséges intelligenciának megadják a forrásként használt videót.
- Az MI feltérképezi a videóban látható személy arcát, mozgását, mimikáját, szájszinkronját, valamint minden olyan egyéb részletet (megvilágítás, effektek), amelyek a későbbi deepfake videó előállításához szükségesek.
- Ezután az MI (természetesen emberi közvetítéssel) kap egy tonnányi felvételt arról az illetőről, akinek az arcára az eredeti szereplő arcát ki akarjuk cserélni. Az algoritmus beszkennel több ezer (sőt, a feladat hosszától és komplexitásától függően több millió) képkockát, ahol a “cserefej” mindenféle szögben, arckifejezéssel, megvilágítással és egyéb változtatással szerepel.
- Végül ugyancsak ez az algoritmus a forrás-videóban rögzített kritériumok alapján képkockánként ráhúzza az új arcot a régire, a beszkennelt adatbázisból mindig azt az egy felvételt alkalmazva, amely legjobban illeszkedik az eredetihez. Emellett “eldolgozza” az illesztéseket és egységesíti a fényeket, hogy ne láthassuk, meddig tart az eredeti fej és hol kezdődik az újonnan ráhúzott arc.
- Ezek a képkockák újra összeállnak filmmé, és gyakorlatilag emberi beavatkozás nélkül, automatikusan elkészül egy olyan videó, ahol a néző által egyáltalán nem, vagy csak nehezen észrevehető, hogy nem az a valaki beszél, mozog, mosolyog, kiabál vagy sír, akinek az arcát látjuk.
Ez idáig hihetetlenül érdekes, és néha akár kifejezetten vicces is lehet. Ilyen például az a jelenet, ahol az egykori két rivális sztár arcát cserélik ki: a Terminátor 2 jeleneteiben Arnold Schwarzenegger helyett Sylvester Stallone látható a főszerepben:
Bár manapság még viszonylag nehezen elérhető olyan deepfake alkalmazás, amit mi magunk is ingyen letölthetünk és használhatunk, azért már elkezdtek kiszivárogni olyan appok (főleg kínai próbálkozások), amelyek kissé limitált funkcionalitással, de bárki számára lehetővé teszik azt, hogy saját arcukkal már egész elfogadható álvideókat készítsenek. Ilyen például a Zao, amely rövid idő alatt nagy népszerűségre tett szert annak ellenére, hogy hivatalosan még nem “engedték be” sem a Google Play, sem az App Store felületére. És akkor térjünk is rá, miért nem – a deepfake ugyanis nem csak játék és mese.
Az ember, aki ott se volt
Alcímnek nem véletlenül választottunk egy filmcímet. A deepfake ugyanis – mint minden új technológia a világon – pontosan olyan hatással bír, mint amire használják. Tehát adott egy önmagában szórakoztatásra kitalált digitális megoldás, ami viszont kiválóan alkalmas ennél visszásabb alkalmazási módokra is. A deepfake pontosan azért alkalmas mindenféle sötét üzelmekre, mert amellett, hogy egyre kevesebb szakértelemmel már szinte bárki használhatja, a szinte naponta finomodó megoldást egyre nehezebb észrevenni, ha valaki nem tudja, mit keressen. Ráhangolódásként jöjjön egy (még szintén teljesen jóindulatú) videó, amely annyival több az eddigieknél, hogy itt Arnold Schwarzenegger arcát egy élő műsorban őt utánzó komikus (Bill Hader) fejére applikálják rá. Tessék megfigyelni, hogy minden egyes alkalommal, amikor az osztrák-amerikai sztár hangján szólal meg az illető, az arc azonnal átalakul, és ilyenkor már csak a haj, vagy épp az izomtömeg miatt jöhetünk rá a turpisságra:
Ahogy írtuk, itt még szintén csak a szórakoztatás a cél, de már talán látszik, mire szeretnénk kilyukadni. Ha ugyanis a tökéletesen átalakított kép mellett az egyéb körülményeket (például az arcot lecserélő illető testalkatát, haját, és főleg a hanghordozását) is sikerül hozzáigazítani a lemásolni kívánt személy eredetijéhez, máris kész a tökéletes csalás. Az emberek nagy része ugyanis még mindig elhiszi, amit lát – nem csak azért, mert a legtöbben még nincsenek tisztában a deepfake és hasonló csalások mibenlétével, de sokszor pszichológiailag is arra vagyunk kódolva, hogy felemás hihetőség esetén is elhiggyük azt, amit látni szeretnénk. És akkor jön egy ilyen videó:
Ebben a kisfilmben első látásra Barack Obama, az előző amerikai elnök beszél. Az arc, a háttér, a hangszín, a hanghordozás tökéletes, minden stimmel. Talán csak az lehet furcsa, hogy pont arról értekezik, miszerint a mai világban már az ellenségeinkkel is kimondathatunk bármit, és kapunk is rá néhány csattanós példát. Csak ezután derül ki, hogy a hang egy Jordan Peele nevű televíziós személyiségé, aki kiválóan imitálja Obama beszédét. A videó célja még mindig nem visszás, sőt: pont arra próbálja felhívni a figyelmet, amire mi is igyekszünk rávezetni mindenkit ebben a cikkben. A deepfake kinőtt az egyszerű webes vicceskedés kategóriájából, és valódi fenyegetéssé vált.
Mostantól ugyanis bármikor megtörténhet, hogy egy videóban megjelenik egy politikus, aki forradalomra, munkabeszüntetésre, valamilyen népcsoport elleni agresszióra vagy más helytelen viselkedésre buzdítja a népet. Előléphet egy közismert színész, zenész vagy véleményvezér, aki videóban vallja be valamilyen bűnét – vagy akár láthatjuk is, ahogy elköveti. Ha pedig a hiszékeny tömeg hitelt ad a látottaknak, olyan folyamatok indulhatnak el, amelyet képtelen lesz megállítani az a kisebbség, aki hiába próbál azzal érvelni, hogy mindez csak átverés volt.
Ne higgy a szemednek!
A szakértők egyértelműen azt hangsúlyozzák a deepfake jelenség terjedésével kapcsolatban, hogy egy idő után már a felhasználók digitális eszközei sem lesznek képesek egyértelműen azonosítani az így hamisított felvételeket. Épp ezért kiemelten fontos az, hogy használjuk a józan eszünket minden olyan videós vagy fotós hír felbukkanásakor, ami egy kicsit is furcsa, nehezen hihető vagy egyszerűen csak eltér a megszokottól. Hiszen a technológia általánossá válásával sajnos eljutunk odáig, hogy már nem csak politikusok, művészek, celebek és influencerek lesznek a rosszindulatú fake-gyárosok célpontjai, hanem konkrétan bárki. Ha valaki egy exén akar bosszút állni, vagy épp egy elutasítást nem tud feldolgozni, könnyen készíthet a másik félről olyan “felnőttvideót”, amelyet elterjesztve szégyenbe hozhatja, vagy akár csak a nyilvánosságra hozatalával zsarolja a célszemélyt, de ugyanígy használhatják rosszakarók gazdasági célok, munkahelyi előnyök elérésére, elég csak a főnök, a rivális cégvezér, vagy épp az egyik fontos partner arcát ráhúzni valamilyen kompromittálónak tűnő felvételre.
Szép új világ? Nos, szépnek szép, hiszen a deepfake a fenti veszélyek mellett továbbra is kiválóan alkalmas lehet művészeti felhasználásra fél-animációs filmektől zenei videókon át a videójátékokig, vagy lehet közönség-szórakoztató divatalkalmazás mindenki telefonján. De nem árt tisztában lenni az itt vázolt veszélyekkel épp azért, hogy az új módszer elterjedését is felkészülten várhassuk, és könnyen meg tudjuk ítélni, hogy a tökéletesség álarca mögött csak rosszindulatú trükk bújik meg.