DeepFake: kui nägemine ei ole uskumine

Kas maailm sellisena, nagu seda teame, on valmis deepfake videote tõeliseks mõjuks?

Deepfake tehnoloogia muutub kiiresti üha lihtsamalt ja kiiremini loodavaks ning see avab ukse uut tüüpi küberkuritegevuse juurde. Kuigi enamasti nähakse seda suhteliselt kahjutu [LS1] või isegi naljakana, võib see hullus tulevikus võtta tõsisema pöörde ja olla poliitiliste skandaalide, küberkuritegevuse või võltsvideosid hõlmavate kujuteldamatute ideede keskmeks – ja seda mitte ainult avaliku elu tegelasi puudutavana.

Deepfake on inimkujutise sünteesi tehnika, mis põhineb tehisintellektil, et luua võltssisu kas nullist või kasutades olemasolevat videot tõelise inimese välimuse ja hääle kopeerimiseks. Sellised videod võivad näida uskumatult tõelised ja praegu on neisse kaasatud kuulsused või avaliku elu tegelased, ütlemas midagi ennekuulmatut või väära.

Uus uuring näitab deepfake videote loomise jõudsat kasvu, võrgus olevate videote arv ületab juba ainult eelmist üheksat kuud kahekordselt. Deepfake videote kvaliteet paraneb samuti kiiresti. Selles videos on näha Bill Hader, muutudes ilma vaevata Tom Cruise´ks ja Seth Roganiks, mis on vaid üks näide sellest, kui autentsed need videod paistavad ja kõlavad. Kui otsite YouTube´ist märksõna ‘deepfake’, mõistate, et näeme vaid jäämäe tippu sellest, mis tulemas on.

Tegelikult oleme juba näinud, kuidas deepfake tehnoloogiat on rakendatud pettuste teostamisel, kus kasutati deepfake häält tegevjuhilt suure rahasumma väljapetmiseks. Arvatakse, et nimetamata UK ettevõtte tegevjuht arvas, et räägib telefonis oma ülemusega ja järgis juhiseid kanda viivitamatult 220 000 € (umbkaudu 244 000 USD) Ungari tarnija pangakontole. Kui kellegi mõjutamine on nii lihtne, esitades vaid telefoni teel mingi palve, vajame me selle ohu leevendamiseks kindlasti paremat turvalisust.

Nägemuse petmine

Oleme näinud ka rakendusi mis teevad DeepNude videoid, kus rakendused on suutnud riietatud inimese sekunditega muuta topless fotoks. Kuigi see konkreetne rakendus on nüüdseks õnneks võrgust eemaldatud, siis mis juhtub, kui see tuleb kättemaksuna tagasi teises vormis ja suudab luua veenvalt autentsena näiva video?

On ka tõendeid, et nende videote tootmine muutub tulutoovaks äriks eriti pornotööstuses.  BBC sõnul on „96% neist videotest naissoost kuulsustest, kelle sarnasus pannakse selgelt seksuaalse sisuga videotesse – ilma nende teadmata või nõusolekuta”.

 Hiljutine California seadus on teinud sammu edasi ja kuulutanud illegaalseks pornograafilise sisuga deepfake video loomise kellestki ilma tema loata, trahvimääraga 150 000 $. Võimalik on aga, et ükski seadus ei ole piisav, hoidmaks teatud inimesi videote fabritseerimisest eemal.

Ajakirja The Economist artikkel arutleb selle üle, et isegi lühikese piisavalt veenva deepfake klipi tegemiseks on vajalik suur hulk videomaterjali ja/või helisalvestisi. Tahtsin meeleheitlikult luua deepfake videot iseendast, aga kahjuks ei suutnud ma oma näost deepfake´i teha ilma mitmete tundide pikkuse materjalita iseendast.

Vaatamata sellele võib mitte väga kauges tulevikus olla aga täiesti võimalik võtta vaid mõned lühikesed Instagrami storyd, et luua deepfake video, mida usub suur osa selle isiku jälgijaid või teised, kes teda tunnevad. Võime näha mõningaid kujuteldamatuid videoid, mis ilmuvad meie lähedal olevatest inimestest – ülemusest, kolleegidest, meie partneritest, perekonnast. Lisaks võidakse deepfake´i kasutada ka kooli- või kontorikiusamisel ja mujal.

Küberkurjategijad kasutavad sellist tehnoloogiat kindlasti ohvrite harpuunimiseks. Deepfake videote loomine muutub odavamaks ja nende tuvastamine ainult inimsilmaga on peaaegu võimatu. Selle tulemusena võib kogu see võltsimine kergesti hägustada piiri tegelikkuse ja väljamõeldise vahel, mis omakorda võib meid sundida mitte midagi uskuma – isegi kui seda esitatakse viisil, mida meie meeled uskuda käsivad.

Väga reaalsest ohust eemaldumine

Mida me saaksime siis teha, et end selle ohu jaoks ette valmistada? Esmalt peame inimesi rohkem harima selles osas, et deepfake videod üldse olemas on, kuidas nad töötavad ja millist kahju nad põhjustada võivad. Kõik me peame õppima kohtlema isegi kõige realistlikumat videot arvestusega, et see võib olla täielik vale.

Teiseks peab tehnoloogia kindlasti arenema, et deepfake videoid paremini tuvastada. Juba on käimas vastav uurimistöö, kuid sellega ei ole veel vajalikule tulemusele ligilähedalegi jõutud. Kuigi masinõpe on algselt nende loomise keskmeks, peab olema miski, mis toimib vastumürgina, suutes neid tuvastada üksnes inimsilmale toetumata.

Ning viimasena, sotsiaalmeedia platvormid peavad mõistma, et deepfake videote näol on olemas hiiglaslik potentsiaalne oht, sest kui segada šokeeriv video sotsiaalmeediaga, kipub tulemus väga kiiresti levima ja sellel võib olla ühiskonnale kahjulik mõju.

Ärge mõistke mind valesti, naudin väga tehnoloogia arengut ja selle lahtirullumist enda silme all, kuid peame endale teadvustama, kuidas tehnoloogia võib meid mõnikord kahjulikult mõjutada, eriti kui masinõpe areneb kiiremini kui kunagi varem. Vastasel juhul näeme varsti, kuidas deepfake muutub normiks, millel on kaugeleulatuv mõju.