odpuscanje Dobra karma

Teže karme se lahko rešimo, dejanje pa je zelo ...

fakin Svet24.si

Nekdanji zdravstveni minister Samo Fakin: "Uvedimo...

UV-franc pouksic-pl Reporter.si

Bodo župani spet lahko poslanci? Pripravlja se ...

center-starejših-pristan-vipava Svet24.si

V domu starejših v Vipavi potrdili novih šest ...

POL20150214_BOR1080-2 Necenzurirano

SDS je globoka država #kolumna

križevniška-ulica Odkrito.si

Vandali na Križevniški

barara Njena.si

Ljubezen po domače: Barbara pokazala nosečniški...

Zgodbe

Vstavi po želji

Če ste ženska in vam povedo, da so vas videli nastopati v pornofilmu, ki kroži po spletu, vi ste pa dokaj prepričani, da niste nikoli delali za pornoindustrijo, je povsem jasno, kaj se je zgodilo: deepfake. Nekdo, ki mu očitno niste prav pri srcu, je na tuje telo digitalno nataknil vaš obraz. Pojav so poimenovali deepfake in najbolj grozljivo je to, da za izdelovanje deepfakov ni treba biti poseben mojster, tehnologija, ki je čedalje bolj dovršena in čedalje preprostejša za uporabo, danes omogoča, da lahko praktično vsak naredi deepfake.

Avtor:

Jelka Sežun

Značke:

Spet se bo treba naučiti nove besede, deepfake je video (ali občasno tudi avdio) zapis, v kateri osebi na posnetku digitalno zamenjate obraz (ali glas) z obrazom/glasom druge osebe. Za to obstajajo aplikacije, pri bolj dovršenih je dovolj že samo ena fotografija žrtve (ali nekajsekundni posnetek glasu) pa kup slabih namenov in že lahko ustvarite deepfake. Slovenskega izraza za to še nimamo, ampak dokler ne začnejo pisati dipfejk, bomo to še nekako prenesli. Beseda je nezakonski otrok pojmov »deep learning« in »fake«. Ime so leta 2017 povzeli po uporabniku strani Reddit, ki je objavljal digitalno popravljene pornografske posnetke in se je predstavljal kot Deepfakes.

Fake news na steroidih. Tako kot pred njim photoshop tudi deepfake ni nastal s slabimi nameni in še danes ima tudi povsem nedolžne uporabe, lahko, na primer, sebe za šalo vmontirate v kakšen filmski prizor ali pevski nastop glasbene zvezde, lahko zamenjate igralce v znanih filmih. Pri tem vam pomaga kitajska aplikacija Zao. Ali pa v vsak film spravite obraz igralca Nicolasa Cagea. Ne, ne vemo, zakaj to počnejo, ampak počnejo. In verjamemo, da se boste zabavali ob posnetku, v katerem se Jon Snow opraviči gledalcem za slabo zadnjo sezono serije Igra prestolov. Obstaja tudi aplikacija, s katero svoj obraz prilepite na telo plesalca, pufff, in že ste mojster plesa. Lahko se uporablja v modi, vaš digitalni klon bi lahko, na primer, namesto vas pomerjal oblačila v spletni prodaji.

Na Youtubu obstajajo kompilacije najboljših deepfakov in boste prej ali slej naleteli na posnetek, v katerem Jamesa Bonda igra Burt Reynolds, Reynoldsu so namreč vlogo ponudili, pa jo je odklonil in tako dal življenjsko priložnost nekemu neznanemu Škotu. Če vas je torej od nekdaj glodala radovednost, kakšen bi bil Bond, če bi ga namesto Seana Conneryja igral Reynolds, lahko zdaj pogledate. Tehnologijo uporabljajo tudi v filmih, če, denimo, sredi snemanja umre igralec, bo s pomočjo deepfaka tudi mrtev do konca odigral svojo vlogo. In vas zato ne sme presenetiti, da boste leta 1955 umrlega Jamesa Deana kmalu videli v novem filmu Finding Jack.

Kitajci so že leta 2018 predstavili digitalne voditelje informativnih oddaj, narejeni so po podobi pravih ljudi, le da so neutrudni, ni jim treba spati in ne zahtevajo plače, če jim nekdo napiše tekst, ga bodo prebrali.

Bolj problematične so uporabe deepfakov za to, da politiku položite v usta besede, ki jih ni nikoli izrekel – potencial za delanje politične škode je neskončen. In pred volitvami nadvse mikaven. Tudi znatna finančna škoda lahko nastane, kot dokazuje primer nekega britanskega poslovneža, ki je lani svojemu podrejenemu menda po telefonu naročil, naj nakaže 220.000 evrov na račun v neki madžarski banki – samo da se je potem izkazalo, da gospod tega v resnici ni naredil, njegov glas je bil ponarejen. Bil je avdio deepfake, denarja in storilca pa niso nikoli našli. Enako se je zgodilo ameriškemu direktorju, ki tudi ni nikoli naročil, naj nekam nakažejo deset milijonov dolarjev.

Slovenskih deepfakov še nismo zasledili, ampak predstavljajte si, da gospodarski minister Zdravko Počivalšek, ki, tako se dozdeva, nima problemov z laganjem, zatrdi, da je znameniti telefonski posnetek iz zadeve zaščitne maske, v katerem naroča, naj nekomu nemudoma in še prej nakažejo denar, v resnici deepfake. Predstavljajte si, da reče, nisem bil jaz, ponaredili so moj glas. Ker je, in to je tudi problem, dober deepfake težko razkrinkati in z razvojem tehnologije to postaja vedno težje. Kako bo trenutni predsednik vlade, ki ob vsakem zanj neprijetnem članku rjuje »fake news!«, rajal takrat, ko se bo zavedel potenciala deepfakov, si verjetno lahko predstavljate.

A največ, kar 96 odstotkov deepfakov, se pojavlja v pornografiji. Žrtve so največkrat ženske, moških, ki so se neprostovoljno znašli v pornofilmih, je le zanemarljiv delež, v kar 99 odstotkih pornografskih deepfakov so žrtve znane osebnosti, največkrat ameriške in britanske igralke. Preostali odstotek je pa »revenge porn«, torej ponarejeni pornografski posnetki, s katerimi se nekdo, največkrat bivši ljubimec, maščuje ženski, do katere goji zamero. Fotografije pogosto vzamejo kar z družbenih medijev. In praktično vsi so narejeni brez pristanka in tudi brez vednosti žrtev. Kot je rekla profesorica prava na Bostonski univerzi Danielle Citron, ki se je ukvarja s to problematiko, »tehnologijo deepfake sprevračajo v orožje proti ženskam«.

Več v reviji Zarja Jana, 16.6.2020