„Deepfakes“ je opasan trend postavljanja ženskih lica, slavnih osoba poput glumica i pevačica, ali i običnih nepoznatih žena, na tela ženskih osoba u pornografskim videozapisima.
Za mnoge žene, jedna od najvećih noćnih mora je „osvetnička pornografija“, odnosno videozapisi seksa s bivšim partnerima koje su oni, bez znanja i pristanka bivših partnerki, iz osvete objavili na internetu ili društvenim mrežama.
Pre nekoliko godina čak su postojale prilično popularne internet stranice na kojima su objavljivani takvi videozapisi i čiji su vlasnici zarađivali solidan novac objavljujući videa koja su uništila živote ženama čije su intimne trenutke videli deseci, a možda i stotine hiljada ljudi širom sveta.
Srećom, takve su stranice zatvorene, barem one najpoznatije, kao i njihovi pokretači koji su završili u zatvoru, ali u poslednje vreme internetom se raširio jedan još opasniji trend zbog kojeg bi na „PornHubu“ ili drugim stranicama mogli osvanuti pornografski videozapisi na kojima će se lica ženskih osoba koje učestvuju u videu zameniti s licima običnih žena koje su objavili bivši partneri, stolkeri ili neprijatelji tih osoba i koje, naravno, nemaju apsolutno nikakve veze s tim videozapisima.
Nova aplikacija
Tokom decembra na stranici „Motherboard“ objavljen je članak o programeru poznatom po nadimku s „Reddita“ kao „Deepfakes“ koji je, korišćenjem algoritma mašinskog učenja, „open-source“ koda i drugim jednostavno dostupnim materijalima uspeo na pornografskim videozapisima lica pornoglumica zameniti s licima poznatih zvezda poput Gal Gadot i Tejlor Svift (Taylor Swift), pri čemu su takvi videozapisi izgledali prilično realno.
U razgovoru za Motherboard, Deepfakes rekao je da inače proučava mašinsko učenje pa je uspeo da pronađe „pametan način zamene lica“ na videozapisima korišćenjem tehnika treniranja veštačke inteligencije. S vremenom su sličnu tehniku počeli koristiti i drugi korisnici Reddita pa se ovaj trend u medijima proširio pod nazivom „deepfakes“, a nedugo nakon toga drugi korisnik Reddita objavio je aplikaciju „FakeApp“ koja svima omogućava zamenu lica na videozapisima s prilično uverljivim rezultatima.
Sekunde mogu uništiti živote
Na Redditu su se vodile, a i dalje se vode brojne rasprave o trendu deepfakesa i dok neki brane objavu takvih videozapisa, deo korisnika je zgrožen, a zbog realnosti ovakvih videa neki su ih korisnici nazvali digitalnim silovanjem. Posebno zabrinjava što se te tehnike zamene lica i aplikacija više ne koriste samo kako bi se slavne osobe ubacile u porniće, već su se na Redditu korisnici pohvalili kako su napravili realne videozapise s osobama koje poznaju – bivšim devojkama, prijateljicama, poznanicama iz škole montirali su lica na videozapise sa scenama seksa.
Samo jedan takav video od nekoliko sekundi može uništiti život te će osobama s videa biti jako teško dokazati kako je reč o lažnom videozapisu, pogotovo što će s vremenom algoritam biti sve bolji te će videozapisi izgledati sve realnije.
Razmislite još jednom o svojim fotografijama na mrežama
Osim tehnike kojom se Deepfakes koristio, odnosno aplikacije FakeApp, za ovakav video potrebne su i fotografije, odnosno videozapisi osoba čije se lice želi postaviti u (porno)videa, što danas i nije teško nabaviti zahvaljujući društvenim mrežama poput Facebooka i Instagrama, na kojima se objavljuju stotine i hiljade fotografija i videa, te raznim alatima koji omogućuju jednostavno skidanje svih javno dostupnih fotografija s tih mreža na računare. Nakon toga, potrebno je pronaći porno glumicu, odnosno video sa ženama čije su telo i lice slični ženi čije se lice želi montirati na telo – naravno, i za takve su stvari dostupne aplikacije na internetu. Za kraj je potrebno sve uploadati u aplikaciju, pokrenuti je i čekati – nekad je potrebno i više od deset sati da se dođe do konačnog rezultata, odnosno videa koji može biti zastrašujuće realan.
Kršenje zakona?
Ove sedmice u SAD se puno piše o tome krši li se stvaranjem i objavom ovakvih videozapisa neki zakon, ali nekakav konkretan zakon kojim bi se kažnjavalo montiranje lica na (pornografske) videzapise u biti ne postoji pa je cela situacija prilično komplikovana. Neki čak smatraju da bi se brisanjem ovakvih videa prekršio Prvi amandman američkog Ustava. Ipak, poslednjih su dana na Redditu i popularnom servisu za objavu GIF-ova „Gfycatu“ obrisani brojni takvi videozapisi i GIF-ovi te se čini da su na tim stranicama odlučili stati na kraj trendu „deepfakesa“.
Trebamo da se plašimo budućnosti?
Sigurno je da će tehnologija napredovati pa će ovakvi videozapisi biti sve realniji, a nažalost uvek će biti ljudi koji će tehnologiju iskorištavati kako bi napakostili drugima, osramotili ih pa čak i ucenjivali lažnim videozapisima. Takođe, ova tehnologija mogla bi imati velikog utecaja i na širenje lažnih vesti s političarima ili javnim osobama u glavnim ulogama te će granica između onog što je stvarno i onog što je napravljeno na računarima biti sve tanja i teže prepoznatljiva, prenose mediji u regionu.
Pratite Krstaricu na www.krstarica.com