Dipfejk
Dipfejk (pretvaranje „ dubokog učenja “ i „lažnog“[1]) su sintetički mediji[2] u kojima je osoba na postojećoj slici ili video snimku zamenjena nečijim likom. Iako čin kreiranja lažnog sadržaja nije nov, dipfejk koristi moćne tehnike od mašinskog učenja i veštačke inteligencije za manipulisanje ili generisanje vizuelnog i audio sadržaja koji može lakše zavarati.[3] Glavne metode mašinskog učenja koje se koriste za kreiranje dipfejk-a su zasnovane na dubokom učenju i uključuju trening generativnih arhitektura neuronskih mreža, kao što su autoenkoderi[3] ili generativne adversarijske mreže (GAN).[4][5]
Dipfejkovi su privukli široku pažnju zbog svoje upotrebe u kreiranju materijala za seksualno zlostavljanje dece, pornografskih video snimaka slavnih ličnosti, osvetničkih pornografija, lažnih vesti, obmana, maltretiranja i finansijskih prevara.[6][7][8][9] Ovo je izazvalo odgovore i industrije i vlade da otkriju i ograniče njihovu upotrebu.[10][11]
Istorija
[uredi | uredi izvor]Manipulacija fotografijama razvijena je u 19. veku i ubrzo primenjena na filmove . Tehnologija se stalno poboljšavala tokom 20. veka, a još brže sa digitalnim videom .
Dipfejk tehnologiju su razvili istraživači na akademskim institucijama počevši od 1990-ih, a kasnije i amateri u onlajn zajednicama.[12][13] Nedavno je ove metode usvojila industrija.[14]
Akademska istraživanja
[uredi | uredi izvor]Akademska istraživanja koja se odnose na dipfejk podeljena su između polja kompjuterske vizije, podoblasti kompjuterske nauke,[12] koja razvija tehnike za kreiranje i prepoznavanje dipfejka, pristupa humanističkih i društvenih nauka koji proučavaju društvene, etičke i estetske posledice dipfejka.
Društveni i humanistički pristupi dipfejk-u
[uredi | uredi izvor]U bioskopskim studijama, dipfejk demonstrira kako se „ljudsko lice pojavljuje kao centralni objekat ambivalencije u digitalnom dobu“.[15] Video umetnici su koristili dipfejk da „razigrano prepišu filmsku istoriju tako što će rekonstruisati kanonski bioskop novim zvezdama“.[16] Filmski naučnik Kristofer Holidej analizira kako zamena pola i rase izvođača u poznatim filmskim scenama destabilizuje rodne klasifikacije i kategorije.[16] Ideja „ kueering “ dipfejka se takođe razmatra u diskusiji Olivera M. Džingriča o medijskim umetničkim delima koja koriste dipfejk za preoblikovanje roda,[17] uključujući Zizi britanskog umetnika Džejka Elvesa: Queering the Dataset, umetničko delo koje koristi dipfejk povlačenja kraljica da se namerno igra sa polom. Počinju da se istražuju i estetski potencijali dipfejka. Istoričar pozorišta Džon Flečer napominje da su rane demonstracije dipfejk-a predstavljene kao predstave i postavlja ih u kontekst pozorišta, raspravljajući o „nekim od najzabrinjavajućih promena paradigmi” koje dipfejk predstavljaju kao žanr performansa.[18]
Filozofi i medijski naučnici raspravljali su o etici dipfejka posebno u vezi sa pornografijom.[19] Naučnica u oblasti medija Emili van der Nagel oslanja se na istraživanje u fotografskim studijama o izmanipulisanim slikama kako bi razgovarala o sistemima verifikacije koji omogućavaju ženama da daju saglasnost za korišćenje njihovih slika.[20]
Osim pornografije, filozofi su definisali dipfejk kao „epistemičku pretnju“ znanju, a time i društvu.[21] Postoji nekoliko drugih predloga kako da se nosite sa rizicima koji dipfejkovi izazivaju izvan pornografije, ali i za korporacije, političare i druge, od „eksploatacije, zastrašivanja i lične sabotaže“,[22] i postoji nekoliko naučnih diskusija o potencijalnim pravnim i regulatornim odgovorima kako u pravnim studijama tako i u studijama medija.[23] U psihologiji i studijama o medijima, naučnici raspravljaju o efektima dezinformacija koje koriste dipfejk,[24][25] kao i o društvenom uticaju dipfejka.[26]
Dok se većina akademskih studija dipfejka na engleskom jeziku fokusira na zabrinutost Zapada oko dezinformacija i pornografije, digitalni antropolog Gabriele de Seta analizirao je kinesku recepciju dipfejka, poznatu kao huanlian, što u prevodu znači „promena lica“. Kineski izraz ne sadrži „fake“ od engleskog deepfake, a de Seta tvrdi da ovaj kulturni kontekst može objasniti zašto je kineski odgovor bio više o praktičnim regulatornim odgovorima na „rizike od prevare, prava na imidž, ekonomski profit i etičke neravnoteže“.[27]
Istraživanje kompjuterskih nauka o dipfejk-u
[uredi | uredi izvor]Rani značajan projekat bio je program Video Rewrite, objavljen 1997. godine, koji je modifikovao postojeće video snimke osobe koja govori kako bi prikazala tu osobu kako izgovara reči sadržane u drugom audio zapisu.[28] Bio je to prvi sistem koji je u potpunosti automatizovao ovu vrstu reanimacije lica, a to je učinio koristeći tehnike mašinskog učenja kako bi uspostavio veze između zvukova koje proizvodi subjekat video snimka i oblika lica subjekta.[28]
Savremeni akademski projekti su se fokusirali na stvaranje realističnijih video zapisa i na poboljšanje tehnika.[29][30] Program „Synthesizing Obama“, objavljen 2017. godine, modifikuje video snimak bivšeg predsednika Baraka Obame kako bi ga prikazao dok izgovara reči sadržane u zasebnom audio zapisu.[29] Projekat navodi kao glavni istraživački doprinos svoju fotorealističnu tehniku za sintetizovanje oblika usta iz zvuka.[29] Program Face2Face, objavljen 2016. godine, modifikuje video snimke lica osobe kako bi prikazala mimiku lica druge osobe u realnom vremenu.[30] Projekat navodi kao glavni istraživački doprinos prvi metod za ponavljanje izraza lica u realnom vremenu pomoću kamere koja ne snima dubinu, što omogućava da se tehnika izvodi korišćenjem uobičajenih potrošačkih kamera.[30]
U avgustu 2018, istraživači sa Univerziteta u Kaliforniji u Berkliju objavili su rad u kojem su predstavili lažnu aplikaciju za ples koja može stvoriti utisak majstorske sposobnosti plesa koristeći AI.[31][32] Ovaj projekat proširuje primenu dipfejk-a na celo telo; prethodni radovi usmereni na glavu ili delove lica.[31]
Istraživači su takođe pokazali da se dipfejk proširuju na druge domene, kao što je narušavanje medicinskih slika.[33] U ovom radu je pokazano kako napadač može automatski ubrizgati ili ukloniti rak pluća u pacijentovom 3D CT skeneru. Rezultat je bio toliko ubedljiv da je prevario tri radiologa i najsavremeniju AI za otkrivanje raka pluća. Da bi demonstrirali pretnju, autori su uspešno izveli napad na bolnicu u testu penetracije belog šešira .[34]
Istraživanje dipfejka-a, objavljeno u maju 2020, pruža vremenski okvir o tome kako je kreiranje i otkrivanje dipfejk-a napredovalo u poslednjih nekoliko godina.[35] Istraživanje je pokazalo da su se istraživači fokusirali na rešavanje sledećih izazova kreiranja dipfejk-a:
- Generalizacija. Visokokvalitetni dipfejk se često postiže treniranjem satima na snimku mete. Ovaj izazov je da se minimizira količina podataka za obuku koja je potrebna za proizvodnju kvalitetnih slika i da se omogući izvođenje obučenih modela na novim identitetima (nevidljivim tokom obuke).
- Upareni trening. Obuka nadziranog modela može da proizvede rezultate visokog kvaliteta, ali zahteva uparivanje podataka. Ovo je proces pronalaženja primera ulaza i njihovih željenih izlaza iz kojih model može da uči. Uparivanje podataka je naporno i nepraktično kada se trenira na višestrukim identitetima i ponašanjima lica. Neka rešenja uključuju samokontrolisanu obuku (koristeći okvire iz istog videa), korišćenje neuparenih mreža kao što je Cycle-GAN ili manipulaciju mrežnim ugrađivanjem.
- Curenje identiteta. Ovo je mesto gde se identitet vozača (tj. glumca koji kontroliše lice u rekonstrukciji) delimično prenosi na generisano lice. Neka predložena rešenja uključuju mehanizme pažnje, učenje u nekoliko hitaca, rastavljanje, konverzije granica i preskakanje veza.
- Začepljenja. Kada je deo lica začepljen rukom, kosom, naočarima ili bilo kojim drugim predmetom, mogu se pojaviti artefakti. Uobičajena začepljenja su zatvorena usta koja skrivaju unutrašnjost usta i zube. Neka rešenja uključuju segmentaciju slike tokom treninga i slikanja.
- Vremenska koherentnost. U video snimcima koji sadrže dipfejk, mogu se pojaviti artefakti kao što su treperenje i podrhtavanje jer mreža nema kontekst prethodnih kadrova. Neki istraživači pružaju ovaj kontekst ili koriste nove gubitke vremenske koherentnosti kako bi pomogli u poboljšanju realizma. Kako se tehnologija poboljšava, smetnje se smanjuje.
Sve u svemu, očekuje se da će dipfejk imati nekoliko posledica na medije i društvo, medijsku produkciju, medijsko predstavljanje, medijsku publiku, rod, zakon, regulativu i politiku.[36]
Amaterski razvoj
[uredi | uredi izvor]Termin deepfakes je nastao krajem 2017. od korisnika Redit -a po imenu „deepfakes“.[37] On, kao i drugi u Reddit zajednici r/deepfakes, delili su dipfejk koji su kreirali; mnogi video snimci koji su uključivali lica poznatih ličnosti zamenjena na tela glumica u pornografskim video snimcima,[37] dok je nepornografski sadržaj uključivao mnoge video snimke sa licem glumca Nikolasa Kejdža koji su zamenjeni u različitim filmovima.[38]
Ostale su i druge onlajn zajednice, uključujući Reddit zajednice koje ne dele pornografiju, kao što je r/SFWdeepfakes (skraćeno od „safe for work deepfakes“), u kojima članovi zajednice dele dipfejk koji prikazuje poznate ličnosti, političare i druge u nepornografskim scenarijima.[39] Druge onlajn zajednice nastavljaju da dele pornografiju na platformama koje nisu zabranile dipfejk pornografiju.[40]
Komercijalni razvoj
[uredi | uredi izvor]U januaru 2018. pokrenuta je vlasnička desktop aplikacija pod nazivom FakeApp.[41] Ova aplikacija omogućava korisnicima da lako kreiraju i dele video zapise sa zamenjenim licima.[42] Od 2019. godine, FakeApp je zamenjen alternativama otvorenog koda kao što su Faceswap, DeepFaceLab baziran na komandnoj liniji i veb aplikacijama kao što je DeepfakesWeb.com [43][44][45]
Veće kompanije počele su da koriste dipfejk.[14] Korporativni video snimci za obuku mogu se kreirati korišćenjem dipfejk avatara i njihovih glasova, na primer Synthesia, koja koristi dipfejk tehnologiju sa avatarima za kreiranje personalizovanih video snimaka.[46] Gigant mobilnih aplikacija Momo kreirao je aplikaciju Zao koja omogućava korisnicima da preklope svoje lice na televizijske i filmske snimke sa jednom slikom.[14] Od 2019. japanska AI kompanija DataGrid je napravila dipfejk celog tela koji bi mogao da stvori osobu od nule.[47] Oni nameravaju da ih koriste za modu i odeću.
Od 2020. takođe postoje audio-dipfejkovi i softver veštačke inteligencije koji je sposoban da otkrije dipfejk i klonira ljudske glasove nakon 5 sekundi vremena slušanja.[48][49][50][51][52][53] Mobilna dipfejk aplikacija Impressions pokrenuta je u martu 2020. Bila je to prva aplikacija za kreiranje dipfejk video snimaka slavnih sa mobilnih telefona.[54][55]
Vaskrsenje
[uredi | uredi izvor]Dipfejk tehnologija se ne može koristiti samo za fabrikovanje poruka i akcija drugih, već se može koristiti i za oživljavanje preminulih pojedinaca. Dana 29. oktobra 2020, Kim Kardašijan je objavila video snimak svog pokojnog oca Roberta Kardašijana ; lice u videu Roberta Kardašijana kreirano je tehnologijom dipfejk.[56] Ovaj hologram je kreirala kompanija Kaleida, gde u kreiranju holograma koriste kombinaciju performansi, praćenja pokreta, SFX, VFX i Dipfejk tehnologija.[57]
Godine 2020, Hoakin Oliver, žrtva pucnjave u Parklandu, vaskrsao je pomoću dipfejk tehnologije. Oliverovi roditelji su se udružili u ime svoje organizacije Nonprofit Change the Ref, sa McCann Health-om da naprave ovaj dipfejk video koji se zalaže za kampanju glasanja o bezbednosti oružja.[58] U ovoj lažnoj poruci, prikazuje Hoakina kako ohrabruje gledaoce da glasaju.
Došlo je i do lažnog vaskrsavanja pop kulturnih i istorijskih ličnosti koje su ubijene, na primer, člana Bitlsa, Džona Lenona, ubijenog 1980. godine.
Tehnike
[uredi | uredi izvor]Dipfejkovi se oslanjaju na tip neuronske mreže koji se zove autoenkoder .[5][59] Oni se sastoje od enkodera, koji svodi sliku na nižedimenzionalni latentni prostor, i dekodera, koji rekonstruiše sliku iz latentne reprezentacije.[60] Dipfejk koristi ovu arhitekturu tako što ima univerzalni koder koji kodira osobu u latentni prostor.[61] Latentna reprezentacija sadrži ključne karakteristike njihovih crta lica i držanja tela. Ovo se zatim može dekodirati pomoću modela obučenog posebno za metu.[5] To znači da će detaljne informacije o meti biti postavljene na osnovne karakteristike lica i tela originalnog videa, predstavljene u latentnom prostoru.[5]
Popularna nadogradnja ove arhitekture povezuje generativnu suparničku mrežu na dekoder.[61] GAN obučava generator, u ovom slučaju dekoder, i diskriminator u suparničkom odnosu.[61] Generator stvara nove slike iz latentne reprezentacije izvornog materijala, dok diskriminator pokušava da utvrdi da li je slika generisana ili ne.[61] Ovo dovodi do toga da generator stvara slike koje izuzetno dobro oponašaju stvarnost jer bi diskriminator uhvatio sve nedostatke.[62] Oba algoritma se stalno poboljšavaju u igri sa nultom sumom .[61] Ovo otežava borbu protiv dipfejka jer se stalno razvijaju; svaki put kada se utvrdi kvar, može se ispraviti.[62]
Primene
[uredi | uredi izvor]Ucena
[uredi | uredi izvor]Dipfejk se može koristiti za generisanje materijala za ucene koji lažno inkriminišu žrtvu. Međutim, pošto se lažnjaci ne mogu pouzdano razlikovati od originalnih materijala, žrtve stvarne ucene sada mogu da tvrde da su pravi artefakti lažni, što im daje uverljivo poricanje. Efekat je poništavanje kredibiliteta postojećih materijala za ucene, što briše lojalnost ucenjivačima i uništava kontrolu ucenjivača. Ovaj fenomen se može nazvati „ucenjivačka inflacija“, jer „devalvira“ stvarnu ucenu, čineći je bezvrednom.[63] Moguće je koristiti standardni GPU hardver sa malim softverskim programom za generisanje ovog ucenjivačkog sadržaja za bilo koji broj subjekata u ogromnim količinama, povećavajući ponudu lažnog sadržaja za ucene neograničeno i na veoma skalabilan način.[64]
U izveštaju američke Kongresne istraživačke službe upozorava se da bi se dipfejk mogao koristiti za ucenu izabranih zvaničnika ili onih koji imaju pristup poverljivim informacijama u svrhe špijunaže ili uticaja .[65]
Pornografija
[uredi | uredi izvor]U 2017, Dipfejk pornografija se značajno pojavila na internetu, posebno na Reddit-u .[66] Od 2019. godine, mnogi dipfejkovi na internetu sadrže pornografiju ženskih slavnih ličnosti čija se sličnost obično koristi bez njihovog pristanka.[67] U izveštaju koji je u oktobru 2019. objavila holandska kompanija za sajber bezbednost Deeptrace, procenjeno je da je 96% svih dipfejk-ova na mreži pornografija.[68] Od 2018. godine, dipfejk Dejzi Ridli prvi je privukao pažnju,[66] između ostalog.[69][70][71] Od oktobra 2019, većina dipfejk tema na internetu bile su britanske i američke glumice.[67] Međutim, oko četvrtine ispitanika su Južnokorejci, od kojih su većina K-pop zvezde.[67][72]
U junu 2019. objavljena je Windows i Linux aplikacija za preuzimanje pod nazivom DeepNude koja je koristila neuronske mreže, posebno generativne suparničke mreže, za uklanjanje odeće sa slika žena. Aplikacija je imala i plaćenu i neplaćenu verziju, a plaćena verzija koštala je 50 dolara.[73][74] Kreatori su 27. juna uklonili aplikaciju i vratili novac potrošačima.[75]
Politika
[uredi | uredi izvor]Dipfejk je korišćen za lažno predstavljanje poznatih političara u video snimcima.
- Od 2018. u zasebnim video snimcima, lice argentinskog predsednika Maurisija Makrija zamenjeno je licem Adolfa Hitlera, a lice Angele Merkel zamenjeno je licem Donalda Trampa .[76][77]
- U američkoj predsedničkoj kampanji 2020. godine pojavile su se mnoge dipfejk stvari koje tvrde da je Džo Bajden u kognitivnom padu: da je zaspao tokom intervjua, izgubio se i pogrešno izgovorio sve potkrepljene glasine o njegovom padu.[78][79]
- U aprilu 2018, Džordan Pil je sarađivao sa Buzzfeed-om kako bi napravio dipfejk Baraka Obame sa Pilovim glasom; služila je kao najava javnog servisa za povećanje svesti o dipfejku.[80]
- U januaru 2019, KCPQ članica Fox -a emitovala je lažnu Trampovu sliku tokom njegovog obraćanja u Ovalnoj kancelariji, ismevajući njegov izgled i boju kože (i nakon toga otpustila zaposlenog za koji se smatra da je odgovoran za video).[81]
- Tokom predizborne kampanje za Zakonodavnu skupštinu Delhija 2020., Delhi Bharatiya Janata Party je koristila sličnu tehnologiju za distribuciju verzije oglasa kampanje na engleskom jeziku od strane njenog lidera Manoja Tivarija, prevedenog na Harianvi za ciljanje glasača Harijane . Snimanje glasa je obezbedio glumac, a veštačka inteligencija obučena korišćenjem video zapisa Tiwari govora je korišćena za sinhronizaciju video snimka sa novim glasom. Član partijskog osoblja opisao je to kao „pozitivnu“ upotrebu dipfejk tehnologije, koja im je omogućila da „ubedljivo pristupe ciljnoj publici čak i ako kandidat ne govori jezikom birača“.[82]
- U aprilu 2020, belgijski ogranak Extinction Rebellion- a objavio je dipfejk video belgijske premijerke Sofi Vilmes na Fejsbuku.[83] Video je promovisao moguću vezu između krčenja šuma i COVID-19 . Imao je više od 100.000 pregleda u roku od 24 sata i dobio je mnogo komentara. Na Fejsbuk stranici na kojoj se video pojavio, mnogi korisnici protumačili su video kao originalan.[84]
- Bruno Sartori je 2020. parodirao političare kao što su Žair Bolsonaro i Donald Tramp .[85]
- U junu 2019. Komitet za obaveštajne poslove Predstavničkog doma Kongresa Sjedinjenih Država održao je saslušanja o potencijalnoj zlonamernoj upotrebi dipfejka za uticaj na izbore.[86]
- U aprilu 2021. političarima u nizu evropskih zemalja su se obratili šaljivdžije Vovan i Leksus, koje kritičari optužuju da rade za rusku državu. Oni su lažno predstavljali Leonida Volkova, ruskog opozicionog političara i šefa štaba kampanje ruskog opozicionog lidera Alekseja Navaljnog, navodno putem dipefjk tehnologije.[87][88][89][90] Međutim, par je za The Verge rekao da nisu koristili dipfejk, već su samo koristili look-alike.[91]
Umetnost
[uredi | uredi izvor]U martu 2018. multidisciplinarni umetnik Joseph Ayerle objavio je video rad Un'emozione per sempre 2.0 (Engleski prevod: The Italian Game). Umetnik je radio sa dipfejk tehnologijom kako bi napravio glumicu sa veštačkom inteligencijom, sintetičku verziju filmske zvezde iz 80-ih Ornele Muti, koja putuje kroz vreme od 1978. do 2018. Tehnološki institut Masačusetsa uputio je ovo umetničko delo u studiju „Kolektivna mudrost“.[92] Umetnik je koristio putovanje kroz vreme Ornele Muti da istraži generacijska razmišljanja, istovremeno istražujući pitanja o ulozi provokacije u svetu umetnosti.[93] Za tehničku realizaciju Ayerle je koristio scene fotomodela Kendal Džener . Program je zamenio lice Džener licem Ornele Muti napravljeno putem veštačke inteligencije. Kao rezultat toga, AI glumica ima lice italijanske glumice Ornele Muti i telo Kendal Džener.
Dipfejk se naširoko koristi u satiri ili za ismevanje poznatih ličnosti i političara. Veb serija Sassy Justice iz 2020, koju su kreirali Trej Parker i Met Stone, u velikoj meri prikazuje upotrebu lažiranja javnih ličnosti za ismevanje aktuelnih događaja i podizanje svesti o dipfejk tehnologiji.[94]
Gluma
[uredi | uredi izvor]Bilo je spekulacija o tome da se dipfejk koristi za kreiranje digitalnih glumaca za buduće filmove. Digitalno konstruisani/izmenjeni ljudi su već korišćeni u filmovima ranije, a dipfejk bi mogao da doprinese novom razvoju u bliskoj budućnosti.[95] Dipfejk tehnologiju su fanovi već koristili za umetanje lica u postojeće filmove, kao što je umetanje mladog lica Harisona Forda na lice Hana Soloa u Solo: Priča o ratovima zvezda,[96] a tehnike slične onima koje koristi dipfejk su korišćene za glumu princeze Leje i Velikog Mofa Tarkina u Rogue One . [97][98]
Kako tehnologija dipfejk sve više napreduje, Dizni je poboljšao svoje vizuelne efekte koristeći tehnologiju dipfejk zamene lica visoke rezolucije.[99] Dizni je poboljšao svoju tehnologiju kroz progresivnu obuku programiranu da identifikuje izraze lica, implementirajući funkciju zamene lica i ponavljanje kako bi se stabilizovao i poboljšao rezultat.[99] Ova tehnologija dipfejk visoke rezolucije štedi značajne operativne i proizvodne troškove.[100] Diznijev model dipfejk generacije može da proizvodi medije generisane veštačkom inteligencijom u rezoluciji 1024 x 1024, za razliku od uobičajenih modela koji proizvode medije u rezoluciji 256 x 256.[100] Tehnologija omogućava Dizniju da de-age likove ili oživi preminule glumce.[101]
Dokumentarni film Dobrodošli u Čečeniju iz 2020. koristio je dipfejk tehnologiju da prikrije identitet intervjuisanih ljudi, kako bi ih zaštitio od odmazde.[102]
Internet mim
[uredi | uredi izvor]Godine 2020. pojavio se internet mim koji je koristio dipfejk za generisanje video snimaka ljudi koji pevaju hor „Baka Mitai” (ばかみたい), pesme iz igre Jakuza 0 u seriji video igrica Jakuza . U seriji, melanholičnu pesmu peva igrač u karaoke mini igrici . Većina iteracija ovog mima koristi video iz 2017. koji je postavio korisnik Dobbsyrules, koji usnama sinhronizuje pesmu, kao šablon.[103][104]
Društveni mediji
[uredi | uredi izvor]Dipfejk je počeo da se koristi na popularnim platformama društvenih medija, posebno kroz Zao, kinesku dipfejk aplikaciju koja omogućava korisnicima da zamene svoja lica licima likova u scenama iz filmova i televizijskih emisija kao što su Romeo + Julija i Igra prestola .[105] Aplikacija je prvobitno bila pod nadzorom svojih invazivnih korisničkih podataka i politike privatnosti, nakon čega je kompanija dala izjavu u kojoj tvrdi da će ponovo ipitati politiku.[106] U januaru 2020. Fejsbuk je objavio da uvodi nove mere za suprotstavljanje tome na svojim platformama.[107]
Istraživačka služba Kongresa je citirala neodređene dokaze koji pokazuju da su strani obaveštajni operativci koristili dipfejk za kreiranje naloga na društvenim mrežama u svrhu regrutovanja pojedinaca sa pristupom poverljivim informacijama .[65]
Lutke od čarapa
[uredi | uredi izvor]Dipfejk fotografije se mogu koristiti za kreiranje lutaka od čarapa, nepostojećih ljudi, koji su aktivni i na mreži i u tradicionalnim medijima. Čini se da je dipfejk fotografija napravljena zajedno sa legendom za očigledno nepostojeću osobu po imenu Oliver Tejlor, čiji je identitet opisan kao student univerziteta u Ujedinjenom Kraljevstvu. Ličnost Olivera Tejlora dala je svoje mišljenje u nekoliko novina i bila je aktivna u onlajn medijima napadajući britanskog pravnog akademika i njegovu suprugu, kao „simpatizere terorista“. Akademik je privukao međunarodnu pažnju 2018. godine kada je pokrenuo tužbu u Izraelu protiv NSO, kompanije za nadzor, u ime ljudi u Meksiku koji su tvrdili da su žrtve NSO-ove tehnologije hakovanja telefona . Rojters je mogao da pronađe samo oskudne evidencije za Olivera Tejlora, a „njegov” univerzitet nije imao evidenciju o njemu. Mnogi stručnjaci su se složili da je profilna fotografija lažna. Nekoliko novina nije povuklo članke koji su mu pripisani niti ih uklonilo sa svojih veb stranica. Strahuje se da su takve tehnike novo bojno polje u dezinformacijama .[108]
Kolekcije dipfejk fotografija nepostojećih ljudi na društvenim mrežama takođe su raspoređene kao deo izraelske partizanske propagande. Na Fejsbuk stranici „Zionist Spring“ objavljene su fotografije nepostojećih osoba zajedno sa njihovim „svedočenjima“ koja navodno objašnjavaju zašto su napustili svoju levičarsku politiku i prigrlili desnicu, a stranica je takođe sadržala veliki broj postova od premijera Izraela Benjamin Netanyahu i njegovog sina i iz drugih izraelskih desničarskih izvora. Izgleda da su fotografije generisane tehnologijom „sinteze ljudske slike ", kompjuterskim softverom koji uzima podatke sa fotografija stvarnih ljudi da bi proizveo realističnu složenu sliku nepostojeće osobe. U većem delu „svedočenja“, razlog za prihvatanje političke desnice bio je šok saznanja o navodnom podsticanju na nasilje protiv premijera. Desničarski izraelski televizijski emiteri tada su emitovali „svedočenje“ ovih nepostojećih osoba na osnovu činjenice da su se „delili“ na mreži. Emiteri su emitovali priču, iako emiteri nisu mogli da pronađu takve ljude, uz objašnjenje „Zašto je poreklo važno?“ Drugi lažni profili na Fejsbuku – profili fiktivnih pojedinaca – sadržali su materijal koji je navodno sadržao takvo huškanje protiv premijera desnice, na šta se premijer žalio da postoji plan za njegovo ubistvo.[109][110]
Zabrinutosti
[uredi | uredi izvor]Prevara
[uredi | uredi izvor]Audio dipfejk su korišćeni kao deo prevara socijalnog inženjeringa, zavaravajući ljude da misle da dobijaju uputstva pojedinca od poverenja.[111] 2019. godine, izvršni direktor energetske kompanije sa sedištem u Velikoj Britaniji je prevaren telefonom kada mu je naređeno da prebaci 220.000 evra na račun u mađarskoj banci od strane pojedinca koji je koristio audio dipfejk tehnologiju da bi imitirao glas izvršnog direktora matične kompanije.[112]
Kredibilitet i autentičnost
[uredi | uredi izvor]Iako je lažnih fotografija dugo bilo u izobilju, lažiranje filmova je bilo teže, a prisustvo dipfejk slika povećava poteškoće u klasifikovanju video zapisa kao originalnih ili ne.[76] Istraživač veštačke inteligencije Aleks Čampandard rekao je da ljudi treba da znaju koliko brzo stvari mogu da se pokvare dipfejk tehnologijom i da problem nije tehnički, već problem koji treba rešiti poverenjem u informacije i novinarstvo.[76] Dipfejk se može iskoristiti za klevetu, lažno predstavljanje i širenje dezinformacija.[113] Primarna zamka je da bi čovečanstvo moglo pasti u doba u kojem se više ne može utvrditi da li sadržaj medija odgovara istini.[76]
Slično tome, vanredni profesor računarskih nauka Hao Li sa Univerziteta Južne Kalifornije navodi da će dipfejk kreiran za zlonamernu upotrebu, kao što su lažne vesti, biti još štetniji ako se ništa ne učini da se širi svest o dipfejk tehnologiji.[114] Li je predvideo da će pravi video snimci i dipfejk postati neprimetni već za pola godine, od oktobra 2019, zbog brzog napretka u oblasti veštačke inteligencije i kompjuterske grafike.[114]
Bivši Gugl car za prevare Šuman Gosemajumder nazvao je dipfejk oblast od „društvene brige“ i rekao da će oni neizbežno evoluirati do tačke u kojoj se mogu automatski generisati, a pojedinac bi mogao da koristi tu tehnologiju za proizvodnju miliona dipfejk video snimaka.[115]
Posledice dipfejk-a nisu dovoljno značajne da destabilizuju ceo sistem vlasti; međutim, dipfejk poseduje sposobnost da strašno ošteti pojedinačne entitete.[116] To je zato što je dipfejk često usmeren na jednu osobu i/ili njihov odnos prema drugima u nadi da će stvoriti narativ koji je dovoljno moćan da utiče na javno mnjenje ili uverenja. Ovo se može uraditi pomoću dipfejk glasovnog phishinga, koji manipuliše zvukom da bi se kreirali lažni telefonski pozivi ili razgovori.[116] Još jedan način korišćenja dipfek-a su izmišljene privatne primedbe, koje manipulišu medijima da prenesu pojedince koji iznose štetne komentare.[116]
U septembru 2020. Majkrosoft je objavio da razvija softverski alat za detekciju Dipfejka.[117]
Primer događaja
[uredi | uredi izvor]Isečak iz govora Nensi Pelosi u Centru za američki napredak održan 22. maja 2019. je usporen, pored toga što je izmenjena visina tona, kako bi izgledalo kao da je pijana; međutim, kritičari tvrde da ovo nije dipfejk, već plitka lažna, manje sofisticirana video manipulacija.[118][119]
Dipfejk Donalda Trampa
[uredi | uredi izvor]Dipfejk Donalda Trampa je lako napravljen na osnovu skeča Džimija Felona koji je izveo u emisiji NBC's The Tonight Show . U ovom skeču (emitovanom 4. maja 2016), Džimi Felon se obukao kao Donald Tramp i pretvarao se da učestvuje u telefonskom razgovoru sa Barakom Obamom, razgovarajući na način koji ga je predstavio da se hvali svojom primarnom pobedom u Indijani.[120] Dana 5. maja 2019. napravljen je dipfejk Donalda Trampa (preuzet iz ovog skeča).[120] U ovom dipfejk-u, lice Džimija Falona je transformisano u lice Donalda Trampa (audio je ostao isti). Ovaj dipfejk video je postavio na Jutjub osnivač Dipfejka sa komičnom namerom.
Barak Obama dipfejk
[uredi | uredi izvor]Američki glumac Džordan Pil, BuzzFeed i Monkeypaw Productions napravili su i producirali dipfejk Baraka Obame (otpremljen na Jutjub 17. aprila 2018.) koji prikazuje Baraka Obamu kako psuje i proziva Donalda Trampa.[121] U ovom dipfejku Pilov glas i usta su transformisani i izmanipulisani u Obamin glas i lice. Namera ovog video snimka je bila da prikaže opasne posledice i moć dipfejka, i kako dipfejk može naterati bilo koga da kaže bilo šta.
Kim Džong-un
[uredi | uredi izvor]Dipfejk severnokorejskog lidera Kim Džong-una kreirala je nestranačka zagovaračka grupa RepresentUs .[122]
Vladimir Putin
[uredi | uredi izvor]Dipfejk ruskog predsednika Vladimira Putina takođe je kreirala nestranačka zagovaračka grupa RepresentUs .[122]
Dipfejk Kim Džong-una i Vladimira Putina trebalo je da se javno emituje kao reklama kako bi se prenela ideja da bi mešanje ovih lidera u američke izbore bilo štetno za demokratiju Sjedinjenih Država; reklama je takođe imala za cilj da šokira Amerikance da shvate koliko je demokratija krhka i kako mediji i vesti mogu značajno uticati na put zemlje bez obzira na kredibilitet.[122] Međutim, ove reklame su uključivale završni komentar u kojem se navodi da snimak nije stvaran, a reklame se na kraju nisu emitovale zbog straha i osetljivosti u pogledu toga kako bi Amerikanci mogli da reaguju.[122]
Tom Kruz
[uredi | uredi izvor]Godine 2021, na TikTok -u su objavljeni realistični dipfejk video snimci glumca Toma Kruza, koji su postali viralni i prikupili više desetina miliona pregleda. Dipfejk video snimci prikazuju „dvojnika generisanog veštačkom inteligencijom" Kruza koji radi različite aktivnosti kao što je igranje na golf terenu, pokazivanje trika sa novčićem i grickanje lizalice. Kreator klipova je rekao da se prvi put zainteresovao za dipfejk 2018. godine i da je video njegov „kreativni potencijal“.[123][124]
Volodimir Zelenski
[uredi | uredi izvor]Dana 16. marta 2022. društvenim mrežama je kružio dipfejk jednominutni video na kojem ukrajinski predsednik Volodimir Zelenski naizgled govori svojim vojnicima da polože oružje i predaju se tokom ruske invazije na Ukrajinu 2022. godine . Ruske društvene mreže su ga pojačale, ali nakon što je razotkriveno, Fejsbuk i Jutjub su ga uklonili. Tviter je dozvolio video u tvitovima gde je razotkriven kao lažan, ali je rekao da će biti uklonjen ako bude objavljen da bi se ljudi obmanuli. Hakeri su ubacili dezinformaciju u vesti uživo na TV stanici Ukrajina 24, a video se nakratko pojavio na veb stranici te stanice pored lažnih tvrdnji da je Zelenski pobegao iz glavnog grada svoje zemlje, Kijeva. Nije odmah bilo jasno ko je kreirao dipfejk, na šta je Zelenski odgovorio sopstvenim video snimkom, rekavši: „Ne planiramo da položimo oružje. Do naše pobede.“ [125]
Odgovori
[uredi | uredi izvor]Platforme društvenih medija
[uredi | uredi izvor]Tviter
[uredi | uredi izvor]Tviter preduzima aktivne mere za rukovanje sintetičkim i izmanipulisanim medijima na svojoj platformi. Kako bi sprečio širenje dezinformacija, Tviter postavlja obaveštenje na tvitove koji sadrže izmanipulisane medije i/ili dipfejk koji signalizira gledaocima da su mediji izmanipulisani.[126] Takođe će biti upozorenje koje će se pojaviti korisnicima koji planiraju da ponovo tvituju, lajkuju ili se uključe u tvit.[126] Tviter će takođe raditi na tome da korisnicima pruži vezu pored tvita koji sadrži izmanipulisane ili sintetičke medije koji se povezuju sa Tviter momentom ili verodostojnim člankom vesti na srodnu temu – kao radnju za razotkrivanje.[126] Tviter takođe ima mogućnost da ukloni sve tvitove koji sadrže dipfejk ili izmanipulisane medije koji mogu da naškode bezbednosti korisnika.[126] Kako bi poboljšao Tviterovo otkrivanje dipfejka i izmanipulisanih medija, Tviter je zamolio korisnike koji su zainteresovani za partnerstvo sa njima da rade na rešenjima za otkrivanje dipfejka da popune formular (koji je do 27. novembra 2020.).[127]
Fejsbuk
[uredi | uredi izvor]Fejsbuk je uložio napore da podstakne stvaranje dipfejka kako bi razvio najsavremeniji softver za otkrivanje dipfejka. Fejsbuk je bio istaknuti partner u organizovanju Deepfake Detection Challenge (DFDC), održanog decembra 2019, za 2114 učesnika koji su generisali više od 35.000 modela.[128] Modeli sa najboljim učinkom sa najvećom preciznošću detekcije analizirani su na sličnosti i razlike; ovi nalazi su oblasti od interesa u daljim istraživanjima za poboljšanje i usavršavanje modela detekcije dipfejka.[128] Fejsbuk je takođe naveo da će platforma ukloniti medije generisane veštačkom inteligencijom koja se koristi za izmenu govora pojedinca.[129] Međutim, mediji koji su uređivani da bi se promenio red ili kontekst reči u nečijoj poruci ostaće na sajtu, ali će biti označeni kao lažni, jer nisu generisani veštačkom inteligencijom.[129]
Otkrivanje
[uredi | uredi izvor]Većina akademskih istraživanja koja okružuju dipfejk nastoje da otkriju video snimke.[130] Najpopularnija tehnika je korišćenje algoritama sličnih onima koji se koriste za pravljenje dipfejk-a za njihovo otkrivanje.[130] Prepoznavanjem obrazaca u načinu na koji se stvara dipfejk, algoritam je u stanju da pokupi suptilne nedoslednosti.[130] Istraživači su razvili automatske sisteme koji ispituju video zapise na greške kao što su nepravilni obrasci treptanja osvetljenja.[12] Ova tehnika je takođe kritikovana zbog kreiranja „ pokretnog stuba gola “ gde u svakom trenutku algoritmi za otkrivanje postaju bolji, kao i dipfejk.[130] The Deepfake Detection Challenge, čiji je domaćin koalicija vodećih tehnoloških kompanija, nadaju se da će ubrzati tehnologiju za identifikaciju izmanipulisanog sadržaja.[131]
Tim na Univerzitetu u Bafalu objavio je rad u oktobru 2020. u kojem opisuje njihovu tehniku korišćenja refleksije svetlosti u očima onih koji su prikazani kako bi uočili dipfejk sa velikom stopom uspeha, čak i bez upotrebe AI alata za detekciju, barem za trenutno.[132]
Drugi tim koji je predvodio Wael AbdAlmageed sa Visual Intelligence and Multimedia Analytics Laboratory (VIMAL) Instituta za informacione nauke na Univerzitetu Južne Kalifornije razvio je dve generacije [133][134] dipfejk detektora zasnovanih na konvolucionim neuronskim mrežama . Prva generacija [133] koristila je rekurentne neuronske mreže da uoči prostorno-vremenske nedoslednosti da identifikuje vizuelne artefakte koji su ostali prilikom procesa generisanja dipfejk-a. Algoritam je arhivirao 96% tačnosti na FaceForensics++; jedini dipfejk reper velikih razmera dostupan u to vreme. Druga generacija [134] koristila je duboke mreže od kraja do kraja da bi razlikovala artefakte i semantičke informacije o licu visokog nivoa koristeći mreže sa dve grane. Prva grana širi informacije o boji dok druga grana potiskuje sadržaj lica i pojačava frekvencije niskog nivoa koristeći Laplasov Gausov (LoG) . Dalje, oni su uključili novu funkciju gubitka koja uči kompaktnu reprezentaciju verodostojnih lica, dok raspršuje reprezentacije (tj. karakteristike) dipfejka. VIMAL-ov pristup pokazao je vrhunske performanse na FaceForensics++ i Celeb-DF benchmark-ovima, a 16. marta 2022. (istog dana objavljivanja) korišćen je za identifikaciju dipfejk-a Volodimira Zelenskog van kutije bez ikakve prekvalifikacije ili znanja o algoritmu kojim je dipfejk kreiran.
Druge tehnike koriste blockchain za proveru izvora medija.[135] Video snimci će morati da budu verifikovani kroz knjigu pre nego što budu prikazani na platformama društvenih medija.[135] Sa ovom tehnologijom, samo video snimci iz pouzdanih izvora bi bili odobreni, čime bi se smanjilo širenje moguće štetnih dipfejk medija.[135]
Predloženo je digitalno potpisivanje svih video zapisa i slika pomoću kamera i video kamera, uključujući kamere za pametne telefone, da bi se borili protiv dipfejkova.[136] To omogućava praćenje svake fotografije ili video snimka do originalnog vlasnika koji se može koristiti za gonjenje disidenata.[136]
Internet reakcija
[uredi | uredi izvor]Od 2017. godine, Samantha Cole of Vice objavila je seriju članaka koji pokrivaju vesti o dipfejk pornografiji.[71][73][137][138][139][139][140][141] 31. januara 2018. Gfycat je počeo da uklanja sve dipfejkove sa svog sajta.[10][139] Na Reditu, r/dipfejk subredit je zabranjen 7. februara 2018, zbog kršenja politike „nenamerne pornografije“.[142][143][144][145][146] Istog meseca, predstavnici Tvitera su izjavili da će suspendovati naloge za koje se sumnja da objavljuju dipfejk sadržaje bez pristanka.[140] Sajt za ćaskanje Diskord je u prošlosti preduzeo mere protiv dipfejka,[147] i zauzeo je opšti stav protiv dipfejka.[10][148] U septembru 2018. Gugl je dodao „nenamerne sintetičke pornografske slike“ na svoju listu zabranjenih, dozvoljavajući svakome da zatraži blok rezultata koji prikazuje njihove lažne aktove.[149] U februaru 2018. Pornhab je rekao da će zabraniti dipfejk video zapise na svojoj veb stranici jer se smatra „sadržajem bez saglasnosti“ koji krši njihove uslove korišćenja.[138] Takođe su ranije izjavili za Mashable da će ukloniti sadržaj označen kao dipfejk.[150] Pisci sa matične ploče iz Buzzfeed News-a izvestili su da je pretraga „deepfakes“ na Pornhabu i dalje vraća više nedavnih dipfejk video snimaka.[138]
Fejsbuk je ranije izjavio da neće uklanjati dipfejk sa svojih platformi.[151] Umesto toga, treće strane će video snimke označavati kao lažne, a zatim će imati smanjen prioritet u fidovima korisnika.[137] Ovaj odgovor je podstaknut u junu 2019. nakon što je na Fejsbuku i Instagramu kružio dipfejk sa video snimkom Marka Zakerberga iz 2016.[151]
U maju 2022. godine, Gugl je zvanično promenio uslove korišćenja svojih Jupyter Notebook saradnika, zabranjujući korišćenje njihovog kolab servisa u svrhu kreiranja dipfejka.[152] Ovo se dogodilo nekoliko dana nakon što je objavljen članak VICE-a, u kojem se tvrdi da je „većina dipfejka pornografija bez pristanka“ i da je glavna upotreba popularnog softvera za dipfejk DeepFaceLab (DFL), „najvažnija tehnologija koja pokreće ogromnu većinu ove generacije dipfejka“ koji se često koristio u kombinaciji sa Gugl kolabs, bio bi stvaranje pornografije bez saglasnosti, ukazujući na činjenicu da je među mnogim drugim dobro poznatim primerima implementacije DFL-a trećih strana, kao što su dipfejk poručen od The Walt Disney Company, zvanični muzički spotovi i veb serija Sassy Justice kreatora South Park, DFL-ova GitHub stranica takođe ima vezu sa dipfejk porno veb stranicom Mr. Deepfake i učesnici DFL Diskord servera takođe učestvuju na Mr. Deepfakes .[153]
Pravni odgovor
[uredi | uredi izvor]U Sjedinjenim Državama, bilo je nekih odgovora na probleme koje predstavljaju dipfejk. 2018. godine, Zakon o zabrani zlonamernog dipfejka predstavljen je Senatu SAD,[154] a 2019. Zakon o odgovornosti DIPFEJK uveden je u Predstavnički dom .[155] Nekoliko država je takođe uvelo zakone u vezi sa dipfejkom, uključujući Virdžiniju,[156] Teksas, Kaliforniju i Njujork.[157] Guverner Kalifornije Gavin Njusom je 3. oktobra 2019. potpisao zakone Skupštine br. 602 i br. 730.[158][159] Skupštinski zakon br. 602 daje pojedincima koji su meta seksualno eksplicitnog dipfejk sadržaja koji je napravljen bez njihovog pristanka pravo za pokretanje postupka protiv kreatora sadržaja.[158] Skupštinski zakon br. 730 zabranjuje distribuciju zlonamernih lažnih audio ili vizuelnih medija koji ciljaju na kandidata koji se kandiduje za javnu funkciju u roku od 60 dana od njihovog izbora.[159]
U Sjedinjenim Državama, bilo je nekih odgovora na probleme koje predstavljaju dipfejk. 2018. godine, Zakon o zabrani zlonamernog dipfejka predstavljen je Senatu SAD,[154] a 2019. Zakon o odgovornosti DIPFEJK uveden je u Predstavnički dom .[155] Nekoliko država je takođe uvelo zakone u vezi sa dipfejkom, uključujući Virdžiniju,[156] Teksas, Kaliforniju i Njujork.[157] Guverner Kalifornije Gavin Njusom je 3. oktobra 2019. potpisao zakone Skupštine br. 602 i br. 730.[158][159] Skupštinski zakon br. 602 daje pojedincima koji su meta seksualno eksplicitnog dipfejk sadržaja koji je napravljen bez njihovog pristanka pravo za pokretanje postupka protiv kreatora sadržaja.[158] Skupštinski zakon br. 730 zabranjuje distribuciju zlonamernih lažnih audio ili vizuelnih medija koji ciljaju na kandidata koji se kandiduje za javnu funkciju u roku od 60 dana od njihovog izbora.[159]
Kina je u novembru 2019. objavila da bi dipfejk i drugi sintetički lažni snimci trebalo da imaju jasno obaveštenje o njihovoj lažnosti počevši od 2020. Nepoštovanje može se smatrati zločinom, navela je Kineska administracija za sajber prostor na svojoj veb stranici.[160] Čini se da kineska vlada zadržava pravo da krivično goni i korisnike i onlajn video platforme koji se ne pridržavaju pravila.[161] U Ujedinjenom Kraljevstvu, proizvođači dipfejk materijala mogu biti krivično gonjeni zbog uznemiravanja, ali postoje pozivi da se dipfejk učini posebnim zločinom;[162] u Sjedinjenim Državama, gde su optužbe bile različite kao što su krađa identiteta, sajber uhođenje i osvetnička pornografija, takođe se raspravljalo o konceptu sveobuhvatnijeg statuta.[149]
U Ujedinjenom Kraljevstvu, proizvođači dipfejk materijala mogu biti krivično gonjeni zbog uznemiravanja, ali postoje pozivi da se dipfejk učini posebnim zločinom;[162] u Sjedinjenim Državama, gde su optužbe bile različite kao što su krađa identiteta, sajber uhođenje i osvetnička pornografija, takođe se raspravljalo o konceptu sveobuhvatnijeg statuta.[149]
U Kanadi, Komunikacioni bezbednosni establišment objavio je izveštaj u kojem se navodi da se dipfejk stvari mogu koristiti za mešanje u kanadsku politiku, posebno za diskreditaciju političara i uticaj na birače.[163][164] Kao rezultat toga, postoji više načina na koje građani Kanade mogu da se izbore sa dipfejkom ako su oni na meti.[165]
Odgovor DARPA-e
[uredi | uredi izvor]U 2018. godini, Agencija za napredne istraživačke projekte u oblasti odbrane (DARPA) finansirala je projekat u kome će se pojedinci takmičiti u kreiranju video zapisa, zvuka i slika koje generiše veštačka inteligencija, kao i automatizovanih alata za otkrivanje ovih dipfejkova.[166] DARPA je 2019. godine organizovala „dan predlagača“ za projekat povezan sa Programom semantičke forenzike gde su istraživači bili vođeni da spreče širenje virusa medija kojima manipuliše veštačka inteligencija.[167] DARPA i Program semantičke forenzike takođe su radili zajedno na otkrivanju medija kojima manipuliše veštačka inteligencija kroz napore u obučavanju računara da koriste zdrav razum i logičko zaključivanje.[167] Godine 2020. DARPA je kreirala program medijske forenzike (MediFor), da otkrije i ublaži sve veću štetu koju nanose dipfejk i mediji generisani od veštačke inteligencije, da pruži informacije o tome kako su mediji stvoreni i da se pozabavi i naglasi posledičnu ulogu dipfejka i njegovog uticaja. po donošenju odluke.[168]
U popularnoj kulturi
[uredi | uredi izvor]- U izdanju časopisa Analog sredinom decembra 1986. objavljena je novela Džeka Vodamsa „Picaper“. Njegova radnja se vrti oko digitalno poboljšanih ili digitalno generisanih video zapisa koje su proizveli vešti hakeri koji služe beskrupuloznim advokatima i političkim ličnostima.[169]
- Film „Čovek koji trči“ iz 1987. sa Arnoldom Švarcenegerom u glavnoj ulozi prikazuje autokratsku vladu koja koristi kompjutere da digitalno zameni lica glumaca licima traženih begunaca kako bi izgledalo da su begunci neutralisani.
- U tehno-trileru Filipa Kera A Philosophical Investigation iz 1992. „Wittgenstein”, glavni lik i serijski ubica, koristi i softver sličan dipfejk-u i odelo virtuelne stvarnosti za seks sa avatarom Isadora „Jake" Jakowicz, ženski policijski poručnik kojoj je dodeljeno da ga uhvati.[170]
- Film Rising Sun iz 1993. sa Šonom Konerijem i Veslijem Snajpsom u glavnim ulogama prikazuje još jednog lika, Jingo Asakuma koji otkriva da je kompjuterski disk digitalno izmenio lični identitet da bi sadržavao konkurenta.
- Dipfejk tehnologija je deo radnje drame BBC One 2019. The Capture. Serija prati bivšeg britanskog vojnika Šona Emerija, koji je optužen za napad i otmicu svog advokata. Stručno fiksirani snimci CCTV-a se koriste da bi ga namestili i doveli policiju koja ga istražuje.[169][171]
- Al Davis protiv NFL-a: Narativna struktura ovog dokumentarca iz 2021, deo ESPN-ovih 30 for 30 dokumentarnih serijala, koristi dipfejk verzije dva centralna lika filma, oba pokojna — Al Davis, koji je posedovao Las Vegas Raiders tokom mandata tima u Oklandu i Los Anđelesu, i Pete Rozelle, NFL komesar koji se često sukobljavao sa Dejvisom.[172][173]
- Dipfejk tehnologija je predstavljena u „Impawster Syndrome“, 57. epizodi kanadske policijske serije Hadson i Reks, koja je prvi put emitovana 6. januara 2022. godine, u kojoj se istražuje član policijskog tima Sent Džona zbog sumnje da je izvršio pljačku i napad zbog lažiranih snimaka CCTV-a na kojima se koristi njegov lik.[174]
- Koristeći dipfejk tehnologiju u svom muzičkom spotu za svoj singl iz 2022, „The Heart Part 5“, muzičar Kendrik Lamar se transformisao u figure koje liče na Nipseja Hasla, O.J. Simpsona i Kanje Vesta, između ostalih. Dipfejk tehnologiju u videu kreirao je Deep Voodoo, studio koji predvode Trej Parker i Met Stoun, koji su kreirali South Park.
Vidi još
[uredi | uredi izvor]- Snimanje pokreta lica
- Hiperrealnost
- Tehnologija zamene identiteta
- Regulacija veštačke inteligencije
- StileGAN
- Sintetički mediji
- Virtuelni glumac
Reference
[uredi | uredi izvor]- ^ Brandon, John (2018-02-16). „Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise”. Fox News (na jeziku: engleski). Arhivirano iz originala 15. 6. 2018. g. Pristupljeno 2018-02-20.
- ^ „Prepare, Don't Panic: Synthetic Media and Deepfakes”. witness.org. Arhivirano iz originala 2. 12. 2020. g. Pristupljeno 25. 11. 2020.
- ^ a b Kietzmann, J.; Lee, L. W.; McCarthy, I. P.; Kietzmann, T. C. (2020). „Deepfakes: Trick or treat?”. Business Horizons. 63 (2): 135—146. doi:10.1016/j.bushor.2019.11.006.
- ^ Schwartz, Oscar (12. 11. 2018). „You thought fake news was bad? Deep fakes are where truth goes to die”. The Guardian (na jeziku: engleski). Arhivirano iz originala 16. 6. 2019. g. Pristupljeno 14. 11. 2018.
- ^ a b v g Charleer, Sven (2019-05-17). „Family fun with deepfakes. Or how I got my wife onto the Tonight Show”. Medium (na jeziku: engleski). Arhivirano iz originala 11. 2. 2018. g. Pristupljeno 2019-11-08.
- ^ „What Are Deepfakes & Why the Future of Porn is Terrifying”. Highsnobiety (na jeziku: engleski). 2018-02-20. Arhivirano iz originala 14. 7. 2021. g. Pristupljeno 2018-02-20.
- ^ „Experts fear face swapping tech could start an international showdown”. The Outline (na jeziku: engleski). Arhivirano iz originala 16. 1. 2020. g. Pristupljeno 2018-02-28.
- ^ Roose, Kevin (2018-03-04). „Here Come the Fake Videos, Too”. The New York Times (na jeziku: engleski). ISSN 0362-4331. Arhivirano iz originala 18. 6. 2019. g. Pristupljeno 2018-03-24.
- ^ Schreyer, Marco; Sattarov, Timur (oktobar 2019). „Adversarial Learning of Deepfakes in Accounting” (na jeziku: engleski). arXiv:1910.03810 [cs.LG].
- ^ a b v Ghoshal, Abhimanyu (2018-02-07). „Twitter, Pornhub and other platforms ban AI-generated celebrity porn”. The Next Web (na jeziku: engleski). Arhivirano iz originala 20. 12. 2019. g. Pristupljeno 2019-11-09.
- ^ Clarke, Yvette D. (2019-06-28). „H.R.3230 - 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019”. www.congress.gov. Arhivirano iz originala 17. 12. 2019. g. Pristupljeno 2019-10-16.
- ^ a b v Harwell, Drew (12. 6. 2019). „Top AI researchers race to detect 'deepfake' videos: 'We are outgunned'”. The Washington Post (na jeziku: engleski). Arhivirano iz originala 31. 10. 2019. g. Pristupljeno 2019-11-08.
- ^ Sanchez, Julian (8. 2. 2018). „Thanks to AI, the future of 'fake news' is being pioneered in homemade porn”. NBC News (na jeziku: engleski). Arhivirano iz originala 9. 11. 2019. g. Pristupljeno 2019-11-08.
- ^ a b v Porter, Jon (2019-09-02). „Another convincing deepfake app goes viral prompting immediate privacy backlash”. The Verge (na jeziku: engleski). Arhivirano iz originala 3. 9. 2019. g. Pristupljeno 2019-11-08.
- ^ Bode, Lisa; Lees, Dominic; Golding, Dan (2021-07-29). „The Digital Face and Deepfakes on Screen”. Convergence: The International Journal of Research into New Media Technologies. 27 (4): 849—854. ISSN 1354-8565. doi:10.1177/13548565211034044.
- ^ a b Holliday, Christopher (2021-07-26). „Rewriting the stars: Surface tensions and gender troubles in the online media production of digital deepfakes”. Convergence: The International Journal of Research into New Media Technologies. 27 (4): 899—918. ISSN 1354-8565. doi:10.1177/13548565211029412.
- ^ Gingrich, Oliver M. (2021-07-05). „GENDER*UCK: Reframing gender & media art”. Proceedings of EVA London 2021 (EVA 2021). doi:10.14236/ewic/EVA2021.25.
- ^ Fletcher, John (2018). „Deepfakes, Artificial Intelligence, and Some Kind of Dystopia: The New Faces of Online Post-Fact Performance”. Theatre Journal (na jeziku: engleski). 70 (4): 455—471. ISSN 1086-332X. doi:10.1353/tj.2018.0097.
- ^ Öhman, Carl (2020-06-01). „Introducing the pervert's dilemma: a contribution to the critique of Deepfake Pornography”. Ethics and Information Technology (na jeziku: engleski). 22 (2): 133—140. ISSN 1572-8439. doi:10.1007/s10676-019-09522-1.
- ^ van der Nagel, Emily (2020-10-01). „Verifying images: deepfakes, control, and consent”. Porn Studies (na jeziku: engleski). 7 (4): 424—429. ISSN 2326-8743. doi:10.1080/23268743.2020.1741434.
- ^ Fallis, Don (2021-12-01). „The Epistemic Threat of Deepfakes”. Philosophy & Technology (na jeziku: engleski). 34 (4): 623—643. ISSN 2210-5433. PMC 7406872 . PMID 32837868. doi:10.1007/s13347-020-00419-2.
- ^ Chesney, Robert; Citron, Danielle Keats (2018). „Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security”. SSRN Electronic Journal (na jeziku: engleski). ISSN 1556-5068. doi:10.2139/ssrn.3213954.
- ^ Yadlin-Segal, Aya; Oppenheim, Yael (februar 2021). „Whose dystopia is it anyway? Deepfakes and social media regulation”. Convergence: The International Journal of Research into New Media Technologies (na jeziku: engleski). 27 (1): 36—51. ISSN 1354-8565. doi:10.1177/1354856520923963.
- ^ Hwang, Yoori; Ryu, Ji Youn; Jeong, Se-Hoon (2021-03-01). „Effects of Disinformation Using Deepfake: The Protective Effect of Media Literacy Education”. Cyberpsychology, Behavior, and Social Networking. 24 (3): 188—193. ISSN 2152-2715. doi:10.1089/cyber.2020.0174.
- ^ Hight, Craig (2021-11-12). „Deepfakes and documentary practice in an age of misinformation”. Continuum (na jeziku: engleski): 1—18. ISSN 1030-4312. doi:10.1080/10304312.2021.2003756.
- ^ Hancock, Jeffrey T.; Bailenson, Jeremy N. (2021-03-01). „The Social Impact of Deepfakes”. Cyberpsychology, Behavior, and Social Networking (na jeziku: engleski). 24 (3): 149—152. ISSN 2152-2715. doi:10.1089/cyber.2021.29208.jth.
- ^ de Seta, Gabriele (2021-07-30). „Huanlian, or changing faces: Deepfakes on Chinese digital media platforms”. Convergence: The International Journal of Research into New Media Technologies (na jeziku: engleski). 27 (4): 935—953. ISSN 1354-8565. doi:10.1177/13548565211030185.
- ^ a b Bregler, Christoph; Covell, Michele; Slaney, Malcolm (1997). „Video Rewrite: Driving Visual Speech with Audio”. Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques. 24: 353—360. doi:10.1145/258734.258880.
- ^ a b v Suwajanakorn, Supasorn; Seitz, Steven M.; Kemelmacher-Shlizerman, Ira (jul 2017). „Synthesizing Obama: Learning Lip Sync from Audio”. ACM Trans. Graph. 36 (4): 95:1—95:13. doi:10.1145/3072959.3073640.
- ^ a b v Thies, Justus; Zollhöfer, Michael; Stamminger, Marc; Theobalt, Christian; Nießner, Matthias (jun 2016). „Face2Face: Real-Time Face Capture and Reenactment of RGB Videos”. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE: 2387—2395. ISBN 9781467388511. arXiv:2007.14808 . doi:10.1109/CVPR.2016.262.
- ^ a b Farquhar, Peter (2018-08-27). „An AI program will soon be here to help your deepface dancing – just don't call it deepfake”. Business Insider Australia (na jeziku: engleski). Arhivirano iz originala 10. 4. 2019. g. Pristupljeno 2018-08-27.
- ^ „Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted”. The Verge. Arhivirano iz originala 17. 5. 2019. g. Pristupljeno 2018-08-27.
- ^ Mirsky, Yisroel; Mahler, Tom; Shelef, Ilan; Elovici, Yuval (2019). CT-GAN: Malicious Tampering of 3D Medical Imagery using Deep Learning (na jeziku: engleski). str. 461—478. ISBN 978-1-939133-06-9. Arhivirano iz originala 20. 6. 2020. g. Pristupljeno 18. 6. 2020.
- ^ „Researchers Demonstrate Malware That Can Trick Doctors Into Misdiagnosing Cancer”. Gizmodo (na jeziku: engleski). 2019-04-03. Pristupljeno 2022-06-03.
- ^ Mirsky, Yisroel; Lee, Wenke (2020-05-12). „The Creation and Detection of Deepfakes: A Survey”. ACM Computing Surveys. arXiv:2004.11138 . doi:10.1145/3425780.
- ^ Karnouskos, Stamatis (2020). „Artificial Intelligence in Digital Media: The Era of Deepfakes” (PDF). IEEE Transactions on Technology and Society. 1 (3): 1. doi:10.1109/TTS.2020.3001312. Arhivirano iz originala (PDF) 14. 7. 2021. g. Pristupljeno 9. 7. 2020.
- ^ a b Cole, Samantha (24. 1. 2018). „We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now”. Vice. Arhivirano iz originala 7. 9. 2019. g. Pristupljeno 4. 5. 2019.
- ^ Haysom, Sam (31. 1. 2018). „People Are Using Face-Swapping Tech to Add Nicolas Cage to Random Movies and What Is 2018”. Mashable. Arhivirano iz originala 24. 7. 2019. g. Pristupljeno 4. 4. 2019.
- ^ „r/SFWdeepfakes”. Reddit. Arhivirano iz originala 9. 8. 2019. g. Pristupljeno 12. 12. 2018.
- ^ Hathaway, Jay (8. 2. 2018). „Here's where 'deepfakes,' the new fake celebrity porn, went after the Reddit ban”. The Daily Dot. Arhivirano iz originala 6. 7. 2019. g. Pristupljeno 22. 12. 2018.
- ^ „What is a Deepfake and How Are They Made?”. Online Tech Tips (na jeziku: engleski). 2019-05-23. Arhivirano iz originala 8. 11. 2019. g. Pristupljeno 2019-11-08.
- ^ Robertson, Adi (2018-02-11). „I'm using AI to face-swap Elon Musk and Jeff Bezos, and I'm really bad at it”. The Verge (na jeziku: engleski). Arhivirano iz originala 24. 3. 2018. g. Pristupljeno 2019-11-08.
- ^ „Deepfakes web | The best online faceswap app”. Deepfakes web. Arhivirano iz originala 14. 7. 2021. g. Pristupljeno 2021-02-21.
- ^ „Faceswap is the leading free and Open Source multi-platform Deepfakes software.”. 15. 10. 2019. Arhivirano iz originala 31. 5. 2021. g. Pristupljeno 14. 7. 2021 — preko WordPress.
- ^ „DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md).: iperov/DeepFaceLab”. 19. 6. 2019. Arhivirano iz originala 9. 5. 2019. g. Pristupljeno 6. 3. 2019 — preko GitHub.
- ^ Chandler, Simon. „Why Deepfakes Are A Net Positive For Humanity”. Forbes (na jeziku: engleski). Arhivirano iz originala 16. 11. 2020. g. Pristupljeno 2020-11-03.
- ^ Pangburn, D. J. (2019-09-21). „You've been warned: Full body deepfakes are the next step in AI-based human mimicry”. Fast Company (na jeziku: engleski). Arhivirano iz originala 8. 11. 2019. g. Pristupljeno 2019-11-08.
- ^ Lyons, Kim (29. 1. 2020). „FTC says the tech behind audio deepfakes is getting better”. The Verge. Arhivirano iz originala 30. 1. 2020. g. Pristupljeno 8. 2. 2020.
- ^ „Audio samples from "Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis"”. google.github.io. Arhivirano iz originala 14. 11. 2019. g. Pristupljeno 8. 2. 2020.
- ^ Jia, Ye; Zhang, Yu (2. 1. 2019). „Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis”. arXiv:1806.04558 [cs.CL].
- ^ „TUM Visual Computing: Prof. Matthias Nießner”. www.niessnerlab.org. Arhivirano iz originala 21. 2. 2020. g. Pristupljeno 8. 2. 2020.
- ^ „Full Page Reload”. IEEE Spectrum: Technology, Engineering, and Science News. 11. 12. 2019. Arhivirano iz originala 26. 6. 2020. g. Pristupljeno 8. 2. 2020.
- ^ „Contributing Data to Deepfake Detection Research”. Arhivirano iz originala 5. 2. 2020. g. Pristupljeno 8. 2. 2020.
- ^ Thalen, Mikael. „You can now deepfake yourself into a celebrity with just a few clicks”. daily dot (na jeziku: engleski). Arhivirano iz originala 6. 4. 2020. g. Pristupljeno 2020-04-03.
- ^ Matthews, Zane. „Fun or Fear: Deepfake App Puts Celebrity Faces In Your Selfies”. Kool1079 (na jeziku: engleski). Arhivirano iz originala 24. 3. 2020. g. Pristupljeno 2020-03-06.
- ^ „Kanye West, Kim Kardashian and her dad: Should we make holograms of the dead?”. BBC News (na jeziku: engleski). 2020-10-31. Arhivirano iz originala 15. 11. 2020. g. Pristupljeno 2020-11-11.
- ^ „Kanye West Gave Kim Kardashian a Hologram of Her Father for Her Birthday”. themodems (na jeziku: engleski). 2020-10-30. Arhivirano iz originala 11. 11. 2020. g. Pristupljeno 2020-11-11.
- ^ „Parkland victim Joaquin Oliver comes back to life in heartbreaking plea to voters”. adage.com (na jeziku: engleski). 2020-10-02. Arhivirano iz originala 11. 11. 2020. g. Pristupljeno 2020-11-11.
- ^ Zucconi, Alan (2018-03-14). „Understanding the Technology Behind DeepFakes”. Alan Zucconi (na jeziku: engleski). Arhivirano iz originala 1. 11. 2019. g. Pristupljeno 2019-11-08.
- ^ „What is a Deepfake?”. Blog - Synthesys (na jeziku: engleski). 2022-05-03. Arhivirano iz originala 26. 06. 2022. g. Pristupljeno 2022-05-17.
- ^ a b v g d Kan, C. E. (2018-12-10). „What The Heck Are VAE-GANs?”. Medium (na jeziku: engleski). Arhivirano iz originala 14. 7. 2021. g. Pristupljeno 2019-11-08.
- ^ a b „These New Tricks Can Outsmart Deepfake Videos—for Now”. Wired (na jeziku: engleski). ISSN 1059-1028. Arhivirano iz originala 3. 10. 2019. g. Pristupljeno 2019-11-09.
- ^ Limberg, Peter (2020-05-24). „Blackmail Inflation”. CultState. Arhivirano iz originala 24. 1. 2021. g. Pristupljeno 2021-01-18.
- ^ „For Kappy”. Telegraph. 2020-05-24. Arhivirano iz originala 24. 1. 2021. g. Pristupljeno 2021-01-18.
- ^ a b Kelley M. Tayler; Laurie A. Harris (8. 6. 2021). Deep Fakes and National Security (Izveštaj). Congressional Research Service. str. 1. Arhivirano iz originala 14. 06. 2022. g. Pristupljeno 19. 7. 2021.
- ^ a b Roettgers, Janko (2018-02-21). „Porn Producers Offer to Help Hollywood Take Down Deepfake Videos”. Variety (na jeziku: engleski). Arhivirano iz originala 10. 6. 2019. g. Pristupljeno 2018-02-28.
- ^ a b v Dickson, E. J. (2019-10-07). „Deepfake Porn Is Still a Threat, Particularly for K-Pop Stars”. Rolling Stone (na jeziku: engleski). Arhivirano iz originala 30. 10. 2019. g. Pristupljeno 2019-11-09.
- ^ „The State of Deepfake - Landscape, Threats, and Impact” (PDF). Deeptrace (na jeziku: engleski). 2019-10-01. Arhivirano (PDF) iz originala 9. 8. 2020. g. Pristupljeno 2020-07-07.
- ^ Goggin, Benjamin. „From porn to 'Game of Thrones': How deepfakes and realistic-looking fake videos hit it big”. Business Insider. Arhivirano iz originala 8. 11. 2019. g. Pristupljeno 2019-11-09.
- ^ Lee, Dave (2018-02-03). „'Fake porn' has serious consequences” (na jeziku: engleski). Arhivirano iz originala 1. 12. 2019. g. Pristupljeno 2019-11-09.
- ^ a b Cole, Samantha (2018-06-19). „Gfycat's AI Solution for Fighting Deepfakes Isn't Working”. Vice (na jeziku: engleski). Arhivirano iz originala 8. 11. 2019. g. Pristupljeno 2019-11-09.
- ^ Zoe, Freni (24. 11. 2019). „Deepfake Porn Is Here To Stay”. Medium. Arhivirano iz originala 10. 12. 2019. g. Pristupljeno 10. 12. 2019.
- ^ a b Cole, Samantha; Maiberg, Emanuel; Koebler, Jason (26. 6. 2019). „This Horrifying App Undresses a Photo of Any Woman with a Single Click”. Vice. Arhivirano iz originala 2. 7. 2019. g. Pristupljeno 2. 7. 2019.
- ^ Cox, Joseph (9. 7. 2019). „GitHub Removed Open Source Versions of DeepNude”. Vice Media. Arhivirano iz originala 24. 9. 2020. g. Pristupljeno 14. 7. 2019.
- ^ „pic.twitter.com/8uJKBQTZ0o”. 27. 6. 2019. Arhivirano iz originala 6. 4. 2021. g. Pristupljeno 3. 8. 2019.
- ^ a b v g „Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos”. az Aargauer Zeitung. 2018-02-03. Arhivirano iz originala 13. 4. 2019. g. Pristupljeno 9. 4. 2018.
- ^ Patrick Gensing. „Deepfakes: Auf dem Weg in eine alternative Realität?”. Arhivirano iz originala 11. 10. 2018. g. Pristupljeno 9. 4. 2018.
- ^ Carnahan, Dustin (2020-09-16). „Faked videos shore up false beliefs about Biden's mental health”. The Conversation. Pristupljeno 2022-04-09.
- ^ Parker, Ashley (2020-09-07). „Trump and allies ramp up efforts to spread disinformation and fake news”. The Independent. Pristupljeno 2022-04-09.
- ^ Romano, Aja (18. 4. 2018). „Jordan Peele's simulated Obama PSA is a double-edged warning against fake news”. Vox. Arhivirano iz originala 11. 6. 2019. g. Pristupljeno 10. 9. 2018.
- ^ Swenson, Kyle (11. 1. 2019). „A Seattle TV station aired doctored footage of Trump's Oval Office speech. The employee has been fired.”. The Washington Post (na jeziku: engleski). Arhivirano iz originala 15. 4. 2019. g. Pristupljeno 11. 1. 2019.
- ^ Christopher, Nilesh (2020-02-18). „We've Just Seen the First Use of Deepfakes in an Indian Election Campaign”. Vice (na jeziku: engleski). Arhivirano iz originala 19. 2. 2020. g. Pristupljeno 2020-02-19.
- ^ „#TellTheTruthBelgium”. Extinction Rebellion Belgium (na jeziku: engleski). Arhivirano iz originala 25. 4. 2020. g. Pristupljeno 2020-04-21.
- ^ Holubowicz, Gerald (2020-04-15). „Extinction Rebellion s'empare des deepfakes”. Journalism.design (na jeziku: francuski). Arhivirano iz originala 29. 7. 2020. g. Pristupljeno 2020-04-21.
- ^ „Amabie: the mythical creature making a coronavirus comeback”. The Economist. 2020-04-28. ISSN 0013-0613. Arhivirano iz originala 20. 5. 2021. g. Pristupljeno 2021-06-03.
- ^ O'Sullivan, Donie (4. 6. 2019). „Congress to investigate deepfakes as doctored Pelosi video causes stir”. CNN. Arhivirano iz originala 29. 6. 2019. g. Pristupljeno 2019-11-09.
- ^ Roth, Andrew (22. 4. 2021). „European MPs targeted by deepfake video calls imitating Russian opposition”. The Guardian. Pristupljeno 29. 3. 2022.
- ^ Ivanov, Maxim; Rothrock, Kevin (22. 4. 2021). „Hello, this is Leonid Volkov* Using deepfake video and posing as Navalny's right-hand man, Russian pranksters fool Latvian politicians and journalists into invitation and TV interview”. Meduza. Pristupljeno 29. 3. 2022.
- ^ „Dutch MPs in video conference with deep fake imitation of Navalny's Chief of Staff”. NL Times. 24. 4. 2021. Pristupljeno 29. 3. 2022.
- ^ „'Deepfake' Navalny Aide Targets European Lawmakers”. The Moscow Times. 23. 4. 2021. Pristupljeno 29. 3. 2022.
- ^ Vincent, James (30. 4. 2021). „'Deepfake' that supposedly fooled European politicians was just a look-alike, say pranksters”. The Verge.
- ^ Katerina Cizek, William Uricchio, and Sarah Wolozin: Collective Wisdom | Massachusetts Institute of Technology „Arhivirana kopija”. Arhivirano iz originala 04. 03. 2020. g. Pristupljeno 22. 06. 2022.
- ^ „ANSA | Ornella Muti in cortometraggio a Firenze”. 3. 11. 2017. Arhivirano iz originala 27. 2. 2020. g. Pristupljeno 27. 2. 2020.
- ^ „'South Park' creators launch new deepfake satire series 'Sassy Justice'”. NME (na jeziku: engleski). 2020-10-27. Pristupljeno 2022-06-07.
- ^ Kemp, Luke (2019-07-08). „In the age of deepfakes, could virtual actors put humans out of business?”. The Guardian (na jeziku: engleski). ISSN 0261-3077. Arhivirano iz originala 20. 10. 2019. g. Pristupljeno 2019-10-20.
- ^ Radulovic, Petrana (2018-10-17). „Harrison Ford is the star of Solo: A Star Wars Story thanks to deepfake technology”. Polygon (na jeziku: engleski). Arhivirano iz originala 20. 10. 2019. g. Pristupljeno 2019-10-20.
- ^ Winick, Erin. „How acting as Carrie Fisher's puppet made a career for Rogue One's Princess Leia”. MIT Technology Review (na jeziku: engleski). Arhivirano iz originala 23. 10. 2019. g. Pristupljeno 2019-10-20.
- ^ „Deepfake Luke Skywalker is another step down a ghoulish CGI path”. British GQ (na jeziku: engleski). 2022-02-10. Pristupljeno 2022-06-03.
- ^ a b „High-Resolution Neural Face Swapping for Visual Effects | Disney Research Studios” (na jeziku: engleski). Arhivirano iz originala 27. 11. 2020. g. Pristupljeno 2020-10-07.
- ^ a b „Disney's deepfake technology could be used in film and TV”. Blooloop. 21. 7. 2020. Arhivirano iz originala 12. 11. 2020. g. Pristupljeno 2020-10-07.
- ^ Lindley, Jon A. (2020-07-02). „Disney Ventures Into Bringing Back 'Dead Actors' Through Facial Recognition”. Tech Times (na jeziku: engleski). Arhivirano iz originala 14. 7. 2021. g. Pristupljeno 2020-10-07.
- ^ Dazed (2022-02-10). „Will deepfakes rewrite history as we know it?”. Dazed (na jeziku: engleski). Pristupljeno 2022-06-03.
- ^ C, Kim (22. 8. 2020). „Coffin Dance and More: The Music Memes of 2020 So Far”. Music Times. Arhivirano iz originala 26. 6. 2021. g. Pristupljeno 26. 8. 2020.
- ^ Sholihyn, Ilyas (7. 8. 2020). „Someone deepfaked Singapore's politicians to lip-sync that Japanese meme song”. AsiaOne. Arhivirano iz originala 3. 9. 2020. g. Pristupljeno 26. 8. 2020.
- ^ Damiani, Jesse. „Chinese Deepfake App Zao Goes Viral, Faces Immediate Criticism Over User Data And Security Policy”. Forbes (na jeziku: engleski). Arhivirano iz originala 14. 9. 2019. g. Pristupljeno 2019-11-18.
- ^ Porter, Jon (2019-09-02). „Another convincing deepfake app goes viral prompting immediate privacy backlash”. The Verge (na jeziku: engleski). Arhivirano iz originala 3. 9. 2019. g. Pristupljeno 2019-11-18.
- ^ „Ahead of Irish and US elections, Facebook announces new measures against 'deepfake' videos”. Independent.ie (na jeziku: engleski). Arhivirano iz originala 8. 1. 2020. g. Pristupljeno 2020-01-07.
- ^ Reuters, 15 July 2020, Deepfake Used to Attack Activist Couple Shows New Disinformation Frontier Arhivirano 2020-09-26 na sajtu Wayback Machine
- ^ 972 Magazine, 12 August 2020, "'Leftists for Bibi'? Deepfake Pro-Netanyahu Propaganda Exposed: According to a Series of Facebook Posts, the Israeli Prime Minister is Winning over Left-Wing Followers--Except that None of the People in Question Exist" Arhivirano 14 avgust 2020 na sajtu Wayback Machine
- ^ The Seventh Eye, 9 June 2020, הפורנוגרפיה של ההסתהתומכי נתניהו ממשיכים להפיץ פוסטים מזויפים בקבוצות במדיה החברתית • לצד הטרלות מעלות גיחוך מופצות תמונות שקריות על מנת להגביר את השנאה והפילוג בחברה הישראלית Arhivirano 18 avgust 2020 na sajtu Wayback Machine
- ^ Statt, Nick (5. 9. 2019). „Thieves are now using AI deepfakes to trick companies into sending them money”. Arhivirano iz originala 15. 9. 2019. g. Pristupljeno 13. 9. 2019.
- ^ Damiani, Jesse. „A Voice Deepfake Was Used To Scam A CEO Out Of $243,000”. Forbes (na jeziku: engleski). Arhivirano iz originala 14. 9. 2019. g. Pristupljeno 2019-11-09.
- ^ „Weaponised deep fakes: National security and democracy on JSTOR”. www.jstor.org (na jeziku: engleski). Arhivirano iz originala 22. 10. 2020. g. Pristupljeno 2020-10-21.
- ^ a b „Perfect Deepfake Tech Could Arrive Sooner Than Expected”. www.wbur.org (na jeziku: engleski). Arhivirano iz originala 30. 10. 2019. g. Pristupljeno 2019-11-09.
- ^ Sonnemaker, Tyler. „As social media platforms brace for the incoming wave of deepfakes, Google's former 'fraud czar' predicts the biggest danger is that deepfakes will eventually become boring”. Business Insider. Arhivirano iz originala 14. 4. 2021. g. Pristupljeno 2021-04-14.
- ^ a b v Bateman, Jon (2020). „Summary”. Deepfakes and Synthetic Media in the Financial System: 1—2. Arhivirano iz originala 20. 4. 2021. g. Pristupljeno 28. 10. 2020.
- ^ Kelion, Leo (septembar 2020). „Deepfake detection tool unveiled by Microsoft”. BBC News. Arhivirano iz originala 14. 4. 2021. g. Pristupljeno 15. 4. 2021.
- ^ Towers-Clark, Charles. „Mona Lisa And Nancy Pelosi: The Implications Of Deepfakes”. Forbes (na jeziku: engleski). Arhivirano iz originala 23. 11. 2020. g. Pristupljeno 2020-10-07.
- ^ „What Is The Difference Between A Deepfake And Shallowfake?”. 21. 4. 2020. Arhivirano iz originala 26. 06. 2022. g. Pristupljeno 22. 06. 2022.
- ^ a b „The rise of the deepfake and the threat to democracy”. The Guardian (na jeziku: engleski). Arhivirano iz originala 1. 11. 2020. g. Pristupljeno 2020-11-03.
- ^ Fagan, Kaylee. „A viral video that appeared to show Obama calling Trump a 'dips---' shows a disturbing new trend called 'deepfakes'”. Business Insider. Arhivirano iz originala 22. 9. 2020. g. Pristupljeno 2020-11-03.
- ^ a b v g „Deepfake Putin is here to warn Americans about their self-inflicted doom”. MIT Technology Review (na jeziku: engleski). Arhivirano iz originala 30. 10. 2020. g. Pristupljeno 2020-10-07.
- ^ Rachel Metz. „How a deepfake Tom Cruise on TikTok turned into a very real AI company”. CNN.
- ^ Corcoran, Mark; Henry, Matt (23. 6. 2021). „This is not Tom Cruise. That's what has security experts so worried”. ABC News (na jeziku: engleski). Pristupljeno 28. 3. 2022.
- ^ Allyn, Bobby (16. 3. 2022). „Deepfake video of Zelenskyy could be 'tip of the iceberg' in info war, experts warn”. NPR. Pristupljeno 17. 3. 2022.
- ^ a b v g „Help us shape our approach to synthetic and manipulated media”. blog.twitter.com (na jeziku: engleski). Arhivirano iz originala 28. 10. 2020. g. Pristupljeno 2020-10-07.
- ^ „TechCrunch”. TechCrunch (na jeziku: engleski). Arhivirano iz originala 14. 7. 2021. g. Pristupljeno 2020-10-07.
- ^ a b „Deepfake Detection Challenge Results: An open initiative to advance AI”. ai.facebook.com (na jeziku: engleski). Arhivirano iz originala 29. 10. 2020. g. Pristupljeno 2020-10-07.
- ^ a b Paul, Katie (2020-02-04). „Twitter to label deepfakes and other deceptive media”. Reuters (na jeziku: engleski). Arhivirano iz originala 10. 10. 2020. g. Pristupljeno 2020-10-07.
- ^ a b v g Manke, Kara (2019-06-18). „Researchers use facial quirks to unmask 'deepfakes'”. Berkeley News (na jeziku: engleski). Arhivirano iz originala 9. 11. 2019. g. Pristupljeno 2019-11-09.
- ^ „Join the Deepfake Detection Challenge (DFDC)”. deepfakedetectionchallenge.ai. Arhivirano iz originala 12. 1. 2020. g. Pristupljeno 2019-11-08.
- ^ Hu, Shu; Li, Yuezun (12. 10. 2020). „Exposing GAN-Generated Faces Using Inconsistent Corneal Specular Highlights”. arXiv:2009.11924 [cs.CV].
- ^ a b „Google Scholar”. scholar.google.com. Pristupljeno 2022-04-30.
- ^ a b „Two-branch recurrent network for isolating deepfakes in videos”. scholar.google.com. Pristupljeno 2022-04-30.
- ^ a b v „The Blockchain Solution to Our Deepfake Problems”. Wired (na jeziku: engleski). ISSN 1059-1028. Arhivirano iz originala 7. 11. 2019. g. Pristupljeno 2019-11-09.
- ^ a b Leetaru, Kalev. „Why Digital Signatures Won't Prevent Deep Fakes But Will Help Repressive Governments”. Forbes (na jeziku: engleski). Arhivirano iz originala 14. 4. 2021. g. Pristupljeno 2021-02-17.
- ^ a b Cole, Samantha (2019-06-11). „This Deepfake of Mark Zuckerberg Tests Facebook's Fake Video Policies”. Vice (na jeziku: engleski). Arhivirano iz originala 12. 10. 2019. g. Pristupljeno 2019-11-09.
- ^ a b v Cole, Samantha (2018-02-06). „Pornhub Is Banning AI-Generated Fake Porn Videos, Says They're Nonconsensual”. Vice (na jeziku: engleski). Arhivirano iz originala 1. 11. 2019. g. Pristupljeno 2019-11-09.
- ^ a b v Cole, Samantha (2018-01-31). „AI-Generated Fake Porn Makers Have Been Kicked Off Their Favorite Host”. Vice (na jeziku: engleski). Arhivirano iz originala 1. 11. 2019. g. Pristupljeno 2019-11-18.
- ^ a b Cole, Samantha (2018-02-06). „Twitter Is the Latest Platform to Ban AI-Generated Porn”. Vice (na jeziku: engleski). Arhivirano iz originala 1. 11. 2019. g. Pristupljeno 2019-11-08.
- ^ Cole, Samantha (11. 12. 2017). „AI-Assisted Fake Porn Is Here and We're All Fucked”. Vice. Arhivirano iz originala 7. 9. 2019. g. Pristupljeno 19. 12. 2018.
- ^ Böhm, Markus (2018-02-07). „"Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor”. Spiegel Online. Arhivirano iz originala 23. 9. 2019. g. Pristupljeno 2019-11-09.
- ^ barbara.wimmer (8. 2. 2018). „Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos”. futurezone.at (na jeziku: nemački). Arhivirano iz originala 8. 2. 2018. g. Pristupljeno 2019-11-09.
- ^ „Deepfakes: Auch Reddit verbannt Fake-Porn”. heise online (na jeziku: nemački). Arhivirano iz originala 10. 4. 2019. g. Pristupljeno 2019-11-09.
- ^ „Reddit verbannt Deepfake-Pornos - derStandard.de”. DER STANDARD (na jeziku: nemački). Arhivirano iz originala 9. 11. 2019. g. Pristupljeno 2019-11-09.
- ^ Robertson, Adi (2018-02-07). „Reddit bans 'deepfakes' AI porn communities”. The Verge (na jeziku: engleski). Arhivirano iz originala 24. 9. 2019. g. Pristupljeno 2019-11-09.
- ^ Price, Rob (2018-01-27). „Discord just shut down a chat group dedicated to sharing porn videos edited with AI to include celebrities”. Business Insider Australia (na jeziku: engleski). Arhivirano iz originala 15. 12. 2019. g. Pristupljeno 2019-11-28.
- ^ „Twitter bans 'deepfake' AI-generated porn”. Engadget (na jeziku: engleski). Arhivirano iz originala 15. 12. 2019. g. Pristupljeno 2019-11-28.
- ^ a b v Harrell, Drew. „Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'”. The Washington Post. Arhivirano iz originala 2. 1. 2019. g. Pristupljeno 2019-01-01.
- ^ Beres, Damon; Gilmer, Marcus (2. 2. 2018). „A guide to 'deepfakes,' the internet's latest moral crisis”. Mashable (na jeziku: engleski). Arhivirano iz originala 9. 12. 2019. g. Pristupljeno 2019-11-09.
- ^ a b „Facebook has promised to leave up a deepfake video of Mark Zuckerberg”. MIT Technology Review (na jeziku: engleski). Arhivirano iz originala 16. 10. 2019. g. Pristupljeno 2019-11-09.
- ^ Anderson, Martin (2022). Google Has Banned the Training of Deepfakes in Colab, Unite.ai, May 28, 2022
- ^ Maiberg, Emanuel (2022). It Takes 2 Clicks to Get From ‘Deep Tom Cruise’ to Vile Deepfake Porn, VICE, May 17, 2022
- ^ a b Sasse, Ben (2018-12-21). „S.3805 - 115th Congress (2017-2018): Malicious Deep Fake Prohibition Act of 2018”. www.congress.gov. Arhivirano iz originala 16. 10. 2019. g. Pristupljeno 2019-10-16.
- ^ a b Clarke, Yvette D. (2019-06-28). „H.R.3230 - 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019”. www.congress.gov. Arhivirano iz originala 17. 12. 2019. g. Pristupljeno 2019-10-16.
- ^ a b Iacono Brown, Nina (2019-07-15). „Congress Wants to Solve Deepfakes by 2020. That Should Worry Us.”. Slate Magazine (na jeziku: engleski). Arhivirano iz originala 16. 10. 2019. g. Pristupljeno 2019-10-16.
- ^ a b v g „Bill Text - AB-602 Depiction of individual using digital or electronic technology: sexually explicit material: cause of action.”. leginfo.legislature.ca.gov. Arhivirano iz originala 17. 11. 2019. g. Pristupljeno 2019-11-09.
- ^ a b v g „Bill Text - AB-730 Elections: deceptive audio or visual media.”. leginfo.legislature.ca.gov. Arhivirano iz originala 31. 10. 2019. g. Pristupljeno 2019-11-09.
- ^ „China seeks to root out fake news and deepfakes with new online content rules”. Reuters.com. Reuters. 2019-11-29. Arhivirano iz originala 17. 12. 2019. g. Pristupljeno 2019-12-17.
- ^ Statt, Nick (2019-11-29). „China makes it a criminal offense to publish deepfakes or fake news without disclosure”. The Verge. Arhivirano iz originala 22. 12. 2019. g. Pristupljeno 2019-12-17.
- ^ a b Call for upskirting bill to include 'deepfake' pornography ban Arhivirano 2018-06-21 na sajtu Wayback Machine The Guardian
- ^ [1] Arhivirano 2019-11-22 na sajtu Wayback Machine see page 18
- ^ Bogart, Nicole (2019-09-10). „How deepfakes could impact the 2019 Canadian election”. Federal Election 2019 (na jeziku: engleski). Arhivirano iz originala 27. 1. 2020. g. Pristupljeno 2020-01-28.
- ^ „What Can The Law Do About Deepfake”. mcmillan.ca (na jeziku: engleski). Arhivirano iz originala 7. 12. 2019. g. Pristupljeno 2020-01-28.
- ^ „The US military is funding an effort to catch deepfakes and other AI trickery”. MIT Technology Review (na jeziku: engleski). Arhivirano iz originala 1. 11. 2020. g. Pristupljeno 2020-10-07.
- ^ a b „DARPA Is Taking On the Deepfake Problem”. Nextgov.com (na jeziku: engleski). Arhivirano iz originala 28. 10. 2020. g. Pristupljeno 2020-10-07.
- ^ „Media Forensics”. www.darpa.mil. Arhivirano iz originala 29. 10. 2020. g. Pristupljeno 2020-10-07.
- ^ a b Crawley, Peter (5. 9. 2019). „The Capture: A BBC thriller of surveillance, distortion and duplicity”. The Irish Times (na jeziku: engleski). Arhivirano iz originala 9. 9. 2019. g. Pristupljeno 24. 10. 2019.
- ^ Philip Kerr (2010). A Philosophical Investigation. ISBN 978-0143117537.
- ^ Bernal, Natasha (8. 10. 2019). „The disturbing truth behind The Capture and real life deepfakes”. The Telegraph. Arhivirano iz originala 14. 10. 2019. g. Pristupljeno 24. 10. 2019.
- ^ „ESPN Films Latest 30 for 30 Documentary Al Davis vs. The NFL to Premiere February 4” (Saopštenje). ESPN. 15. 1. 2021. Arhivirano iz originala 6. 2. 2021. g. Pristupljeno 5. 2. 2021.
- ^ Sprung, Shlomo (1. 2. 2021). „ESPN Documentary 'Al Davis Vs The NFL' Uses Deepfake Technology To Bring Late Raiders Owner Back To Life”. Forbes. Arhivirano iz originala 14. 4. 2021. g. Pristupljeno 4. 2. 2021.
- ^ „Hudson and Rex”.