Istraživači su otkrili iznenađujuće jednostavan način kako otkriti deepfake video poziv – zamolite osumnjičenog da se okrene bočno

 

Trik kako otkriti deepfake video poziv podijelio je Metaphysic.ai, londonski startap koji stoji iza viralnih deepfakes-a Toma Kruza.

Kompanija je koristila DeepFaceLive, popularnu aplikaciju za deepfake videe, da transformiše volontera u različite poznate ličnosti. Većina rekreacija je bila impresivna kada su gledali pravo ispred sebe. Ali kada su se lica zarotirala za punih 90 stepeni, slike su postale izobličene i čarolija je prekinuta.

Tim vjeruje da se defekti pojavljuju zato što softver koristi manje referentnih tačaka za procjenu bočnih pogleda lica. Ovo dovodi do toga da algoritam ne može da pogodi kako bi to izgledalo.

„Tipični paketi za 2D poravnanje smatraju da je prikaz profila 50% skriven, što otežava prepoznavanje, kao i preciznu obuku i kasniju sintezu lica“, objasnio je Martin Anderson iz Metaphysic.ai u postu na blogu.

„Često će generisani orijentiri profila „iskočiti“ na bilo koju moguću grupu piksela, koji mogu predstavljati „oko koje nedostaje“ ili drugi detalj lica koji je zatamnjen u prikazu profila“, dodao je Martin Anderson.

Ove slabe tačke se mogu ojačati, ali je potrebno mnogo rada. Jutjuber DesiFakes je dokazao da je to moguće nakon što je u Pulp Fiction dodao deepfake Džerija Sajnfelda. Ali ovo je zahtjevalo opsežnu naknadnu obradu.

 

deepfake video poziv

Pored toga, pogled na profil Seinfelda veoma je ličio na originalnog glumca. Ipak, ovo je teško ponoviti za širu javnost, jer nas rijetko snimaju ili fotografišu u profilu – osim ako nas ne uhapse. Ovo može ostaviti duboke lažne modele sa nedovoljnim podacima o obuci za generisanje realističnih bočnih pogleda.

Istraživanje Metaphysic.ai-a se pojavljuje usred sve veće zabrinutosti oko deepfake video poziva. U junu je nekoliko evropskih gradonačelnika prevareno video pozivom Vitalija Klička. Nekoliko dana kasnije, FBI je upozorio da prevaranti koriste deepfakes u intervjuima za remote poslove koji nude pristup vrijednim informacijama.

Trik “okreni se u profil” možda nije spasio sve žrtve. Budući 3D sistemi orijentira mogu proizvesti uvjerljive prikaze profila, dok bi fotorealistični CGI modeli mogli zamijeniti cijele glave. Bez obzira na to, trik sa bočnim pogledom dodaje novu šansu za otkrivanje lažnjaka.

(Thenextweb)

Dopada vam se  IT-mixer? Podržite nas putem društvenih mreža na linkovima ispod. Lajkujte našu stranicu na Facebooku, budite informisani u svakom momentu.