Odkrivanje videoposnetkov "deepfake" v utripu oči

Odkrivanje neplodnosti s hormoni: FSH, LH, Prolaktin, TSH, AMH in vitamin D #MojLaboratorij (Junij 2019).

Anonim

Nova oblika dezinformacij se bo razširila prek spletnih skupnosti, saj se bodo vmesne volilne kampanje 2018 segrevale. Po pseudonimnem spletnem računu, ki je populariziral tehniko, je bil imenovan "deepfakes", ki je morda izbral svoje ime, ker proces uporablja tehnično metodo, imenovano "globoko učenje" - ti lažni videoposnetki so zelo realistični.

Doslej so ljudje v pornografiji in satiri uporabili globoke videoposnetke, da bi se zdelo, da slavni ljudje počnejo stvari, ki jih običajno ne bi. Ampak skoraj v določenih časih se bodo pojavile v času sezone kampanje, ki bi kazalo, da bodo kandidati rekli, da stvari ali mesta, ki jih pravi kandidat, ne bi imeli.

Ker so te tehnike tako nove, imajo ljudje težave pri razkrivanju razlike med resničnimi videoposnetki in globokimi videoposnetki. Moje delo, z mojim kolegom Ming-Chingom Changom in našim doktoratom. študent Yuezun Li, je našel način, kako zanesljivo pripovedovati realne videoposnetke iz globokih videoposnetkov. To ni trajna rešitev, saj se bo tehnologija izboljšala. Ampak to je začetek in ponuja upanje, da bodo računalniki lahko pomagali ljudem povedati resnico od fikcije.

Kaj je "deepfake", nekako?

Izdelava globokega videoposnetka je podobno kot prevajanje med jeziki. Storitve, kot je Google Translate, uporabljajo strojno učenje - računalniško analizo več deset tisoč besedil v več jezikih - za odkrivanje vzorcev uporabe besed, ki jih uporabljajo za ustvarjanje prevoda.

Algoritmi Deepfake delujejo na enak način: uporabljajo sistem strojnega učenja, imenovano globoko nevronsko omrežje, ki preučuje gibanje obraza ene osebe. Potem sintetizirajo slike obraza druge osebe, ki podobno premika. S tem učinkovito ustvarja videoposnetek ciljne osebe, ki se zdi, da dela ali govori o stvareh, ki jih je izvorna oseba naredila.

Preden lahko pravilno delujejo, globoka nevronska omrežja potrebujejo veliko izvornih informacij, kot so fotografije oseb, ki so vir ali tarča lažnega predstavljanja. Več slik, uporabljenih za usposabljanje globokega algoritma, bolj realno bo digitalna lažna predstavitev.

Odkrivanje utripa

V tem novem tipu algoritma še vedno obstajajo pomanjkljivosti. Ena izmed njih je povezana s tem, kako utripa simulirani obrazi - ali ne. Zdravi odrasli ljudje utripajo nekje med vsakim 2 in 10 sekundami, en sam utrip pa traja od desetine do štiri desetine sekunde. To bi bilo normalno videti v videoposnetku osebe, ki je govorila. Ampak to se ne dogaja v mnogih video posnetkih.

Ko je globoki algoritem izobražen na obraznih slikah osebe, je odvisen od fotografij, ki so na voljo na internetu, ki se lahko uporabijo kot podatki o vadbi. Tudi za ljudi, ki so pogosto fotografirani, je na spletu na voljo le nekaj slik, ki prikazujejo svoje oči. Ne le, da so fotografije tako redke - ker so ljudje oči večinoma odprta - vendar fotografi običajno ne objavljajo slik, kjer so oči glavnih subjektov zaprtih.

Brez vadbe slik ljudi, ki utripa, je manj verjetno, da bodo algoritmi za globokoprekure ustvarili obraze, ki običajno utripajo. Ko izračunamo skupno stopnjo utripa in primerjamo to z naravnim obsegom, smo ugotovili, da znaki v globokih videoposnetkih utripajo veliko manj pogosto v primerjavi z resničnimi ljudmi. Naše raziskave uporabljajo strojno učenje za pregledovanje odprtin in zapiranja oči v videoposnetkih.

To nam daje navdih za odkrivanje globokih videoposnetkov. Nato razvijemo metodo za zaznavanje, kdaj oseba v videoposnetku utripa. Bolj natančno, da skenira vsak okvir videoposnetka, zazna obraze v njem in nato samodejno poišče oči. Nato uporabi drugo globoko nevronsko mrežo, da ugotovi, ali je zaznano oko odprto ali zaprto, z videzom videza, geometrijskimi značilnostmi in gibanjem.

Vemo, da naše delo izkorišča napako v obliki podatkov, ki so na voljo za učenje globokih algoritmov. Da bi se izognili padcu žrtve podobne pomanjkljivosti, smo naš sistem vadili na veliko knjižnico slik odprtih in zaprtih oči. Zdi se, da ta metoda deluje dobro, in kot rezultat smo dosegli več kot 95-odstotno stopnjo zaznavanja.

To seveda ni zadnja beseda o odkrivanju globokih piškotov. Tehnologija se hitro izboljšuje in konkurenca med ustvarjanjem in odkrivanjem lažnih videoposnetkov je podobna šahovski igri. Zlasti je mogoče utripati videoposnetke, ki vsebujejo obraze z zaprtimi očmi ali video zaporedja za usposabljanje. Ljudje, ki želijo zamenjati javnost, se bodo bolje lotili lažnih videoposnetkov - in mi in drugi v tehnološki skupnosti bomo morali še naprej iskati načine za njihovo odkrivanje.

menu
menu