Savršene lažne video zapise prepoznat će umjetna inteligencija
Savršene lažne video zapise prepoznat će umjetna inteligencija

Video: Savršene lažne video zapise prepoznat će umjetna inteligencija

Video: Savršene lažne video zapise prepoznat će umjetna inteligencija
Video: Шпаклевка стен под покраску. Все этапы. ПЕРЕДЕЛКА ХРУЩЕВКИ от А до Я #20 - YouTube 2024, April
Anonim
Premijera opere o trovanju Litvinenka počinje u Engleskoj
Premijera opere o trovanju Litvinenka počinje u Engleskoj

Prije godinu dana, Stanfordova Manish Agrawala pomogla je u razvoju tehnologije sinhronizacije usana koja je omogućila video urednicima da gotovo neprimjetno promijene riječi govornika. Alat može lako umetnuti riječi koje osoba nikada nije izgovorila, čak ni usred rečenice, ili izbrisati riječi koje je izgovorila. Sve će izgledati realno golim okom, pa čak i mnogim računalnim sistemima.

Ovaj alat je znatno olakšao ispravljanje grešaka bez ponovnog snimanja cijelih scena, a također je prilagodio TV emisije ili filmove za različitu publiku na različitim mjestima. Ali ova tehnologija je također stvorila uznemirujuće nove mogućnosti za teško pronaći lažne videozapise, s jasnom namjerom iskrivljavanja istine. Na primjer, nedavni republikanski video zapis koristio je grublju tehniku za intervju s Joeom Bidenom.

Ovog ljeta, Agrawala i kolege sa Stanforda i UC Berkeley predstavili su pristup tehnologiji sinhronizacije usana zasnovanoj na umjetnoj inteligenciji. Novi program precizno otkriva više od 80 posto krivotvorina, prepoznajući i najmanje razlike između zvukova ljudi i oblika njihovih usta.

Ali Agrawala, direktor Stanfordskog instituta za medijske inovacije i profesor računarstva u Forest Baskettu, koji je također povezan sa Stanfordskim institutom za umjetnu inteligenciju usmjerenu na čovjeka, upozorava da ne postoji dugoročno tehničko rješenje za duboke lažne.

Kako lažni djeluju

Postoje legitimni razlozi za manipulaciju videom. Na primjer, svatko tko snima izmišljenu TV emisiju, film ili reklamu može uštedjeti vrijeme i novac korištenjem digitalnih alata za ispravljanje grešaka ili prilagođavanje scenarija.

Problem nastaje kada se ti alati namjerno koriste za širenje lažnih informacija. I mnoge od tehnika su nevidljive prosječnom gledatelju.

Mnogi duboki lažni videozapisi oslanjaju se na zamjenu lica, doslovno nanoseći lice jedne osobe na videozapis druge osobe. Ali iako alati za promjenu lica mogu biti privlačni, relativno su grubi i obično ostavljaju digitalne ili vizuelne artefakte koje računar može otkriti.

S druge strane, tehnologije sinkronizacije usana manje su vidljive i stoga ih je teže otkriti. Oni manipuliraju mnogo manjim dijelom slike, a zatim sintetiziraju pokrete usana koji se točno poklapaju s načinom na koji bi se usta osobe zapravo kretala da je izgovorila određene riječi. Prema Agrawal -u, s obzirom na dovoljno uzoraka slike i glasa neke osobe, lažni producent može natjerati osobu da "kaže" bilo šta.

Otkrivanje krivotvorina

Zabrinut zbog neetičke upotrebe takve tehnologije, Agrawala je radio sa Ohad Freedom, doktorandom na Stanfordu, na razvoju alata za otkrivanje; Hani Farid, profesor na Kalifornijskom univerzitetu, Berkeley School of Information; i Shruti Agarwal, doktorandica na Berkeleyu.

U početku su istraživači eksperimentirali sa čisto ručnom tehnikom u kojoj su posmatrači proučavali video zapise. Djelovao je dobro, ali u praksi je bio naporan i dugotrajan.

Istraživači su zatim testirali neuronsku mrežu zasnovanu na umjetnoj inteligenciji koja bi bila mnogo brža za napraviti istu analizu nakon treninga na video snimku s bivšim predsjednikom Barackom Obamom. Neuronska mreža otkrila je više od 90 posto Obamine vlastite sinhronizacije usana, iako je točnost ostalih govornika pala na oko 81 posto.

Pravi test istine

Istraživači kažu da je njihov pristup samo dio igre mačke i miša. Kako se tehnike dubokog krivotvorenja poboljšavaju, ostavljat će još manje ključeva.

Na kraju, kaže Agrawala, pravi problem nije toliko borba protiv duboko lažnih video zapisa koliko borba protiv dezinformacija. Zapravo, primjećuje on, veliki dio dezinformacija proizlazi iz iskrivljavanja značenja onoga što su ljudi zapravo rekli.

"Da bismo smanjili dezinformacije, moramo poboljšati medijsku pismenost i razviti sisteme odgovornosti", kaže on. "To može značiti zakone koji zabranjuju namjerno stvaranje dezinformacija i posljedice njihovog kršenja, kao i mehanizme za uklanjanje nastale štete."

Preporučuje se: