Ključni izsledki
- Ker postaja globoke ponaredke lažje narediti, so novi in izboljšani načini njihovega odkrivanja postali prednostna naloga.
- Facebookova tehnologija odkrivanja globokih ponaredkov uporablja obratno strojno učenje, da odkrije, ali je videoposnetek globoka ponaredek ali ne.
- Strokovnjaki pravijo, da bi bila uporaba tehnologije veriženja blokov najboljši način za ugotavljanje, ali je video resničen ali ne, saj se metoda opira na kontekstualne podatke.
Facebook je prepričan v svoj model strojnega učenja za boj proti globokim ponaredkom, vendar strokovnjaki pravijo, da nas strojno učenje samo po sebi ne bo rešilo pred tem, da bi nas zavedli globoki ponaredki.
Podjetja, kot so Facebook, Microsoft in Google, si prizadevajo preprečiti širjenje globokih ponaredkov po spletu in družbenih omrežjih. Čeprav se metode razlikujejo, obstaja ena potencialno varna metoda za odkrivanje teh lažnih videoposnetkov: verige blokov.
»[Blockchains] vam samo dajejo veliko potenciala za potrjevanje deepfake na način, ki je najboljša oblika potrjevanja, kar jih vidim,« Stephen Wolfram, ustanovitelj in izvršni direktor podjetja Wolfram Research ter avtor knjige A New Kind of Science, je povedal Lifewire po telefonu.
Facebookova tehnologija odkrivanja globokih ponaredkov
Tehnologija Deepfake je v zadnjih nekaj letih hitro rasla. Zavajajoči videoposnetki uporabljajo metode strojnega učenja za stvari, kot je prekrivanje obraza nekoga s telesom druge osebe, spreminjanje pogojev v ozadju, lažna sinhronizacija ustnic in drugo. Segajo od neškodljivih parodij do tega, da slavne ali javne osebnosti prisilijo, da rečejo ali naredijo nekaj, kar niso.
Strokovnjaki pravijo, da tehnologija hitro napreduje in da bodo globoki ponaredki le še bolj prepričljivi (in lažji za ustvarjanje), ko bo tehnologija širše dostopna in bolj inovativna.
Facebook je nedavno dal boljši vpogled v svojo tehnologijo za odkrivanje globokih ponaredkov v sodelovanju z univerzo Michigan State. Družbeno omrežje pravi, da se zanaša na obratni inženiring od ene slike, ustvarjene z umetno inteligenco, do generativnega modela, uporabljenega za njeno izdelavo.
Raziskovalni znanstveniki, ki so sodelovali s Facebookom, so povedali, da se metoda opira na odkrivanje edinstvenih vzorcev za modelom umetne inteligence, ki se uporablja za ustvarjanje deepfakea.
»S posploševanjem pripisovanja slike prepoznavanju odprtega niza lahko sklepamo o več informacijah o generativnem modelu, uporabljenem za ustvarjanje deepfakea, ki presega samo prepoznavanje, da ga še nismo videli. In s sledenjem podobnostim med vzorci zbirke deepfakeov bi lahko tudi ugotovili, ali serija slik izvira iz enega samega vira,« sta raziskovalca Xi Yin in Tan Hassner zapisala v Facebookovi objavi na blogu o metodi odkrivanja deepfake.
Wolfram pravi, da je smiselno, da uporabite strojno učenje za odkrivanje naprednega modela umetne inteligence (deepfake). Vendar je vedno mogoče pretentati tehnologijo.
»Sploh nisem presenečen, da obstaja spodoben način strojnega učenja za [odkrivanje globokih ponaredkov],« je dejal Wolfram. »Edino vprašanje je, ali ga lahko prevarate, če vložite dovolj truda? Prepričan sem, da lahko.”
Boj proti Deepfakes na drugačen način
Namesto tega je Wolfram dejal, da verjame, da bi bila uporaba blockchaina najboljša možnost za natančno odkrivanje določenih vrst globokih ponaredkov. Njegovo mnenje o uporabi verige blokov namesto strojnega učenja sega v leto 2019 in je dejal, da lahko navsezadnje pristop verige blokov zagotovi natančnejšo rešitev za naš problem deepfake.
»Pričakoval bi, da lahko gledalci slik in videoposnetkov rutinsko preverjajo verige blokov (in 'izračune triangulacije podatkov'), podobno kot spletni brskalniki zdaj preverjajo varnostna potrdila,« je zapisal Wolfram v članku, objavljenem v Scientific American.
Ker verige blokov shranjujejo podatke v blokih, ki se nato verižijo skupaj v kronološkem vrstnem redu, in ker so decentralizirane verige blokov nespremenljive, so vneseni podatki nepovratni.
Edino vprašanje je, ali ga lahko prevarate, če vložite dovolj truda? Prepričan sem, da lahko.
Wolfram je razložil, da bi z vstavitvijo videoposnetka v verigo blokov lahko videli čas, ko je bil posnet, lokacijo in druge kontekstualne informacije, ki bi vam omogočile ugotoviti, ali je bil kakor koli spremenjen.
»Na splošno, če imate več metapodatkov, ki kontekstualizirajo sliko ali video, večja je verjetnost, da boste lahko povedali,« je dejal. »V blockchainu ne moreš ponarediti časa.«
Vendar je Wolfram dejal, da je uporabljena metoda – ne glede na to, ali gre za strojno učenje ali uporabo blockchaina – odvisna od vrste deepfakea, pred katerim se poskušate zaščititi (tj. videoposnetek Kim Kardashian, ki govori nekaj neumnega, ali videoposnetek politik, ki daje izjavo ali predlog).
»Pristop veriženja blokov ščiti pred določenimi vrstami globokih ponaredkov, tako kot obdelava slik strojnega učenja ščiti pred določenimi vrstami globokih ponaredkov,« je dejal.
Bistvo se zdi, da smo pozorni za vse nas, ko gre za boj proti prihajajočemu globokemu lažnemu potopu.