Ključni izsledki
- Nova raziskava razkriva, da ljudje ne morejo ločiti slik, ustvarjenih z umetno inteligenco, od resničnih.
- Udeleženci so slike, ustvarjene z umetno inteligenco, ocenili kot bolj zaupanja vredne.
- Strokovnjaki menijo, da bi morali ljudje prenehati zaupati vsemu, kar vidijo na internetu.
Pregovor 'videti pomeni verjeti' ni več pomemben, ko gre za internet, in strokovnjaki pravijo, da ne bo kmalu bolje.
Nedavna študija je pokazala, da slike obrazov, ki jih je ustvarila umetna inteligenca (AI), niso le zelo fotorealistične, ampak so se tudi zdele bolj krepostne od pravih obrazov.
"Naša ocena fotorealizma obrazov, sintetiziranih z umetno inteligenco, kaže, da so motorji za sintezo šli skozi čudaško dolino in so sposobni ustvariti obraze, ki so nerazločljivi in bolj zaupanja vredni kot resnični obrazi," so opazili raziskovalci.
Ta oseba ne obstaja
Raziskovalca, dr. Sophie Nightingale z univerze Lancaster in profesor Hany Farid s kalifornijske univerze v Berkeleyju, sta izvedla poskuse, potem ko sta potrdila dobro oglaševane grožnje globokih ponaredkov, ki segajo od vseh vrst spletnih goljufij do poživljajočih dezinformacijske kampanje.
»Morda najbolj škodljiva je posledica tega, da je v digitalnem svetu, v katerem je mogoče ponarediti katero koli sliko ali videoposnetek, lahko postavljena pod vprašaj avtentičnost vsakega neprijetnega ali nezaželenega posnetka,« so trdili raziskovalci.
Trdili so, da čeprav je bil dosežen napredek pri razvoju samodejnih tehnik za odkrivanje globoko ponarejene vsebine, trenutne tehnike niso dovolj učinkovite in natančne, da bi sledile stalnemu toku novih vsebin, ki se nalagajo v splet. To pomeni, da morajo uporabniki spletne vsebine ločiti pravo od ponaredka, pravi dvojec.
Jelle Wieringa, zagovornica ozaveščenosti o varnosti pri KnowBe4, se je strinjala. Po e-pošti je za Lifewire povedal, da je boj proti samim dejanskim globokim ponaredkom izjemno težko izvesti brez posebne tehnologije. "[Tehnologije za ublažitev] so lahko drage in jih je težko implementirati v procese v realnem času, pogosto zaznajo deepfake šele naknadno."
S to predpostavko so raziskovalci izvedli vrsto poskusov, da bi ugotovili, ali lahko človeški udeleženci razlikujejo najsodobnejše sintetizirane obraze od resničnih obrazov. V svojih testih so ugotovili, da se je kljub usposabljanju za pomoč pri prepoznavanju ponaredkov stopnja natančnosti izboljšala le na 59 %, z 48 % brez usposabljanja.
To je vodilo raziskovalce, da preizkusijo, ali lahko dojemanje zanesljivosti ljudem pomaga prepoznati umetne slike. V tretji študiji so udeležence prosili, naj ocenijo zanesljivost obrazov, nato pa so ugotovili, da je bila povprečna ocena za sintetične obraze 7.7 % bolj zaupanja vreden od povprečne ocene za prave obraze. Številka morda ne zveni veliko, a raziskovalci trdijo, da je statistično pomembna.
Deeper Fakes
Globoki ponaredki so že bili velika skrb, zdaj pa je voda še bolj zametena s to študijo, ki nakazuje, da bi lahko tako visokokakovostni ponarejeni posnetki spletnim prevaram dodali povsem novo razsežnost, na primer tako, da bi pomagali ustvariti več prepričljivi spletni lažni profili.
»Edina stvar, ki poganja kibernetsko varnost, je zaupanje ljudi v tehnologije, procese in ljudi, ki jih poskušajo zaščititi,« je povedal Wieringa. "Globoki ponaredki, še posebej, ko postanejo fotorealistični, spodkopavajo to zaupanje in s tem sprejemanje in sprejemanje kibernetske varnosti. Lahko vodijo do tega, da ljudje postanejo nezaupljivi do vsega, kar zaznajo."
Chris Hauk, zagovornik zasebnosti potrošnikov pri Pixel Privacy, se strinja. V kratki izmenjavi e-poštnih sporočil je za Lifewire povedal, da lahko fotorealistični globoki ponaredki povzročijo "pustošenje" na spletu, še posebej v teh dneh, ko je mogoče dostopati do vseh vrst računov s tehnologijo za identifikacijo fotografij.
Popravljalni ukrep
Na srečo Greg Kuhn, direktor IoT, Prosegur Security, pravi, da obstajajo procesi, s katerimi se je mogoče izogniti takšnemu goljufivemu preverjanju pristnosti. Po e-pošti je za Lifewire povedal, da sistemi poverilnic, ki temeljijo na umetni inteligenci, primerjajo preverjenega posameznika s seznamom, vendar imajo mnogi vgrajene zaščitne ukrepe za preverjanje "živosti".
"Te vrste sistemov lahko zahtevajo in vodijo uporabnika, da izvede določene naloge, kot je nasmeh ali obračanje glave v levo in nato v desno. To so stvari, ki jih statično generirani obrazi ne morejo izvesti," je delil Kuhn.
Raziskovalci so predlagali smernice za urejanje njihovega ustvarjanja in distribucije, da bi zaščitili javnost pred sintetičnimi slikami. Za začetek predlagajo vključitev globoko zakoreninjenih vodnih žigov v sama omrežja za sintezo slik in videa, da bi zagotovili zanesljivo identifikacijo vseh sintetičnih medijev.
Do takrat Paul Bischoff, zagovornik zasebnosti in urednik raziskav infosec pri Comparitechu, pravi, da so ljudje prepuščeni sami sebi."Ljudje se bodo morali naučiti, da ne bodo zaupali obrazom na spletu, tako kot smo se vsi (upajmo) naučili, da ne bomo zaupali prikaznim imenom v naših e-poštnih sporočilih," je Bischoff povedal Lifewire po e-pošti.