Ključni izsledki
- Podjetje za programsko opremo naj bi zbiralo informacije o družbenih omrežjih za ustvarjanje profilov, ki se lahko uporabijo za prepoznavanje ljudi, ki predstavljajo varnostna tveganja.
- Voyager Labs je sklenil pomemben posel z japonsko vladno agencijo.
- Toda strokovnjaki opozarjajo, da je programsko opremo za napovedovanje AI mogoče preslepiti.
Vaše spletne podatke bi lahko uporabili za napovedovanje, ali boste morda storili kaznivo dejanje.
Voyager Labs domnevno zbira informacije o družbenih omrežjih za ustvarjanje profilov, ki jih je mogoče uporabiti za prepoznavanje ljudi, ki predstavljajo varnostna tveganja. To je del vse večjih prizadevanj za uporabo umetne inteligence (AI) za preiskovanje potencialnih kriminalcev. Toda nekateri strokovnjaki pravijo, da je gibanje polno potencialnih težav.
"Zelo težko je predvideti človeško vedenje," je v intervjuju po elektronski pošti za Lifewire povedal Matthew Carr, varnostni raziskovalec pri Atumcell Group. "Nismo sposobni predvideti niti lastnega vedenja, kaj šele vedenja nekoga drugega. Mislim, da je možno, da bi umetno inteligenco v prihodnosti uporabili za ta namen, vendar smo daleč od tega, da bi to lahko storili trenutno."
Ustvarjanje profilov
Kot je nedavno poročal The Guardian, je losangeleška policija preučila uporabo programske opreme Voyager Lab za napovedovanje zločinov. Podjetje je tudi objavilo, da je sklenilo pomemben posel z japonsko vladno agencijo.
Japonski sporazum zagotavlja vladni agenciji preiskovalno platformo, ki temelji na umetni inteligenci in analizira ogromne količine informacij iz katerega koli vira, vključno z odprtimi in globokimi podatki.
"Veseli me, da sodelujemo v boju proti terorizmu in kriminalu," je v sporočilu za javnost dejala Divya Khangarot, generalna direktorica APAC pri Voyager Labs. "Z uporabo vrhunskih obveščevalnih rešitev Voyager Lab naše stranke pridobijo edinstvene zmogljivosti za proaktivno prepoznavanje in motenje morebitnih groženj. Prinašamo dodatne plasti globokih preiskovalnih vpogledov s kombinacijo AI, strojnega učenja in OSINT za odkrivanje skritih sledi, kršenih informacij, in slabi igralci."
Ni tako pametno?
Toda v intervjuju po e-pošti je Matt Heisie, soustanovitelj Ferret.ai, ki prav tako uporablja AI za napovedovanje storilcev kaznivih dejanj, dvomil o nekaterih trditvah Voyager Labs.
"Ali obstaja tako jasna povezava med, recimo, aretacijo in prihodnjim kriminalnim vedenjem, kot je črna pika na testu in razvoj tumorja?" rekel je. "Pomislite na vse morebitne zmede, ki so bile povezane s to aretacijo - v kateri soseski je oseba živela, količino in kakovost, celo pristranskost, policije na tem območju. Starost osebe, njen spol, njen fizični videz, vse to ima križne vplive na verjetnost, da bo ta oseba imela aretacijo, popolnoma ločeno od njene dejanske nagnjenosti k storitvi kaznivega dejanja, ki ga poskušamo predvideti."
Obtoženci z boljšimi odvetniki bodo verjetneje preprečili, da bi zapisi postali javno dostopni, je dejal Heisie. Nekatere jurisdikcije omejujejo objavo posnetkov ali zapisnikov o aretacijah, da zaščitijo obtoženca.
"Računalnik se bo učil na podlagi podatkov, ki mu jih posredujete, in vključil vse pristranskosti, ki so šle v to zbirko podatkov…"
"Vse to dodaja dodatno pristranskost algoritmov," je dodal. "Računalnik se bo učil na podlagi podatkov, ki mu jih posredujete, in vključil vse pristranskosti, ki so šli v to zbiranje podatkov, v učenje in interpretacijo."
Bilo je več poskusov, da bi ustvarili umetno inteligenco, ki bi napovedovala kriminal, in s pogosto škandaloznimi rezultati, je dejal Heisie.
COMPAS, algoritem, ki ga organi kazenskega pregona uporabljajo za napovedovanje ponovitve kaznivega dejanja, se pogosto uporablja pri določanju kazni in varščine. Soočala se je s škandalom, ki sega v leto 2016 zaradi rasne pristranskosti, pri čemer so napovedovali, da temnopolti obtoženci predstavljajo večje tveganje za ponovitev, kot so dejansko, in obratno za bele obtožence.
Več kot 1000 tehnologov in učenjakov, vključno z akademiki in strokovnjaki za umetno inteligenco s Harvarda, MIT, Googla in Microsofta, je leta 2020 nastopilo proti dokumentu, v katerem so trdili, da so raziskovalci razvili algoritem, ki bi lahko predvidel kriminal samo na podlagi obraz osebe, ki pravi, da objava takih študij krepi že obstoječo rasno pristranskost v kazenskopravnem sistemu, je opozoril Heisie.
Kitajska je največji in najhitreje rastoči trg za to vrsto tehnologije, predvsem zaradi širokega dostopa do zasebnih podatkov, z več kot 200 milijoni nadzornih kamer in naprednimi raziskavami umetne inteligence, ki se že vrsto let osredotočajo na to vprašanje, je dejal Heisie. Sistemi, kot je CloudWalkov Police Cloud, se zdaj uporabljajo za napovedovanje in sledenje kriminalcem ter natančno določanje organov pregona.
"Vendar pa tudi tam poročajo o precejšnjih pristranskostih," je dejal Heisie.
Heisie je dodal, da njegovo podjetje skrbno ureja podatke, ki prihajajo, in ne uporablja posnetkov ali zapisov o aretacijah, "namesto tega se osredotoča na bolj objektivna merila."
"Naš AI se je učil iz kuriranih podatkov, a kar je še pomembneje, uči se tudi od ljudi, ki sami analizirajo, kurirajo in ocenjujejo zapise ter nam sporočajo o svojih interakcijah z drugimi," je dodal. "Ohranjamo tudi popolno preglednost ter brezplačen in javen dostop do naše aplikacije (takoj hitro, ko jih lahko spustimo v različico beta) in pozdravljamo vpogled v naše procese in postopke."