Ključni izsledki
- Programska oprema, ki uporablja umetno inteligenco za profiliranje ljudi, vzbuja pomisleke glede zasebnosti.
- Cryfe združuje tehnike vedenjske analize z umetno inteligenco.
- Kitajsko podjetje Alibaba je bilo nedavno deležno kritik, potem ko je domnevno izjavilo, da lahko njegova programska oprema zazna Ujgure in druge etnične manjšine.
Nova programska oprema, ki jo poganja umetna inteligenca in je namenjena delodajalcem za profiliranje svojih zaposlenih, vzbuja pomisleke glede zasebnosti.
Ena nova programska platforma, imenovana Cryfe, združuje tehnike vedenjske analize z umetno inteligenco. Razvijalec trdi, da lahko programska oprema z analizo drobnih namigov razkrije namere ljudi med intervjuji. Toda nekateri opazovalci pravijo, da lahko Cryfe in druge vrste programske opreme, ki analizira vedenje, posegajo v zasebnost.
»Podjetja se vse bolj zanašajo na umetno inteligenco za profiliranje,« je v intervjuju po elektronski pošti dejal strokovnjak za umetno inteligenco Vaclav Vincale. "Toda niti ljudje, ki kodirajo te algoritme, še manj pa oseba za podporo strankam, ki jo dobite po telefonu, vam ne morejo povedati, zakaj dajejo kakršno koli priporočilo."
Več kot besede
Cryfe je razvilo švicarsko podjetje, katerega zaposlene je FBI uril o tehnikah profiliranja. "Cryfe v vsej medosebni komunikaciji ne posluša samo besed, ampak identificira druge signale, ki jih oddaja človek, kot so čustva, mikroizrazi in vse kretnje," je Caroline Matteucci, ustanoviteljica Cryfe, povedala v intervjuju po elektronski pošti.
"Med zaposlovanjem, na primer, nam to omogoča, da gremo in iščemo pravo osebnost našega sogovornika."
Matteucci je dejal, da je zasebnost uporabnikov zaščitena, ker je podjetje pregledno glede delovanja svoje programske opreme. "Uporabnik mora, preden lahko uporablja platformo, sprejeti splošne pogoje," je dejala.
"Tam je določeno, da uporabnik v nobenem primeru ne sme predložiti intervjuja v analizo, ne da bi prejel pisno soglasje sogovornika."
Cryfe ni edina programska oprema, ki temelji na umetni inteligenci in naj bi analizirala človeško vedenje. Obstaja tudi Humantic, ki trdi, da analizira vedenje potrošnikov. "Humanticova revolucionarna tehnologija predvideva vedenje vsakogar, ne da bi morali opraviti osebnostni test," piše na spletni strani podjetja.
Podjetje trdi, da uporablja AI za ustvarjanje psiholoških profilov prosilcev na podlagi besed, ki jih uporabljajo v življenjepisih, spremnih pismih, profilih LinkedIn in katerem koli drugem delu besedila, ki ga predložijo.
Vedenjska programska oprema je v preteklosti naletela na pravne izzive. Leta 2019 je Bloomberg Law poročal, da je Komisija za enake možnosti zaposlovanja (EEOC) preučila primere domnevne nezakonite diskriminacije zaradi odločitev, povezanih s človeškimi viri, podprtih z algoritmi.
"Vse to bo treba urediti, ker je prihodnost zaposlovanja umetna inteligenca," je za Bloomberg povedal odvetnik Bradford Newman.
Nekateri opazovalci zamerijo podjetjem, ki uporabljajo programsko opremo za sledenje vedenju, ker ni dovolj natančna. V intervjuju je Nigel Duffy, vodja globalne umetne inteligence pri podjetju za profesionalne storitve EY, povedal za InformationWeek, da ga muči programska oprema, ki uporablja kvize družbenih medijev in vpliva na zaznavanje.
"Mislim, da obstaja nekaj zelo prepričljive literature o potencialu zaznavanja afektov, vendar razumem, da je način, ki se izvaja, pogosto precej naiven," je dejal.
"Ljudje sklepajo, da znanost v resnici ne podpira [kot je] odločitev, da je nekdo potencialno dober uslužbenec, ker se veliko smehlja, ali odločitev, da so nekomu všeč vaši izdelki, ker se veliko smehlja."
Kitajska podjetja naj bi profilirala manjšine
Sledenje vedenju bi lahko imelo tudi bolj zlovešče namene, pravijo nekatere skupine za človekove pravice. Na Kitajskem je spletni tržni velikan Alibaba pred kratkim vzbudil nemir, potem ko je domnevno trdil, da lahko njegova programska oprema zazna Ujgure in druge etnične manjšine.
The New York Times je poročal, da ima podjetje računalništvo v oblaku programsko opremo, ki skenira slike in videoposnetke.
Toda tudi ljudje, ki kodirajo te algoritme … vam ne morejo povedati, zakaj dajejo določena priporočila.
The Washington Post je prav tako nedavno poročal, da je Huawei, drugo kitajsko tehnološko podjetje, testiralo programsko opremo, ki bi lahko opozorila organe pregona, ko so njegove nadzorne kamere zaznale ujgurske obraze.
Patentna prijava iz leta 2018 podjetja Huawei naj bi trdila, da je "identifikacija lastnosti pešca zelo pomembna" v tehnologiji prepoznavanja obraza."Atributi ciljnega predmeta so lahko spol (moški, ženski), starost (kot so najstniki, srednjih let, stari) [ali] rasa (Han, Ujgur)," je pisalo v aplikaciji.
Predstavnik Huaweija je za CNN Business povedal, da funkcija identifikacije narodnosti "nikoli ne bi smela postati del aplikacije."
Naraščajoča uporaba umetne inteligence za razvrščanje velikih količin podatkov bo zagotovo sprožila pomisleke glede zasebnosti. Morda nikoli ne boste vedeli, kdo ali kaj vas analizira, ko boste naslednjič šli na razgovor za službo.