Zakaj bi programska oprema za branje čustev lahko kršila vašo zasebnost

Kazalo:

Zakaj bi programska oprema za branje čustev lahko kršila vašo zasebnost
Zakaj bi programska oprema za branje čustev lahko kršila vašo zasebnost
Anonim

Ključni izsledki

  • Zoom naj bi dejal, da bo uporabil AI za ocenjevanje uporabnikovega čustva ali stopnje angažiranosti.
  • Skupine za človekove pravice pozivajo Zoom, naj ponovno razmisli o svojem načrtu zaradi skrbi glede zasebnosti in varnosti podatkov.
  • Nekatera podjetja med razgovori uporabljajo tudi programsko opremo za zaznavanje čustev, da ocenijo, ali je uporabnik pozoren.
Image
Image

Naraščajoča uporaba umetne inteligence (AI) za spremljanje človeških čustev povzroča pomisleke glede zasebnosti.

Organizacije za človekove pravice prosijo Zoom, naj upočasni svoj načrt za uvedbo umetne inteligence za analizo čustev v svojo programsko opremo za videokonference. Družba je menda dejala, da bo uporabila AI za ocenjevanje razpoloženja ali stopnje angažiranosti uporabnika.

»Strokovnjaki priznavajo, da analiza čustev ne deluje,« je v pismu Zoomu zapisal konzorcij skupin za človekove pravice, vključno z ACLU. "Izrazi obraza so pogosto ločeni od čustev pod njimi in raziskave so pokazale, da niti ljudje včasih ne moremo natančno prebrati ali izmeriti čustev drugih. Razvoj tega orodja poveča verodostojnost psevdoznanosti in postavi na kocko vaš ugled."

Zoom ni takoj odgovoril na zahtevo družbe Lifewire za komentar.

Nadzor nad svojimi čustvi

V skladu s člankom o protokolu bi nadzorni sistem Zoom, imenovan Q for Sales, preverjal uporabnikovo razmerje časa pogovora, zakasnitev odzivnega časa in pogoste menjave govorca, da bi spremljal, kako angažirana je oseba. Zoom bi te podatke uporabil za dodelitev rezultatov med nič in 100, pri čemer bi višji rezultati pomenili večjo angažiranost ali razpoloženje.

Skupine za človekove pravice trdijo, da bi programska oprema lahko diskriminirala ljudi s posebnimi potrebami ali določene etnične skupine, saj predvideva, da vsi uporabljajo iste obrazne izraze, glasovne vzorce in govorico telesa za komunikacijo. Skupine tudi menijo, da bi programska oprema lahko predstavljala tveganje za varnost podatkov.

Image
Image

»Zbiranje zelo osebnih podatkov bi lahko povzročilo, da bi kateri koli subjekt, ki uporablja to tehnologijo, postal tarča vohljanja državnih organov in zlonamernih hekerjev,« piše v pismu.

Julia Stoyanovich, profesorica računalništva in inženirstva na Univerzi v New Yorku, je v intervjuju po elektronski pošti za Lifewire povedala, da je skeptična glede trditev v ozadju zaznavanja čustev.

"Ne razumem, kako lahko taka tehnologija deluje - čustveno izražanje ljudi je zelo individualno, zelo odvisno od kulture in zelo odvisno od konteksta," je dejal Stoyanovich."Vendar, kar je morda še bolj pomembno, ne razumem, zakaj bi želeli, da ta orodja delujejo. Z drugimi besedami, bili bi v še večjih težavah, če bi dobro delovala. Toda morda bi morali, še preden razmišljamo o tveganjih, vprašajte - kakšne so možne prednosti takšne tehnologije?"

Zoom ni edino podjetje, ki uporablja programsko opremo za zaznavanje čustev. Theo Wills, višji direktor za zasebnost pri Kuma LLC, svetovalnem podjetju za zasebnost in varnost, je za Lifewire po elektronski pošti povedal, da se med intervjuji uporablja programska oprema za zaznavanje čustev, da se oceni, ali je uporabnik pozoren. Pilotno se izvaja tudi v prometni industriji za spremljanje, ali so vozniki videti zaspani, na video platformah za merjenje zanimanja in prilagajanje priporočil ter v izobraževalnih vadnicah za ugotavljanje, ali je določena učna metoda privlačna.

Wills je trdil, da je polemika o programski opremi za spremljanje čustev bolj vprašanje etike podatkov kot zasebnosti. Rekla je, da gre za sistem, ki sprejema odločitve v resničnem svetu na podlagi slutnje.

"S to tehnologijo zdaj domnevate, zakaj imam poseben izraz na obrazu, vendar se motiv za izrazom zelo razlikuje zaradi stvari, kot so socialna ali kulturna vzgoja, družinsko vedenje, pretekle izkušnje ali živčnost v tem trenutku, «je dodal Wills. "Utemeljevanje algoritma na predpostavki je samo po sebi napačno in potencialno diskriminatorno. Številne populacije niso predstavljene v populaciji, na kateri temeljijo algoritmi, zato je treba dati prednost ustrezni predstavitvi, preden se to uporabi."

Praktični premisleki

Težave, ki jih povzroča programska oprema za sledenje čustvom, so lahko tako praktične kot teoretične. Matt Heisie, soustanovitelj Ferret.ai, aplikacije, ki temelji na umetni inteligenci in zagotavlja obveščanje o odnosih, je v elektronskem sporočilu za Lifewire povedal, da morajo uporabniki vprašati, kje se izvaja analiza obrazov in kateri podatki se shranjujejo. Ali se študija izvaja na posnetkih klicev, obdelanih v oblaku ali na lokalni napravi?

Poleg tega je Heisie vprašal, ko se algoritem uči, katere podatke zbira o obrazu ali gibih osebe, ki bi jih lahko potencialno ločili od algoritma in uporabili za ponovno ustvarjanje biometričnih podatkov nekoga? Ali podjetje shranjuje posnetke, da bi preverilo ali potrdilo učenje algoritma, in ali je uporabnik obveščen o teh novih izpeljanih podatkih ali shranjenih slikah, ki se morebiti zbirajo iz njihovih klicev?

"Vse to so težave, ki so jih rešila mnoga podjetja, a obstajajo tudi podjetja, ki jih je pretresel škandal, ko se je izkazalo, da tega niso naredila pravilno," je dejal Heisie. "Facebook je najpomembnejši primer podjetja, ki je opustilo svojo platformo za prepoznavanje obrazov zaradi skrbi glede zasebnosti uporabnikov. Matična družba Meta zdaj umika funkcije AR iz Instagrama v nekaterih jurisdikcijah, kot sta Illinois in Teksas, zaradi zakonov o zasebnosti, ki obkrožajo biometrične podatke."

Priporočena: