Rasna pristranskost algoritma Twitter kaže na večji tehnični problem

Kazalo:

Rasna pristranskost algoritma Twitter kaže na večji tehnični problem
Rasna pristranskost algoritma Twitter kaže na večji tehnični problem
Anonim

Ključni izsledki

  • Twitter upa, da bo popravil to, čemur uporabniki v svoji programski opremi za predogled slik pravijo rasna pristranskost.
  • Poziv tehnološkega velikana bi lahko bil kulturni obračun, ki ga mora industrija obravnavati vprašanja raznolikosti.
  • Pomanjkanje raznolikosti tehnologije škoduje učinkovitosti njenega tehnološkega napredka.
Image
Image

Twitter naj bi sprožil preiskavo svojega algoritma za obrezovanje slik, potem ko je postal priljubljena tema, ki je spodbudila večji pogovor o vprašanjih raznolikosti v tehnološki industriji.

Družabni mediji so se znašli na naslovnicah, potem ko so uporabniki odkrili očitno rasno pristranskost v njegovem algoritmu za predogled slik. Odkritje se je zgodilo po tem, ko je uporabnik Twitterja Colin Madland uporabil platformo, da bi opozoril na Zoomovo neuspeh pri prepoznavanju njegovih temnopoltih kolegov, ki so uporabljali tehnologijo zelenega zaslona, vendar je v veliki predstavi ironije ugotovil, da se Twitterjev algoritem za obrezovanje slik obnaša podobno in je razbremenil temnopolte obraze.

Vsekakor je to velik problem za vsako manjšino, vendar mislim, da obstaja tudi veliko širši problem.

Drugi uporabniki so se vključili v trend, kar je sprožilo vrsto virusnih tvitov, ki prikazujejo, da algoritem dosledno daje prednost belim in svetlejšim obrazom, od ljudi do likov iz risank in celo psov. Ta neuspeh kaže na večje kulturno gibanje v tehnološki industriji, ki dosledno ni upoštevalo manjšinskih skupin, kar se je prelilo na tehnično plat.

"Zaradi tega se manjšine počutijo grozno, kot da niso pomembne, in se lahko uporabi za druge stvari, ki lahko povzročijo resnejšo škodo v nadaljevanju," Erik Learned-Miller, profesor računalništva na univerzi iz Massachusettsa, je dejal v telefonskem intervjuju."Ko se odločite, za kaj se lahko uporablja del programske opreme, in vse škode, ki se lahko zgodijo, se začnemo pogovarjati o načinih, kako zmanjšati možnost, da se to zgodi."

Kanarček na časovnici

Twitter uporablja nevronska omrežja za samodejno obrezovanje slik, vdelanih v tvite. Algoritem naj bi zaznal obraze za predogled, vendar se zdi, da ima opazno belo pristranskost. Tiskovna predstavnica podjetja Liz Kelley je tvitnila odgovor na vse pomisleke.

Kelley je tvitnila: "hvala vsem, ki ste to izpostavili. Pred pošiljanjem modela smo testirali pristranskost in pri našem testiranju nismo našli dokazov o rasni ali spolni pristranskosti, vendar je jasno, da imamo več analiz, storiti. naše delo bomo odprli kodno, tako da ga bodo lahko drugi pregledali in ponovili."

Soavtor bele knjige "Tehnologije za prepoznavanje obrazov v divjini: poziv za zvezni urad", Learned-Miller je vodilni raziskovalec presežkov programske opreme za učenje z umetno inteligenco na podlagi obraza. Že leta razpravlja o morebitnem negativnem vplivu programske opreme za učenje slik in govori o pomembnosti ustvarjanja realnosti, v kateri so te pristranskosti po najboljših močeh omilili.

Številni algoritmi za tehnologijo prepoznavanja obrazov uporabljajo referenčne nize za podatke, pogosto znane kot učni nizi, ki so zbirka slik, ki se uporabljajo za natančno nastavitev delovanja programske opreme za učenje slik. Konec koncev omogoča AI, da zlahka prepozna široko paleto obrazov. Vendar pa ti referenčni nizi morda nimajo raznolikega nabora, kar vodi do težav, kakršnih ima ekipa Twitterja.

"Vsekakor je to velik problem za vsako manjšino, vendar mislim, da obstaja tudi veliko širši problem," je dejal Learned-Miller. "Povezano je s pomanjkanjem raznolikosti v tehnološkem sektorju in potrebo po centralizirani regulativni sili, ki bi pokazala pravilno uporabo te vrste zmogljive programske opreme, ki je nagnjena k napačni uporabi in zlorabi."

Tehnologija brez raznolikosti

Twitter je morda najnovejše tehnološko podjetje na trgu, vendar to še zdaleč ni nov problem. Področje tehnologije ostaja pretežno belo, na katerem nenehno prevladujejo moški, in raziskovalci so ugotovili, da pomanjkanje raznolikosti povzroča ponavljanje sistemskih, zgodovinskih neravnovesij v razviti programski opremi.

V poročilu AI Now Institute newyorške univerze iz leta 2019 so raziskovalci ugotovili, da črnci predstavljajo manj kot 6 odstotkov delovne sile v najboljših tehnoloških podjetjih v državi. Podobno ženske predstavljajo le 26 odstotkov delavcev na tem področju - statistika nižja od njihovega deleža leta 1960.

Zaradi tega se manjšine počutijo grozno, kot da niso pomembne, in se lahko uporabi za druge stvari, ki lahko povzročijo resnejšo škodo.

Na prvi pogled se morda zdijo te reprezentančne težave vsakdanje, v praksi pa je lahko povzročena škoda velika. Raziskovalci v poročilu AI Now Institute nakazujejo, da je to vzročno povezano s težavami s programsko opremo, ki pogosto ne upošteva nebelih in nemoških populacij. Ne glede na to, ali gre za infrardeče razpršilnike mila, ki ne zaznajo temnejše polti, ali Amazonovo programsko opremo AI, ki ne loči ženskih obrazov od obrazov moških, nezmožnost obravnavanja raznolikosti v tehnološki industriji vodi v neuspeh tehnologije pri soočanju z raznolikim svetom.

"Veliko ljudi je, ki o težavah niso razmišljali in se v resnici ne zavedajo, kako lahko te stvari povzročijo škodo in kako pomembna je ta škoda," je Learned-Miller predlagal učenje slik z umetno inteligenco. "Upajmo, da se to število ljudi zmanjšuje!"

Priporočena: