Ključni izsledki
- YouTubova programska oprema za samodejno starostno omejevanje je razlog za zaskrbljenost zaradi LGBTQ+ vsebine na platformi.
- Podjetje so zaznamovale polemike glede ustvarjalcev vsebin LGBTQ+, ki utrjujejo dvome.
- Pristranskosti v strojnem učenju dajejo verodostojnost ideji, da nepopolna implementacija filtrov verjetno neupravičeno omejuje dostop.
Z zgodovino nepoštenega ciljanja na ustvarjalce vsebine LGBTQ+ v procesu moderiranja se YouTubova nova tehnologija, ki temelji na umetni inteligenci, obravnava kot zaskrbljujoč naslednji korak za tehnološkega velikana.
Na uradnem YouTubovem spletnem dnevniku prejšnji teden je platforma za izmenjavo videoposnetkov razkrila načrte za izdajo nove samodejne programske opreme za "doslednejšo uporabo starostnih omejitev" za videoposnetke, za katere meni, da so neprimerni za mlajše gledalce.
Na podlagi nedavnih skrbi glede otrok v aplikaciji, novi sistem temelji na strojno učeči se programski opremi z umetno inteligenco z možnostjo opustitve človeških moderatorjev za bolj samodejen postopek. Težava? YouTubovi avtomatizirani sistemi so bili obtoženi, da izločajo vsebino LGBTQ+ in ustvarjalce preprosto zato, ker obstajajo.
Tudi če ni zlonamerno, kar se mi ne zdi, gre za pomanjkanje prispevka različnih glasov – ali vsaj za pomanjkanje spoštovanja.
»Strojno učenje nastaja pri ljudeh in ga ustvarjajo ljudje, in možno je, da so te pristranskosti neločljivo povezane z njim ali da se jih nauči stroj sam,« je v telefonskem intervjuju za Lifewire dejal YouTuber Rowan Ellis. "Njegova pristranskost v zvezi z vsebino [LGBTQ+] je bila očitna v prejšnjih izkušnjah [LGBTQ+] YouTuberjev in nisem videl dokazov, da je bilo karkoli storjeno, da bi se to preprečilo."
Baby, zdaj imamo hudo kri
Ellis je YouTuberka, ki ustvarja izobraževalne vsebine s feminističnim in queer nagnjenjem, leta 2017 pa je objavila videoposnetek o omejenem načinu podjetja. Kot začetni vpad v samodejno moderiranje vsebine je ta način uporabnikom omogočil, da po želji predhodno pregledajo »potencialno vsebino za odrasle« iz predlogov za iskanje in priporočil.
Zbrala je več kot 100.000 ogledov in meni, da je šlo za zavestno prizadevanje, da bi preprečili omejitve njenega kanala zaradi njenega glasnega nasprotovanja presežkom novega YouTubovega koraka k zmernosti. Drugi uporabniki na platformi niso imeli te sreče in so to sporočili YouTubu.
Skupno tožbo proti YouTubu je avgusta 2019 vložila skupina osmih ustvarjalcev LGBTQ+, ki so podjetje iz Silicijeve doline obtožili, da omejuje queer in trans ustvarjalce in vsebine. Tožba trdi, da spletno mesto uporablja "nezakonite prakse urejanja, distribucije in monetizacije vsebine, ki stigmatizirajo, omejujejo, blokirajo, demonetizirajo in finančno škodijo tožnikom LGBT in širši skupnosti LGBT." Še vedno se prebija po kalifornijskih sodiščih.
Strojno učenje nastaja pri ljudeh in ga ustvarjajo ljudje, zato je možno, da so te pristranskosti neločljivo povezane z njim ali da se jih nauči stroj sam.
Junija istega leta je platforma prejela poplavo medijske pozornosti, potem ko je zavrnila hitro grajanje priljubljenega konservativnega komentatorja Stevena Crowderja zaradi večmesečne homofobne kampanje nadlegovanja novinarja in voditelja Vox Carlosa Maze. To je utrdilo, kar je Ellis rekel, vzorec s spletno platformo ignoriranja edinstvenih izzivov, s katerimi se soočajo queer ustvarjalci. Pomanjkanje zaupanja ustvarjalcev LGBTQ+ v zmožnost YouTuba, da se jim prikaže, ni brez razloga.
"Mislim, da niso razumeli potrebe po preglednosti v zvezi s socialnimi vprašanji in zagotavljanjem enakosti," je dejala. "Še vedno so otroci po vsem svetu, ki so odrasli z idejo, da je biti gej narobe, in ko začnejo dvomiti v to prepričanje, vendar ugotovijo, da je to zaprto z varnim iskanjem ali omejitvijo, bo to idejo okrepilo, je napačen, neprimeren, odrasel, perverzen in umazan."
Napaka pri samodejnem učenju
S svojo umazano zgodovino v zvezi z ustvarjalci vsebine LGBTQ+ na njeni platformi še vedno obstaja zaskrbljenost glede izvajanja zmožnosti programske opreme za strojno učenje, da prepozna večje norme. Don Heider, izvršni direktor Centra za uporabno etiko Markkula, meni, da je potencial za nespametnost preveliko tveganje za hazardiranje.
"Težko je verjeti, da lahko umetna inteligenca učinkovito upravlja vsebino iz več držav z različnimi kulturnimi normami in standardi," je zapisal v intervjuju po elektronski pošti. "Umetna inteligenca se prepogosto obravnava kot odgovor na zapletena vprašanja. Na tej točki se umetna inteligenca in način njenega ustvarjanja težko spopadata tudi s preprostimi nalogami, kaj šele kakršnim koli moderiranjem vsebine s katero koli stopnjo kompleksnosti."
YouTube se je odločil za uporabo tehnologije umetne inteligence zaradi pomanjkanja doslednega moderiranja s strani človeških moderatorjev, glede na njegov blog. Povečana uporaba računalniških filtrov za odstranjevanje videoposnetkov, ki se jim zdijo neprimerni, je postala norma, izvajanje enakih postopkov za politiko starostnega omejevanja pa je logični naslednji korak.
Ta odločitev ni presenetljiva kot podjetje, ki želi postopoma izboljšati svoje procese po dolgotrajnih kritikah glede odnosa do otrokovih potrošnikov.
Mislim, da niso razumeli potrebe po preglednosti v zvezi s socialnimi vprašanji in zagotavljanjem enakosti.
Otroci so postali ključna demografska skupina za spletno mesto za izmenjavo videov. Avgusta je podjetje za digitalno video analitiko Tubular ugotovilo, da je poleg glasbenih videoposnetkov vsebina, namenjena otrokom, ob koncu meseca na vrhu lestvice najbolj gledanih videoposnetkov na YouTubu.
Interes podjetja za zaščito te donosne, nastajajoče elektrarne na platformi je smiseln. Vendar so orodja, ki se uporabljajo za uveljavljanje te zaščite, še vedno neprijetna za tiste, ki so se že znašli nižje od postopkov moderiranja podjetja.
"Skrbi me, da bo povzročilo veliko škode in ne bo zaščitilo [LGBTQ+] mladih, ki potrebujejo informativno, odkrito in pošteno vsebino, ki jo lahko zagotovi veliko [LGBTQ+] YouTuberjev, vendar je v svojem sistemu označena kot neprimerno, «je rekel Ellis.»Tudi če ni zlonamerno, kar se mi ne zdi, gre za pomanjkanje prispevkov različnih glasov – ali vsaj za pomanjkanje spoštovanja.
"To vidimo ves čas v tehnologiji. Ko gledate prepoznavanje obraza, ki ne razlikuje različnih temnopoltih obrazov, ali ko pogledamo medicino in vidimo, da je bilo zdravilo preizkušeno samo na določenem spolu. To so večji pogovori in YouTube pri tem ni izvzet."