Ključni izsledki
- Algoritemska pristranskost je škodljiva za najstnike, ki preživijo veliko časa na internetu, pravijo strokovnjaki.
- Uporabniki Twitterja so nedavno naleteli na težavo, pri kateri so bili temnopolti obrazi izločeni v korist belih.
- Možgani najstnikov v razvoju so morda še posebej dovzetni za škodljive učinke algoritemske pristranskosti, pravijo raziskovalci.
Predsodki, vtkani v nekatere tehnologije, znani kot algoritemska pristranskost, so lahko škodljivi za številne skupine, vendar strokovnjaki pravijo, da so še posebej škodljivi za najstnike.
Algoritemska pristranskost, ko računalniški sistemi prikazujejo predsodke, je vedno večji problem. Uporabniki Twitterja so pred kratkim odkrili primer pristranskosti na platformi, ko je algoritem za zaznavanje slik, ki obrezuje fotografije, izrezoval črne obraze v korist belih. Podjetje se je opravičilo za težavo, vendar še ni izdalo popravka. To je primer pristranskosti, s katero se srečujejo najstniki, ko obiščejo splet, kar počnejo bolj kot katera koli druga starostna skupina, pravijo strokovnjaki.
"Večina najstnikov se ne zaveda, da jih imajo družbena omrežja za promocijo določene vsebine, za katero menijo, da bo uporabnikom všeč [da bi jih] prepričali, da ostanejo čim dlje na platformi," Dr. Mai- Ly Nguyen Steers, docentka na šoli za medicinsko sestro na univerzi Duquesne, ki preučuje uporabo družbenih medijev med mladostniki/študenti, je dejala v intervjuju po elektronski pošti.
"Tudi če obstaja določena raven zavesti o algoritmu, je učinek premajhnega števila všečkov in komentarjev še vedno močan in lahko vpliva na samozavest najstnikov," je dodal Steers.
Razvoj možganov
Algoritemska pristranskost lahko vpliva na najstnike na nepredvidene načine, saj se njihov prefrontalni korteks še vedno razvija, je v intervjuju po e-pošti pojasnila Mikaela Pisani, glavna podatkovna znanstvenica pri Rootstrap.
Učinek premalo všečkov in komentarjev je še vedno močan in lahko vpliva na samozavest najstnikov.
"Mladostniki so še posebej občutljivi na pojav 'socialne tovarne', kjer algoritmi ustvarjajo družbene grozde na spletnih platformah, kar vodi v anksioznost in depresijo, če najstnikove potrebe po družbenem odobravanju niso izpolnjene," je dejal Pisani. "Algoritmi se poenostavljajo na podlagi predhodnih nepopolnih podatkov, kar vodi do prevelike zastopanosti stereotipov na račun bolj niansiranih pristopov k oblikovanju identitete.
"Če pogledamo širše, se kot družba prav tako sprašujemo, ali želimo, da algoritmi oblikujejo potovanja naših najstnikov v odraslost, in ali ta sistem sploh podpira, namesto da duši osebno rast posameznika?"
Strokovnjaki pravijo, da je zaradi teh težav pri načrtovanju algoritmov vse bolj treba upoštevati najstnike.
"Na podlagi prispevkov razvojnih strokovnjakov, podatkovnih znanstvenikov in zagovornikov mladih bi lahko politike 21. stoletja glede zasebnosti podatkov in algoritemskega oblikovanja oblikovali tudi z upoštevanjem posebnih potreb mladostnikov," Avriel Epps-Darling, doktorska študent na Harvardu, je nedavno zapisal. "Če namesto tega še naprej omalovažujemo ali ignoriramo načine, kako so najstniki ranljivi za algoritemski rasizem, bo škoda verjetno odmevala v prihodnjih generacijah."
Boj proti pristranskosti
Dokler ni rešitve, nekateri raziskovalci poskušajo najti načine za zmanjšanje škode, ki jo mladim povzročajo pristranski algoritmi.
"Intervencije so bile osredotočene na to, da bi najstniki prepoznali, da njihovi vzorci družbenih medijev negativno vplivajo na njihovo duševno zdravje, in poskušali oblikovati strategije za ublažitev tega (npr. manjša uporaba družbenih medijev)," je dejal Steers.
»Nekateri študenti, s katerimi smo se pogovarjali, so navedli, da se čutijo prisiljene ustvariti vsebino, da bi ostala »relevantna«, tudi če ne želijo iti ven ali objavljati,« je nadaljevala. "Vendar menijo, da morajo ustvariti vsebino, da ohranijo svoje povezave s svojimi sledilci ali prijatelji."
Končni odgovor bi lahko bila odstranitev človeških predsodkov iz računalnikov. Ker pa so programerji samo ljudje, je to težak izziv, pravijo strokovnjaki.
Ena od možnih rešitev je razviti računalnike, ki so decentralizirani in programirani tako, da pozabijo stvari, ki so se jih naučili, pravi John Suit, glavni tehnološki direktor pri robotskem podjetju KODA.
»Preko decentraliziranega omrežja se podatki in analitika teh podatkov zbirajo in analizirajo z več točk,« je Suit dejal v intervjuju po elektronski pošti. »Podatki se zbirajo in obdelujejo ne z eno samo obdelavo uma AI v okviru svojega algoritma, ampak na stotine ali celo tisoče.
"Ko se ti podatki zbirajo in analizirajo, so stari "zaključki" ali odvečni podatki pozabljeni. S tem sistemom bo algoritem, ki se je morda začel s pristranskostjo, sčasoma popravil in nadomestil to pristranskost, če se izkaže za napačno."
Čeprav je pristranskost morda stara težava, morda obstajajo načini za boj proti njej, vsaj na spletu. Načrtovanje računalnikov, ki odvrnejo naše predsodke, je prvi korak.