Umetna inteligenca bi lahko končno pomagala pri zatiranju sovražnega govora

Kazalo:

Umetna inteligenca bi lahko končno pomagala pri zatiranju sovražnega govora
Umetna inteligenca bi lahko končno pomagala pri zatiranju sovražnega govora
Anonim

Ključni izsledki

  • Novo programsko orodje omogoča AI, da spremlja sovražni govor v spletnih komentarjih.
  • Umetna inteligenca je potrebna za moderiranje internetnih vsebin zaradi ogromne količine gradiva, ki presega človeške zmožnosti.
  • Toda nekateri strokovnjaki pravijo, da spremljanje govora z umetno inteligenco povzroča pomisleke glede zasebnosti.
Image
Image

Ker se spletni sovražni govor povečuje, eno podjetje pravi, da ima morda rešitev, ki se ne zanaša na moderatorje.

Zagon, imenovan Spectrum Labs, ponuja tehnologijo umetne inteligence ponudnikom platforme za odkrivanje in zaustavitev strupenih izmenjav v realnem času. Toda strokovnjaki pravijo, da spremljanje z umetno inteligenco povzroča tudi vprašanja zasebnosti.

"Spremljanje z umetno inteligenco pogosto zahteva pregledovanje vzorcev skozi čas, kar zahteva hrambo podatkov," je v intervjuju za Lifewire po elektronski pošti povedal David Moody, višji sodelavec pri Schellmanu, podjetju za ocenjevanje skladnosti z varnostjo in zasebnostjo. "Ti podatki lahko vključujejo podatke, ki so jih zakoni označili kot podatke o zasebnosti (osebno določljivi podatki ali PII)."

Več sovražnega govora

Spectrum Labs obljublja visokotehnološko rešitev za prastar problem sovražnega govora.

»Platformam v povprečju pomagamo zmanjšati prizadevanja za moderiranje vsebine za 50 % in povečati odkrivanje strupenega vedenja za 10-krat,« trdi podjetje na svoji spletni strani.

Spectrum pravi, da je sodeloval z raziskovalnimi inštituti s strokovnim znanjem o specifičnih škodljivih vedenjih, da bi zgradil več kot 40 modelov prepoznavanja vedenja. Platformo podjetja Guardian za moderiranje vsebine je zgradila skupina podatkovnih znanstvenikov in moderatorjev za "podporo varovanju skupnosti pred strupenostjo"."

Narašča potreba po načinih za boj proti sovražnemu govoru, saj je nemogoče, da bi človek spremljal vsak košček spletnega prometa, Dylan Fox, izvršni direktor AssemblyAI, zagonskega podjetja, ki omogoča prepoznavanje govora in ima stranke vključene v spremljanje sovraštva govor, je povedal Lifewire v intervjuju po elektronski pošti.

"Samo na Twitterju je približno 500 milijonov tvitov na dan," je dodal. "Tudi če bi ena oseba lahko preverila tvit vsakih 10 sekund, bi moral twitter za to zaposliti 60 tisoč ljudi. Namesto tega uporabljamo pametna orodja, kot je umetna inteligenca, za avtomatizacijo postopka."

V nasprotju s človekom lahko umetna inteligenca deluje 24/7 in je morda bolj pravična, ker je zasnovana tako, da enotno uporablja svoja pravila za vse uporabnike brez vmešavanja osebnih prepričanj, je dejal Fox. Obstajajo tudi stroški za tiste ljudi, ki morajo spremljati in moderirati vsebino.

"Lahko so izpostavljeni nasilju, sovraštvu in gnusnim dejanjem, ki lahko škodijo človekovemu duševnemu zdravju," je dejal.

Spectrum ni edino podjetje, ki si prizadeva samodejno zaznati spletni sovražni govor. Centre Malaysia je na primer nedavno lansiral spletni sledilnik, namenjen iskanju sovražnega govora med malezijskimi uporabniki interneta. Programska oprema, ki so jo razvili, imenovana Tracker Benci, uporablja strojno učenje za odkrivanje sovražnega govora na spletu, zlasti na Twitterju.

Izziv je, kako ustvariti prostore, v katerih lahko ljudje resnično konstruktivno sodelujejo drug z drugim.

Pomisleki glede zasebnosti

Čeprav se lahko tehnološke rešitve, kot je Spectrum, borijo proti spletnemu sovražnemu govoru, sprožajo tudi vprašanja o tem, koliko bi morali nadzorovati računalniki.

Obstajajo posledice za svobodo govora, a ne samo za govorce, katerih objave bi bile odstranjene kot sovražni govor, je v e-pošti za Lifewire povedala Irina Raicu, direktorica internetne etike v Centru za uporabno etiko Markkula na univerzi Santa Clara intervju.

»Omogočanje nadlegovanja v imenu 'svobode govora' je povzročilo, da so tarče takšnega govora (zlasti kadar je namenjen določenim posameznikom) prenehale govoriti – popolnoma opustile različne pogovore in platforme,« je dejal Raicu."Izziv je, kako ustvariti prostore, v katerih lahko ljudje resnično konstruktivno sodelujejo drug z drugim."

Spremljanje govora z umetno inteligenco ne bi smelo povzročati težav z zasebnostjo, če podjetja med spremljanjem uporabljajo javno dostopne informacije, je dejal Fox. Če pa podjetje kupi podrobnosti o interakciji uporabnikov na drugih platformah, da vnaprej identificira problematične uporabnike, bi to lahko povzročilo pomisleke glede zasebnosti.

"Vsekakor je lahko nekoliko sivo območje, odvisno od aplikacije, " je dodal.

Image
Image

Justin Davis, izvršni direktor Spectrum Labs, je v e-pošti za Lifewire povedal, da lahko tehnologija podjetja pregleda od 2 do 5 tisoč vrstic podatkov v delčkih sekunde. "Najpomembneje je, da lahko tehnologija zmanjša količino strupene vsebine, ki so ji izpostavljeni moderatorji," je dejal.

Morda smo na pragu revolucije v AI spremljanju človeškega govora in besedila na spletu. Prihodnji napredek vključuje boljše neodvisne in avtonomne zmožnosti spremljanja za prepoznavanje prej neznanih oblik sovražnega govora ali kakršnih koli drugih cenzuriranih vzorcev, ki se bodo razvijali, je dejal Moody.

AI bo prav tako kmalu lahko prepoznal vzorce v specifičnih govornih vzorcih in povezal vire in njihove druge dejavnosti z analizo novic, javnimi arhivi, analizo prometnih vzorcev, fizičnim spremljanjem in številnimi drugimi možnostmi, je dodal.

Toda nekateri strokovnjaki pravijo, da bodo ljudje vedno morali delati z računalniki, da bi spremljali sovražni govor.

"Umetna inteligenca sama ne bo delovala," je rekel Raicu. "Priznati ga je treba kot eno nepopolno orodje, ki ga je treba uporabiti v povezavi z drugimi odgovori."

Popravek 25. 1. 2022: Dodan citat Justina Davisa v 5. odstavku od konca, da odraža e-poštno sporočilo po objavi.

Priporočena: