Ključni izsledki
- Raziskovalci so razvili sistem umetne inteligence, namenjen odkrivanju in označevanju lažnih novic.
- Model brska po javnem naboru podatkov lažnih novic, opozori uporabnike in jih preusmeri na preverjene vire informacij.
-
Narašča število metod umetne inteligence za boj proti lažnim novicam na spletu.
Strokovnjaki pravijo, da umetna inteligenca (AI) pomaga zajeziti hitro širjenje dezinformacij na spletu.
Raziskovalci so razvili sistem umetne inteligence, namenjen odkrivanju in označevanju lažnih novic. Model brska po javnem naboru podatkov lažnih novic, opozori uporabnike in jih preusmeri na preverjene vire informacij. Je del vse večjega števila metod umetne inteligence za boj proti lažnim novicam.
"Količina informacij, ki se pretakajo po internetu, zlasti družbenih omrežjih, je ogromna in je ni mogoče obdelati ročno, še posebej z visoko natančnostjo," Wael AbdAlmageed, profesor računalništva na Univerzi Južne Kalifornije, ki je razvil Algoritmi umetne inteligence za odkrivanje vizualnih dezinformacij, je povedal Lifewire v intervjuju po elektronski pošti.
"Pomembno je spremljati in označevati napačne informacije v realnem času, saj ko se napačne informacije začnejo širiti, je ljudi težko prepričati, da so informacije napačne, še posebej, če napačne informacije potrjujejo naše pristranskosti," je dodal.
Ohranjanje resničnega
Tehnika umetne inteligence, ki jo je razvila ekipa na avstralski univerzi Macquarie, bi lahko pomagala zmanjšati širjenje lažnih novic. Model je mogoče vključiti v aplikacijo ali spletno programsko opremo in ponuja povezave do ustreznih "resničnih" informacij, ki so v skladu z interesi vsakega uporabnika.
»Ko berete ali gledate novice na spletu, so vam pogosto predlagane novice o podobnih dogodkih ali temah z uporabo priporočilnega modela,« je v sporočilo za javnost.
Wang pravi, da točne novice in lažne novice za isti dogodek pogosto uporabljajo različne sloge vsebine, kar zmede računalniške modele, da jih obravnavajo kot novice za različne dogodke.
Model Univerze Macquarie 'loči' informacije vsake novice na dva dela: znake, ki kažejo, ali je novica lažna, in informacije, specifične za dogodek, ki prikazujejo temo ali dogodek, o katerem govori novica. Model nato poišče vzorce v tem, kako uporabniki prehajajo med različnimi novicami, da napove, katero novico bo uporabnik morda želel prebrati naslednjo.
Raziskovalna skupina je usposobila model na javnem naboru podatkov lažnih novic, objavljenih na GitHubu, imenovanem FakeNewsNet, ki shranjuje lažne novice PolitiFact in GossipCop skupaj s podatki, kot so vsebina novic, družbeni kontekst in zgodovina branja uporabnikov.
Rast lažnih novic
Lažne novice so vse večji problem, kažejo študije. NewsGuard je ugotovil, da je velik del rasti družbenih medijev prišel iz nezanesljivih spletnih mest. Leta 2020 je 17 odstotkov angažiranosti med 100 najboljšimi viri novic prišlo s spletnih mest z rdečo oceno (na splošno nezanesljivih), v primerjavi s približno 8 odstotki leta 2019.
Subramaniam Vincent, direktor novinarstva in medijske etike na Centru za uporabno etiko Markkula na univerzi Santa Clara, je v intervjuju za Lifewire po elektronski pošti povedal, da lahko umetna inteligenca pomaga pri boju proti dezinformacijam.
Tehnologijo je mogoče uporabiti za "nadzor vedenja računa za orkestrirano deljenje, ki je povezano s sovražnim govorom ali že razkritimi trditvami ali razkritjem s strani preverjevalcev dejstev ali znanih propagandnih državnih subjektov ali nastajajočih skupin s hitrim porastom članstva," je pojasnil Vincent. "Umetno inteligenco je mogoče uporabiti tudi skupaj z oblikovanjem za označevanje vsebine določenih vrst, da se poveča trenje, preden se deli."
AbdAlmageed je dejal, da morajo družbena omrežja integrirati algoritme za zaznavanje lažnih novic kot del svojih algoritmov za priporočila. Cilj, je dejal, je "označiti lažne novice kot lažne ali netočne, če ne želijo popolnoma preprečiti deljenja lažnih novic."
Čeprav je umetna inteligenca lahko koristna za boj proti lažnim novicam, ima pristop slabe strani, je dejal Vincent. Težava je v tem, da sistemi umetne inteligence ne morejo razumeti pomena človeškega govora in pisanja, zato bodo vedno zadaj.
»Bolj kot bo umetna inteligenca natančna z nekaterimi oblikami odkritega sovražnega govora in dezinformacij, bolj bo človeška kultura prešla na novejšo kodo in organizirala prenos podzemnih pomenov,« je dejal Vincent.
Wasim Khaled, izvršni direktor družbe Blackbird. AI za spremljanje dezinformacij, je v e-pošti za Lifewire dejal, da so dezinformacije na spletu vedno večja grožnja. Novi sistemi umetne inteligence morajo biti sposobni predvideti, kje se bodo lažne novice pojavile naslednjič.
"V večini primerov ne morete zgraditi izdelka AI in ga označiti za dokončanega," je dejal Khaled. "Vedenjski vzorci se sčasoma spreminjajo in pomembno je, da vaši modeli umetne inteligence sledijo tem spremembam."