Kako bi umetna inteligenca lahko spremljala svoje nevarne potomce

Kazalo:

Kako bi umetna inteligenca lahko spremljala svoje nevarne potomce
Kako bi umetna inteligenca lahko spremljala svoje nevarne potomce
Anonim

Ključni izsledki

  • Nov dokument trdi, da lahko umetna inteligenca določi, kateri raziskovalni projekti morda potrebujejo več regulacije kot drugi.
  • Je del naraščajočih prizadevanj, da bi odkrili, kakšna vrsta umetne inteligence je lahko nevarna.
  • En strokovnjak pravi, da je resnična nevarnost umetne inteligence ta, da lahko naredi ljudi neumne.

Image
Image

Umetna inteligenca (AI) ponuja številne prednosti, a tudi nekaj potencialnih nevarnosti. In zdaj so raziskovalci predlagali metodo za spremljanje njihovih računalniških stvaritev.

Mednarodna ekipa pravi v novem dokumentu, da lahko umetna inteligenca določi, katere vrste raziskovalnih projektov morda potrebujejo večjo regulacijo kot druge. Znanstveniki so uporabili model, ki združuje koncepte iz biologije in matematike in je del vse večjih prizadevanj, da bi odkrili, kakšna umetna inteligenca je lahko nevarna.

"Seveda, čeprav lahko pride do 'znanstvenofantastične' nevarne uporabe umetne inteligence, če se tako odločimo […], tisto, zaradi česar je umetna inteligenca nevarna, ni umetna inteligenca sama, ampak [kako jo uporabljamo], " Thierry Rayna, predsednik oddelka za tehnologijo za spremembe na École Polytechnique v Franciji, je za Lifewire povedal v elektronskem intervjuju. "Uvedba umetne inteligence lahko poveča kompetence (na primer okrepi pomembnost veščin in znanja človeka/delavca) ali uniči kompetence, tj. umetna inteligenca naredi obstoječe veščine in znanje manj uporabne ali zastarele."

Vodenje zavihkov

Avtorji nedavnega članka so v objavi zapisali, da so zgradili model za simulacijo hipotetičnih tekmovanj z umetno inteligenco. Več stokrat so izvedli simulacijo, da bi poskušali predvideti, kako bi se lahko obnesle dirke z umetno inteligenco v resničnem svetu.

»Spremenljivka, za katero smo ugotovili, da je še posebej pomembna, je bila »dolžina« dirke – čas, ki so ga naše simulirane dirke potrebovale, da so dosegle svoj cilj (funkcionalen izdelek AI),« so zapisali znanstveniki. "Ko so dirke z umetno inteligenco hitro dosegle svoj cilj, smo ugotovili, da so vedno zmagali tekmovalci, za katere smo kodirali, da vedno spregledajo varnostne ukrepe."

Nasprotno pa so raziskovalci ugotovili, da dolgoročni projekti umetne inteligence niso bili tako nevarni, ker zmagovalci niso bili vedno tisti, ki so spregledali varnost. "Glede na te ugotovitve bo pomembno, da regulatorji ugotovijo, kako dolgo bodo verjetno trajale različne dirke AI z uporabo različnih predpisov glede na njihove pričakovane časovne okvire," so zapisali. "Naše ugotovitve kažejo, da bo eno pravilo za vse dirke z umetno inteligenco - od sprintov do maratonov - vodilo do rezultatov, ki so daleč od idealnih."

David Zhao, generalni direktor Coda Strategy, podjetja, ki se ukvarja z umetno inteligenco, je v elektronskem intervjuju za Lifewire dejal, da je prepoznavanje nevarne umetne inteligence lahko težavno. Izzivi so v dejstvu, da sodobni pristopi k umetni inteligenci uporabljajo pristop globokega učenja.

"Vemo, da globoko učenje daje boljše rezultate v številnih primerih uporabe, kot je zaznavanje slik ali prepoznavanje govora," je dejal Zhao. "Vendar je nemogoče, da bi ljudje razumeli, kako deluje algoritem globokega učenja in kako ustvarja rezultate. Zato je težko reči, ali je AI, ki daje dobre rezultate, nevaren, ker je nemogoče, da bi razumeli, kaj se dogaja."

Programska oprema je lahko "nevarna", če se uporablja v kritičnih sistemih, ki imajo ranljivosti, ki jih lahko zlorabe izkoristijo ali povzročijo napačne rezultate, je po elektronski pošti povedal Matt Shea, direktor strategije pri podjetju AI MixMode. Dodal je, da lahko nevarna umetna inteligenca povzroči tudi nepravilno razvrščanje rezultatov, izgubo podatkov, gospodarski vpliv ali fizično škodo.

"Pri tradicionalni programski opremi razvijalci kodirajo algoritme, ki jih lahko pregleda oseba, da ugotovi, kako zapreti ranljivost ali popraviti napako, tako da pogleda izvorno kodo," je dejal Shea."Pri AI pa je velik del logike ustvarjen iz samih podatkov, kodiranih v podatkovne strukture, kot so nevronske mreže in podobno. Posledica tega so sistemi, ki so "črne skrinjice", ki jih ni mogoče pregledati, da bi našli in odpravili ranljivosti. kot običajna programska oprema."

Nevarnosti pred vami?

Čeprav je umetna inteligenca v filmih, kot je Terminator, prikazana kot zla sila, ki namerava uničiti človeštvo, so resnične nevarnosti morda bolj prozaične, pravijo strokovnjaki. Rayna na primer meni, da bi nas umetna inteligenca lahko naredila neumnejše.

»Lahko ljudi prikrajša za urjenje svojih možganov in razvoj strokovnega znanja,« je dejal. »Kako lahko postaneš strokovnjak za tvegani kapital, če večino svojega časa ne porabiš za branje prijav za startupe? Še huje, umetna inteligenca je znana kot "črna skrinjica" in malo razložljiva. Če ne veste, zakaj je bila določena odločitev umetne inteligence sprejeta, pomeni, da se boste iz nje zelo malo naučili, tako kot ne morete postati profesionalni tekač z vožnjo po stadionu s Segwayem.”

Težko je reči, ali je umetna inteligenca, ki daje dobre rezultate, nevarna, saj ljudje ne morejo razumeti, kaj se dogaja.

Morda je najbolj neposredna grožnja umetne inteligence možnost, da lahko zagotovi pristranske rezultate, je v intervjuju po elektronski pošti dejal Lyle Solomon, odvetnik, ki piše o pravnih posledicah umetne inteligence.

"Umetna inteligenca lahko pomaga pri poglabljanju družbenih razkolov. Umetna inteligenca je v bistvu zgrajena iz podatkov, zbranih od ljudi," je dodal Solomon. "[Toda] kljub ogromni količini podatkov vsebuje minimalne podmnožice in ne bi vključeval tega, kar vsi mislijo. Tako bodo podatki, zbrani iz komentarjev, javnih sporočil, ocen itd., z inherentnimi pristranskostmi povzročili, da bo AI povečal diskriminacijo in sovraštvo."

Priporočena: