Kako lahko halucinacije pomagajo AI, da vas bolje razume

Kazalo:

Kako lahko halucinacije pomagajo AI, da vas bolje razume
Kako lahko halucinacije pomagajo AI, da vas bolje razume
Anonim

Ključni izsledki

  • Nov model strojnega učenja halucinira sliko videza stavka v jeziku za pomoč pri prevajanju.
  • Sistem AI, imenovan VALHALLA, je bil zasnovan tako, da posnema način, kako ljudje dojemajo jezik.
  • Novi sistem je del naraščajočega gibanja za uporabo umetne inteligence za razumevanje jezika.
Image
Image

Človeška metoda vizualizacije slik med prevajanjem besed bi lahko pomagala umetni inteligenci (AI), da vas bolje razume.

Nov model strojnega učenja halucinira podobo, kako izgleda stavek v jeziku. Glede na nedavno raziskavo tehnika nato uporablja vizualizacijo in druge namige za pomoč pri prevajanju. To je del naraščajočega gibanja za uporabo umetne inteligence za razumevanje jezika.

»Kako ljudje govorijo in pišejo, je edinstveno, ker imamo vsi nekoliko drugačne tone in sloge,« je v intervjuju za Lifewire po elektronski pošti povedala Beth Cudney, profesorica podatkovne analitike na univerzi Maryville, ki ni sodelovala pri raziskavi.. "Razumevanje konteksta je težko, ker je tako, kot bi imeli opravka z nestrukturiranimi podatki. Tu je uporabna obdelava naravnega jezika (NLP). NLP je veja umetne inteligence, ki obravnava razlike v tem, kako komuniciramo z uporabo strojnega bralnega razumevanja. Ključna razlika v NLP, kot veja umetne inteligence, se ne osredotoča le na dobesedne pomene besed, ki jih govorimo ali pišemo. Gleda na pomen."

Pojdi vprašaj Alice

Novi sistem umetne inteligence, imenovan VALHALLA, ki so ga ustvarili raziskovalci z MIT, IBM in Univerze Kalifornije v San Diegu, je bil zasnovan tako, da posnema način, kako ljudje dojemajo jezik. Po mnenju znanstvenikov uporaba senzoričnih informacij, kot je večpredstavnost, v kombinaciji z novimi in neznanimi besedami, kot so kartice s slikami, izboljša usvajanje in zadrževanje jezika.

Ti sistemi povečujejo moč klepetalnih robotov, ki so trenutno le usposobljeni in sposobni določenih pogovorov…

Ekipa trdi, da njihova metoda izboljša natančnost strojnega prevajanja v primerjavi s prevodom samo besedila. Znanstveniki so uporabili arhitekturo kodirnika-dekoderja z dvema transformatorjema, vrsto modela nevronske mreže, ki je primeren za podatke, odvisne od zaporedja, kot je jezik, ki je pozoren na ključne besede in semantiko stavka. En transformator ustvari vizualno halucinacijo, drugi pa izvaja multimodalni prevod z uporabo izhodov prvega transformatorja.

»V scenarijih resničnega sveta morda ne boste imeli slike glede na izvorni stavek,« je v sporočilu za javnost dejal Rameswar Panda, eden od članov raziskovalne skupine. "Torej, naša motivacija je bila v bistvu: Ali lahko namesto uporabe zunanje slike med sklepanjem uporabimo vizualno halucinacijo - sposobnost, da si predstavljamo vizualne prizore - za izboljšanje sistemov strojnega prevajanja?"

Razumevanje AI

Veliko raziskav je osredotočenih na napredek NLP, je poudaril Cudney. Elon Musk je na primer soustanovil Open AI, ki dela na GPT-3, modelu, ki se lahko pogovarja s človekom in je dovolj spreten za ustvarjanje programske kode v Pythonu in Javi.

Google in Meta prav tako delata na razvoju pogovorne umetne inteligence s svojim sistemom LAMDA. "Ti sistemi povečujejo moč chatbotov, ki so trenutno samo usposobljeni in zmožni določenih pogovorov, kar bo verjetno spremenilo podobo podpore strankam in služb za pomoč uporabnikom," je dejal Cudney.

Aaron Sloman, soustanovitelj CLIPr, tehnološkega podjetja z umetno inteligenco, je v e-poštnem sporočilu dejal, da se lahko veliki jezikovni modeli, kot je GPT-3, učijo iz zelo malo primerov usposabljanja za izboljšanje povzetkov besedila na podlagi človeških povratnih informacij. Na primer, je dejal, lahko velikemu jezikovnemu modelu zadate matematično težavo in prosite AI, naj razmišlja korak za korakom.

"Pričakujemo lahko, da bomo iz velikih jezikovnih modelov pridobili več vpogledov in sklepanja, ko bomo izvedeli več o njihovih zmožnostih in omejitvah," je dodal Sloman. "Prav tako pričakujem, da bodo ti jezikovni modeli ustvarili procese, ki so bolj podobni človeku, saj modelirji razvijajo boljše načine za natančno prilagajanje modelov za posebne naloge, ki nas zanimajo."

Profesor računalništva na Georgia Tech Diyi Yang je v intervjuju po e-pošti napovedal, da bomo v vsakdanjem življenju videli večjo uporabo sistemov za obdelavo naravnega jezika (NLP), od osebnih pomočnikov, ki temeljijo na NLP, do pomoči pri e-pošti in telefonskih klicih, do dobro poznanih sistemov dialoga za iskanje informacij na potovanjih ali v zdravstvu."Pa tudi pravične sisteme umetne inteligence, ki lahko izvajajo naloge in pomagajo ljudem na odgovoren in nepristranski način," je dodal Yang.

Ogromni modeli umetne inteligence, ki uporabljajo bilijone parametrov, kot sta GPT-3 in DeepText, bodo še naprej delovali v smeri enotnega modela za vse jezikovne aplikacije, je v intervjuju po elektronski pošti napovedal Stephen Hage, inženir strojnega učenja pri Dialexi. Povedal je, da bodo na voljo tudi nove vrste modelov, ustvarjenih za posebne namene, kot je spletno nakupovanje z glasovnimi ukazi.

"Primer bi lahko bil nakupovalec, ki reče 'Pokaži mi to senčilo v polnočno modri barvi z več avreola,' da pokaže ta odtenek na očeh osebe z nekaj nadzora nad tem, kako se nanese," je dodal Hage.

Priporočena: