A.I. Kan huske, men du vil fortsatt knuse det på magi: The Gathering

The Third Industrial Revolution: A Radical New Sharing Economy

The Third Industrial Revolution: A Radical New Sharing Economy
Anonim

Nevrale nettverk er sentrale for fremtiden for A.I. og ifølge Elon Musk, fremtiden for hele menneskeheten. Heldigvis har Google DeepMind bare spilt koden for å gjøre neurale nettverk mye smartere ved å gi dem internt minne.

I en studie utgitt i Natur Den 12. oktober viste DeepMind hvordan nevrale nettverk og minnesystemer kan kombineres for å skape maskinlæring som ikke bare lagrer kunnskap, men bruker den raskt til grunn basert på omstendigheter. En av de største utfordringene med A.I. får det til å huske ting. Det ser ut til at vi er ett skritt nærmere å oppnå det.

Kalt differentiable neurale datamaskiner (DNCer), de forbedrede nevrale nettverkene virker som en datamaskin. En datamaskin har en prosessor for å fullføre oppgaver (et neuralt nettverk), men det krever et minnesystem for prosessoren å utføre algoritmer fra forskjellige datapunkter (DNC).

Før DeepMinds innovasjon har nevrale nettverk måtte stole på eksternt minne for ikke å forstyrre nettverkets neuronaktivitet.

Uten eksternt minne er nevrale nettverk bare i stand til å diskutere en løsning basert på kjent informasjon. De trenger massive mengder data og praksis for å bli mer nøyaktig. Som et menneske som lærer et nytt språk, tar det faktisk tid for nevrale nettverk til å bli smart. Det er den samme grunnen til at DeepMinds neurale nettverk er bra på Go, men forferdelig i strategispillet Magic: Neural nettverk kan ikke behandle nok variabler uten minne.

Minne lar neurale nettverk innlemme variabler og analyserer data raskt slik at det kan grave noe som er så komplisert som Londons underground og kunne gjøre konklusjoner basert på bestemte datapunkter. I DeepMinds studie fant de at en DNC kunne lære seg selv å svare på spørsmål om de raskeste ruter mellom destinasjoner og på hvilken destinasjon en tur ville ende, bare ved å bruke den nylig presenterte grafen og kunnskapen om andre transportsystemer. Det kan også utlede relasjoner fra et slektstre uten informasjon presentert unntatt treet. DNC var i stand til å fullføre et mål til en gitt oppgave uten å bli matet de ekstra datapunktene som trengs av et tradisjonelt nevralt nettverk.

Selv om det kanskje ikke virker veldig imponerende (Google Maps er allerede ganske bra for å beregne den mest effektive ruten et sted), er teknologien et stort skritt for fremtiden for A.I. Hvis du tror at prediktiv søk er effektiv (eller skumle), forestill deg hvor bra det kan være med neuralt nettverksminne. Når du søker Facebook etter navnet Ben, vil det vite ved at du bare var på en felles venns side og så på et bilde av ham som du mener Ben fra nedover gaten, ikke Ben fra grunnskolen.

Naturlig språkundervisning A.I. vil til slutt ha nok kontekst til å operere på både språket til Wall Street Journal og forstå svart Twitter. Siri kunne forstå at Pepe the Frog er mer enn bare et tegn fra en tegneserie fordi hun er lest hver Omvendt artikkel om det.

"Jeg er mest imponert over nettverkets evne til å lære" algoritmer "fra eksempler," fortalte Brenden Lake, en kognitiv forsker ved New York University, Teknologisk gjennomgang. "Algoritmer, som å sortere eller finne korteste veier, er brød og smør av klassisk datavitenskap. De krever tradisjonelt en programmerer å designe og implementere."

Å gi A.I. evnen til å forstå konteksten gjør det mulig å hoppe over behovet for programmerte algoritmer.

Mens DeepMinds DNC ikke er det første eksperimentet i nevralminne, er det den mest sofistikerte. Når det er sagt, er det nevrale nettverket fortsatt i sine tidlige stadier, og det har en lang vei å gå før det er på menneskelige nivåer av læring. Forskere trenger fortsatt å finne ut hvordan man skaler opp systembehandlingen, slik at den kan skanne og beregne ved hjelp av hvert enkelt minne raskt.

For nå får mennesker seg til å herske overordnet nevrologisk.