Googles A.I. Beats Facebook i Race for å vinne på Old Game of Go

GOOGLE DEEPMIND BEAT FACEBOOK at the game Go!

GOOGLE DEEPMIND BEAT FACEBOOK at the game Go!
Anonim

Litt før midnatt Pacific tid på tirsdag, Mark Zuckerberg lanserte en preemptive streik mot hans konkurranse på Google med en uttalelse som han sannsynligvis visste var feil:

"Det gamle kinesiske spillet Go er et av de siste spillene hvor de beste menneskelige spillerne fortsatt kan slå de beste kunstige intelligensspillerne."

Ingen tvil om at Zuckerberg visste at om tolv timer senere ville Google trompet det vel, egentlig, sin kunstige intelligens hadde slått en menneskelig spiller, og ikke bare noe menneske, men en av verdens beste. Googles hilsen prestasjon - resultatene ble publisert i tidsskriftet Natur på onsdag ettermiddag - er det at DeepMind-forskerne hadde utviklet AlphaGo, et kunstig nevralt nettverk, som slo Fan Hui med en score på fem kamper til null.

I mellomtiden skrev Zuckerberg i samme innlegg tirsdag kveld at Facebook kommer nærmere: "Forskere har forsøkt å lære datamaskiner å vinne på Go i 20 år. Vi nærmer oss, og i de siste seks månedene har vi bygget en A.I. som kan gjøre trekk inn så fort som 0,1 sekunder og fortsatt være like god som tidligere systemer som tok år å bygge."

Spillet av Go er eldre enn historien om Jesus, men er fortsatt merkelig vanskelig for datamaskiner å slå. Algoritmer knuser mennesker på tic-tac-toe, sjakk og brikker, men det store antall bevegelser i Go (mer enn det er atomer i universet) har vært for mye for at datamaskiner skal brute-force seg til seier. Kode kunne ikke være best menneskelig Go champs - til nå.

I flere tiår har datamaskinen forskere vurdert å vinne spillet noe av en A.I. syre test. Googles AlphaGo er foran kurven, ifølge noen eksperter, med ti år. I motsetning til Kasparov-killer Deep Blue (http://en.wikipedia.org/wiki/Deep Blå (chess_computer), som kan knase gjennom mulige trekk og velge det beste, er Googles algoritme et avansert system som kombinerer å forutsi motstanderens trekk og maskinlæring.

Fra Googles offisielle blogg:

Vi trente de neurale nettverkene på 30 millioner trekk fra spill som spilles av menneskelige eksperter, til det kunne forutsi menneskets trekk 57 prosent av tiden (den forrige platen før AlphaGo var 44 prosent). Men vårt mål er å slå de beste menneskelige spillere, ikke bare etterligne dem. For å gjøre dette, lærte AlphaGo å oppdage nye strategier for seg selv, ved å spille tusenvis av spill mellom sine nevrale nettverk, og justere forbindelsene ved hjelp av en prøve-og-feil-prosess kjent som forsterkningslæring. Selvfølgelig krever alt dette en stor mengde datakraft, så vi har utstrakt bruk av Google Cloud Platform.

Hva er Go? Det er et 2500 år gammelt brettspill som er nesten umulig å slå ved hjelp av kunstig intelligens. pic.twitter.com/UEyGIxh42I

- Google (@google) 27. januar 2016

Nå kan dette føles som en del hullabaloo over hvis datamaskinen kan svinge sin A.I. Dick hardere på et gammelt brettspill. Men sluttspillet er å ta de underliggende prinsippene bak disse programmene og legge grunnlaget for mer generell maskinlæring.

Zuckerberg påkalte A.I. evne til å takle miljøproblemer og analysere sykdom. På en pressekonferanse sa Googles leder AlphaGo-programmerer at en sannsynlig første applikasjon av Googles nye teknologi ville være produktrekommendasjoner.