Kan Googles "overmenneskelige" neurale nettverk virkelig fortelle plasseringen til et hvilket som helst bilde?

$config[ads_kvadrat] not found

kon kan google bnadm part 2

kon kan google bnadm part 2
Anonim

Søke etter bilder er enklere enn noensinne. Men hvis du prøver å finne et bilde av noe på et sted som ikke er helt åpenbart (så ikke de egyptiske pyramidene eller den gigantiske tommelskulpturen i Paris), er det vanskeligere enn du tror - selv med geolokaliseringsinformasjonen basert på hva som er på bildet.

Skriv inn Google-ingeniør ved navn Tobias Weyand og et par av hans kolleger. Ifølge et nytt papir i tidsskriftet arxiv (uttalt "arkiv") har trioen bygget en dyplæringsmaskin som kan identifisere plasseringen av nesten alle bilder basert utelukkende på analyse av pikslene.

For å få en maskin til å utføre en oppgave som dette, vil du gi den muligheten til å intuitere informasjon basert på visuelle ledetråder. Du vil at den skal tenke, med andre ord, som et menneske.

Weyand satte opp om å utvikle et kunstig nevralt nettverk - et maskinsystem designet for å etterligne hjernens nevrologiske veier, som tillater det å lære, behandle og hente informasjon som et menneske kunne. Dette nye systemet, PlaNet, er tilsynelatende i stand til å overgå mennesker når det gjelder å bestemme plasseringene av bilder uansett hvilken innstilling, enten det er innendørs eller utendørs, og med noen form for unike eller ubestemte visuelle signaler.

Hvordan jobber PlaNet? Weyand og hans team delte opp et kart over verden til et rutenett som lagde over 26.000 firkantede former på forskjellige regioner, avhengig av hvor mange bilder som ble tatt på disse stedene. Tette steder hvor mange bilder blir tatt i form på et mindre torg, mens større, fjernere regioner kan kutte seg i større firkanter.

Teamet opprettet deretter en stor database med bilder som allerede er geolokert - nesten 126 millioner forskjellige bilder. Omtrent 91 millioner ble brukt som datasett for å lære PlaNet å finne ut hvilket bilde som kunne plasseres i hvilket rutenett på verdenskartet.

Da var det nevrale nettverket oppdraget med å geolocating de andre 34 millioner bildene fra databasen. Til slutt ble PlaNet satt på et datasett på 2,3 millioner geotagged bilder fra Flickr.

Resultatene? PlaNet kunne bestemme opprinnelseslandet for 28,4 prosent av bildene og kontinentet for 48 prosent. Videre kunne systemet finne en posisjon på gatenivå for 3,6 prosent av Flickr-bildene og plassering på 10 nivåer på 10 nivåer.

Og PlaNet er bedre på dette enn de fleste mennesker - selv de største globetrotters. Weyand oppnådde 10 velreisede personer for å konkurrere mot PlaNet i et spill med merkingssteder for bilder som ble funnet på Google Street View.

"Totalt vunnet PlaNet 28 av de 50 rundene med en median lokaliseringsfeil på 1131,7 km, mens median lokaliseringsfeil var 2320,75 km," forskerne skrev. "Dette småskala eksperimentet viser at PlaNet når superhuman ytelse når det gjelder å gi geolocerende Street View-scener."

Er dette for ekte? Har en Google-ingeniør virkelig utviklet en "overmenneskelig" A.I. system?

Når det gjelder geolocating bilder, kanskje. Og det er ikke altfor overraskende - poenget med A.I. er ikke å fundamentalt etterligne den menneskelige hjerne på alle måter, men å overgå menneskelige begrensninger på noen spesielle måter for å oppnå mye vanskeligere oppgaver. Så på den måten, hva forskerne skriver er sant.

Likevel er det en strekk å ringe til PlaNet som et "neuralt nettverk." En ideell form for den typen teknologi ville være i stand til å lære om mye mer enn bilde geolocation. A.I. Systemer er i stand til å skrive similes og spille super Mario, men dette er små ting sammenlignet med et ideelt "master" system som automatisk kan overvåke og vedlikeholde vitalitet, administrere transport eller energi infrastruktur, og mye mer.

$config[ads_kvadrat] not found