Gjennomsnittlig intelligens? Ny A.I. Programmet får en 500 i matematikk på SAT

In the Age of AI (full film) | FRONTLINE

In the Age of AI (full film) | FRONTLINE
Anonim

Den gjennomsnittlige SAT-takeren i 2014 svarte nesten halvparten av testens matte spørsmål riktig. På en konferanse i Lisboa på søndag og gjennom et papir publisert mandag, viste forskere fra Allen Institute of Artificial Intelligence og University of Washington et dataprogram som i utgangspunktet kan fungere like godt.

Det er ikke første gang A.I. Programmene har fått oppgave å fullføre standardiserte testspørsmål. Og det er egentlig ikke en stor avtale at en datamaskin kan gjøre matte, siden hei - nesten alle datamaskiner er i stand til å gjøre matte (se: Kalkulatorer).

Nei, grunnen til at dette programmet - kalt GeoS - er imponerende er fordi det var programmert til å anskaffe og tolke informasjonen på testen som et menneske ville. Det var ikke å løse problemene som en faktisk kalkulator kunne - det var å lese problemene av papiret - for første gang noensinne - som en faktisk testtakeren må, fornemmelse av all tekst og wonky grafer og bilder som er lagt ute. GeoS må da komme med sin egen problemløsende prosess, som i utgangspunktet programmet prøver å matche formler det allerede vet på problemet, og finne ut hva det riktige svaret er. Som den gjennomsnittlige personen kan.

"Vår metode består av to trinn," forskerne skrev i papiret. "Tolke et geometrisk spørsmål ved å utlede et logisk uttrykk som representerer betydningen av teksten og diagrammet, og løse geometriske spørsmålet ved å kontrollere tilfredsstillelsen av det avledede logiske uttrykket."

GeoS var bare i stand til å komme med en løsning for omtrent halvparten av spørsmålene det oppstod, og bare scoret 500 ut av 800 på SAT matte seksjonen. Likevel er det bare 13 poeng lavere enn gjennomsnittlig high school senior. Og mer imponerende var det faktum at GeoS hadde en 96 prosent nøyaktighet på alle de spørsmålene det besvarte.

"Vår største utfordring var å konvertere spørsmålet til et datamaskinforståelig språk," sa Allen-instituttforsker Ali Farhadi i en pressemelding. "Man må gå utover standardmønster-matching tilnærminger til problemer som å løse geometri spørsmål som krever en grundig forståelse av tekst, diagram og resonnement."

Du kan se og leke med demo av systemet på geometry.allenai.org/demo.

Det er viktig å understreke her at systemet faller ganske kort for å replikere faktisk menneskelig problemløsning. Systemet bruker ikke abstrakte og sunn fornuftsteori teknikker som folk er i stand til.

GeoS er fortsatt et stort skritt skjønt. Den neste hindringen vil være å utvikle en A.I. system som lykkes med å snyte gjennom SAT, øker 500 med en plomme 200 poeng eller så. Den nye generasjonen gjør deg klar til å bli venner med innkommende freshman A.I. under orientering.