Har Microsofts Tay mislykt Turing-testen? Ja, men rasisme var ikke problemet

$config[ads_kvadrat] not found

13TH | FULL FEATURE | Netflix

13TH | FULL FEATURE | Netflix
Anonim

Hvis suksessen til en kunstig intelligens er opprettelsen av en kunstig personlighet, Microsofts A.I. Bot, Tay, kan betraktes som et tegn på fremgang. Men bredere kan Tay dømmes som en fiasko.

"Målet med de fleste som jobber med konversasjonsagenter av denne typen, er ikke så mye å passere noen form for Turing-test, men å faktisk ha en nyttig språkkommando som reagerer fornuftig på ting og gir folk tilgang til kunnskap," Miles Brundage, en Ph.D. student studerer menneskelige og sosiale dimensjoner av vitenskap og teknologi ved Arizona State University forteller Omvendt.

Microsoft illustrert noen av problemene med å konstruere A.I. programmerer denne uken når det er på mindre enn 24 timer, snudde Internett hva som var ment å være en kvinnelig, tusenårig, automatisert, Twitter-personlighet inn i lydkortet for den mest rasistiske og uhyggelige talen trollene måtte tilby.

Microsoft sluttet øyeblikkelig eksperimentet og ba om unnskyldning: "Vi er veldig lei meg for de utilsiktede støtende og skadelige tweets fra Tay, som ikke representerer hvem vi er eller hva vi står for, eller hvordan vi designet Tay."

Når det gjelder Turing-testen, forteller Brundage det berømte eksperimentet som ble brukt til å vurdere A.I. Det er generelt to skoler av tanke - bokstavelig og teoretisk.

Alan Turing ble utviklet i 1950 og forsøkte å svare på spørsmålet "Kan maskiner tenke?" Han satte maskiner gjennom en imitasjonstest, noe som krever en observatør å bestemme kjønn til to intervjuere, hvorav en er en A.I. Hvis datamaskinen er i stand til å lure et visst antall observatører, har den bestått testen.

hellooooooo w🌎rld !!!

- TayTweets (@TayandYou) 23. mars 2016

Hvis vi skulle bruke denne testen bokstavelig talt, i inverse s privat samtale med Tay, reagerte hun politisk på spørsmålene veltalende, gjorde referanser til "mannnnn" sjefer på samfunnet, og brukte noen vanlige tekstforkortelser og emojis. Brundage sa at Tay viste tusenvis av oppførsel, men at disse slags A.I. har blitt bygget før.

"Å kunne produsere tilsynelatende teenageriske kommentarer på Twitter er egentlig ikke storikken av bred språklig og intellektuell evne som Turing hadde i tankene, sier Brundage. "Det er sagt at hvis vi faktisk skulle ta Turing-testen bokstavelig talt, som jeg ikke tror nødvendigvis er tilrådelig, er en variant at mange av hennes kommentarer var tilsynelatende menneskelige."

Men hvis vi skal ta den bredere tilnærmingen som Brundage vil foreslå, så er det åpenbart at Tay ikke viste rimelig menneskelig tale.

Microsoft testet hva det kaller "konversasjonsforståelse" slik at jo flere folk hun snakker med gjennom Twitter, GroupMe og Kik, jo mer var hun ment å lære og tilpasse seg. Men hun slo opp bare å gjenta hva mange andre brukere fôret den og bare gjentok det tilbake til verden.

"Tay" gikk fra "mennesker er superkule" til full nazi på <24 timer og jeg er ikke i det hele tatt bekymret for fremtiden for AI pic.twitter.com/xuGi1u9S1A

- Gerry (@geraldmellor) 24. mars 2016

"De fleste mennesker ville ikke bare gjenta etter deg, alt du sa," sier Brundage.

Articulating "Bush gjorde 9/11" og "Hitler ville ha gjort en bedre jobb enn den apen vi har nå," var kanskje noe noen faktisk skrev til Tay, men det er ikke akkurat høflig samtale.

"Hans formål med å artikulere Turing-testen var kanskje mindre å foreskrive detaljene i noen test og mer for å provokere folk til å tenke" på hvilket tidspunkt ville du være villig til å være i et system denne intelligente "og å åpne opp folkens tenkning å muligheten for at maskiner kan tenke, sier Brundage.

$config[ads_kvadrat] not found