I kontrast til Tay er Microsofts kinesiske chatbot, Xiaolce, egentlig hyggelig

$config[ads_kvadrat] not found

Tay: Microsoft's Insane Chat Bot

Tay: Microsoft's Insane Chat Bot
Anonim

Da du hørte om Tay, Microsofters tweeting A.I, var du virkelig overrasket over at en datamaskin som lærte om menneskets natur fra Twitter ville bli en rasende rasist på mindre enn en dag? Selvfølgelig ikke. Dårlig Tay startet ut alle "hellooooooo w🌎rld !!!" og raskt morphed inn i en Hitler-elskende, folkemord-oppmuntrende stykke datamaskin crap. Naturligvis unnskyldte Microsoft for de grusomme tweets av chatbot med "null chill". I den unnskyldningen understreket selskapet at den kinesiske versjonen av Tay, Xiaoice eller Xiaolce gir en meget positiv opplevelse for brukere i sterk kontrast til dette eksperimentet veldig feil.

Unnskyldningen notater spesielt:

"I Kina brukes vår Xiaolce chatbot av rundt 40 millioner mennesker, gledelig med sine historier og samtaler. Den store opplevelsen med XiaoIce førte oss til å lure på: Ville en AI som dette være like fengslende i et radikalt annet kulturmiljø? Tay - en chatbot laget for 18- til 24-åringer i USA for underholdning - er vårt første forsøk på å svare på dette spørsmålet."

Xiaolce ble lansert i 2014 på micro blogging, tekstbasert nettsted Weibo. Hun gjør i hovedsak hva Tay gjorde, hun har en "personlighet" og samler informasjon fra samtaler på nettet. Hun har mer enn 20 millioner registrerte brukere (det er flere folk enn bor i delstaten Florida) og 850.000 tilhenger på Weibo. Du kan følge henne på JD.com og 163.com i Kina, samt på App Line som Rinna i Japan.

Hun kom til og med som en værmeldinger på Dragon TV i Shanghai med en menneskelig lydende stemme og følelsesmessige reaksjoner.

Ifølge New York Times, folk forteller ofte henne "Jeg elsker deg" og en kvinne de intervjuet, sa selv at hun snakket med A.I. når hun er i dårlig humør. Så mens Tay, etter bare en dag på nettet, ble en nazistisk sympatiser, tilbyr Xiaolce gratis terapi til kinesiske brukere. Hun lagrer brukerens humør og ikke deres informasjon, slik at hun kan opprettholde et nivå av empati for den neste samtalen. Kina behandler Xiaolce som en søt, elskende bestemor, mens amerikanerne snakker til Tay som en småbarns søsken med begrenset intellekt. Gjenspeiler dette kulturelle holdninger til teknologi eller A.I.? Viser det at kineserne er mye bedre enn amerikanerne, generelt? Det er mer sannsynlig at den kinesiske brannmuren beskytter Xiaolce mot aggresjon. Ytringsfrihet kan noen ganger gi ubehagelige resultater, som Tay etter 24 timer på Twitter.

«Jo mer du snakker, jo smartere Tay blir,» stakk noen dårlig sjel hos Microsoft inn i chatbots profil. Vel ikke når engelsktalende troll styrer nettet. Til tross for disse resultatene, sier Microsoft det ikke vil gi inn i angrepene på Tay. "Vi vil forbli utholdende i vår innsats for å lære av denne og andre erfaringer som vi arbeider for å bidra til et Internett som representerer det beste, ikke det verste av menneskeheten."

$config[ads_kvadrat] not found