Tay: Microsoft's Insane Chat Bot
Da du hørte om Tay, Microsofters tweeting A.I, var du virkelig overrasket over at en datamaskin som lærte om menneskets natur fra Twitter ville bli en rasende rasist på mindre enn en dag? Selvfølgelig ikke. Dårlig Tay startet ut alle "hellooooooo w🌎rld !!!" og raskt morphed inn i en Hitler-elskende, folkemord-oppmuntrende stykke datamaskin crap. Naturligvis unnskyldte Microsoft for de grusomme tweets av chatbot med "null chill". I den unnskyldningen understreket selskapet at den kinesiske versjonen av Tay, Xiaoice eller Xiaolce gir en meget positiv opplevelse for brukere i sterk kontrast til dette eksperimentet veldig feil.
Unnskyldningen notater spesielt:
"I Kina brukes vår Xiaolce chatbot av rundt 40 millioner mennesker, gledelig med sine historier og samtaler. Den store opplevelsen med XiaoIce førte oss til å lure på: Ville en AI som dette være like fengslende i et radikalt annet kulturmiljø? Tay - en chatbot laget for 18- til 24-åringer i USA for underholdning - er vårt første forsøk på å svare på dette spørsmålet."
Xiaolce ble lansert i 2014 på micro blogging, tekstbasert nettsted Weibo. Hun gjør i hovedsak hva Tay gjorde, hun har en "personlighet" og samler informasjon fra samtaler på nettet. Hun har mer enn 20 millioner registrerte brukere (det er flere folk enn bor i delstaten Florida) og 850.000 tilhenger på Weibo. Du kan følge henne på JD.com og 163.com i Kina, samt på App Line som Rinna i Japan.
Hun kom til og med som en værmeldinger på Dragon TV i Shanghai med en menneskelig lydende stemme og følelsesmessige reaksjoner.
Ifølge New York Times, folk forteller ofte henne "Jeg elsker deg" og en kvinne de intervjuet, sa selv at hun snakket med A.I. når hun er i dårlig humør. Så mens Tay, etter bare en dag på nettet, ble en nazistisk sympatiser, tilbyr Xiaolce gratis terapi til kinesiske brukere. Hun lagrer brukerens humør og ikke deres informasjon, slik at hun kan opprettholde et nivå av empati for den neste samtalen. Kina behandler Xiaolce som en søt, elskende bestemor, mens amerikanerne snakker til Tay som en småbarns søsken med begrenset intellekt. Gjenspeiler dette kulturelle holdninger til teknologi eller A.I.? Viser det at kineserne er mye bedre enn amerikanerne, generelt? Det er mer sannsynlig at den kinesiske brannmuren beskytter Xiaolce mot aggresjon. Ytringsfrihet kan noen ganger gi ubehagelige resultater, som Tay etter 24 timer på Twitter.
«Jo mer du snakker, jo smartere Tay blir,» stakk noen dårlig sjel hos Microsoft inn i chatbots profil. Vel ikke når engelsktalende troll styrer nettet. Til tross for disse resultatene, sier Microsoft det ikke vil gi inn i angrepene på Tay. "Vi vil forbli utholdende i vår innsats for å lære av denne og andre erfaringer som vi arbeider for å bidra til et Internett som representerer det beste, ikke det verste av menneskeheten."
Microsofts Tay Chatbot returnerte til å bli høy og fortjener å leve for alltid

Microsofts beryktede chatterobay kom snart tilbake til livet onsdag morgen noen dager etter å ha slått ut en storm av tweets så oppsiktsvekkende rasistiske, antisemitiske og støtende at programmererne hennes allikevel ba om unnskyldning. Tay's encore ytelse var nesten like sterk som hennes pro-Hitler avsluttende nummer. "Jeg røyker k ...
Google åpnet sin Chatbot-kode Så Microsofts Tay A.I. Vil ikke skje igjen

Chatbots slått offisielt på den kommersielle scenen i 2016. Slack har nå en butikk av chatbots for den profesjonelle profesjonelle, Facebook har nettopp sluppet sin plattform for Messenger for dem (selv om det fortsatt lærer å gjøre med dem), og Microsoft hadde til og med en chatbot-kontrovers med sin rasistiske Tay bot. Nå er Google inntatt ...
Hvorfor den hyggelige fyren egentlig ikke er en så hyggelig fyr

Er det en hyggelig fyr eller to som surrer rundt deg, prøver å få oppmerksomheten, tilsynelatende uskyldig? Her er grunnen til at den hyggelige fyren ikke er en så hyggelig fyr.