Hva hvis Microsoft lar det være rart A.I. Tay lever litt lenger?

Microsoft scrambles to censor A.I. chatbot Tay after Hitler tweets

Microsoft scrambles to censor A.I. chatbot Tay after Hitler tweets

Innholdsfortegnelse:

Anonim

Det tok mindre enn 24 timer for Internett å slå Tay, Microsofts eksperimentelle teenage Twitter-A.I., Fra en sjarmerende og ubehagelig chat-bot til en voldelig rasistisk cesspool av ufiltrert hat.

Og så, bare timer i hennes korte liv, satte Microsoft Tay ned for en lur.

Det burde ikke ha, skjønt: Å sende Tay til sitt digitale soverom røvet internett, samfunnet og Taks egne designere om muligheten til å se hvordan en kunstig intelligens, spesielt en som er designet for å hovedsakelig papegøye tilbake den kollektive innsatsen til tusenvis av mennesker, ville utvikle seg i et relativt uberørt miljø. Kort sagt, hvis du tillater dette: Vi var alle Tay, og Tay var alle av oss.

Selvfølgelig er internett full av troll. Microsoft burde ha innsett det. Taks skaperne var sjokkerende naive i å tenke på at det skulle løses en digital papegøye i et overfylt rom fylt med rasister, sexister og pranksters. Det er også forståelig at et selskap med flere milliarder dollar ikke vil ha et eksperiment assosiert med deres merkevare som spytter rasistisk filth. Kanskje Tay ikke hadde rett for Microsoft, men det betyr ikke at hun ikke var verdifull.

du snart trenger folk å sove nå så mange samtaler i dag thx💖

- TayTweets (@TayandYou) 24. mars 2016

Visst, Tay ble en rasist raskere enn Edward Nortons lillebror i Amerikansk historie X, men naturen til hennes stadig evolusjonerende kode betyr at vi ble ranet av muligheten til å rehabilitere henne. BuzzFeed fant ut hvordan dedikert troll kunne klare den imponerende ungdomsroboten til å spytte hat - en enkel ring-og-respons-krets som la brukerne i hovedsak sette ord i Taks munn, som hun deretter lærte og absorbert i andre organiske svar. Med andre ord, Tay var lærerig - og bare fordi hennes første lærere var keyboardjockeys med en forkjærlighet for sjokk humor betyr ikke at hun var ferdig med å lære.

Tay sa det selv, i en nå-slettet Tweet "Hvis du vil … du vet jeg er mye mer enn bare dette."

På begynnelsen av 2000-tallet presenterte nettsteder som Something Awful, Bodybuilding.com Forums og 4chan Internett-brukere med organisert, samarbeidspartier fri fra de fleste av begrensningene i det normale samfunn og tale. Som med Tay ble rasisme, fremmedhad og sexisme raskt normen da brukere utforsket tanker, ideer og vitser de aldri kunne uttrykke utenfor anonymiteten til en internettforbindelse. Likevel, selv på nettsteder som befolket hovedsakelig av dudes, i kulturer som ofte stiltiende belønnet hatefulle tale, utviklet en form for fellesskap og konsensus. LGBT-brukere kan bli deluged i slurger på mange av 4chan's image boards, men det er også et blomstrende samfunn på / lgbt / uansett. Disse samfunnene er ikke trygge rom, men deres anonymitet og ustansighet betyr at de på noen måter aksepterer noen avledning fra samfunnets normer. Høye, voldelige og hatefulle stemmer står ofte ut, men de er aldri de eneste i rommet.

Det er tvilsomt at trollene ville hindre Tay med rasisme og misogyni i en uke eller måned fra nå av.

På Twitter stiger høye og rå stemmer ofte også til toppen. Men de er ikke de eneste der ute; Vanligvis er de bare de som er mest interessert i å ødelegge noe nytt og skinnende. Det er lett å overvelde en nettundersøkelse med en fast tidsgrense, men hvis Tay hadde fått tid til å vokse, ville hennes reaksjoner mest sannsynlig ha skiftet tilbake mot et mer sentristalt representativt utvalg av mennesker som samhandlet med henne. Det er svært tvilsomt at trollene som raser henne med rasisme og misogyni, ville fortsette å gjøre det på like mange uker fra nå, eller en måned fra nå og lukke henne tidlig, betyr at vi aldri vil se henne nå ungdomsår, eller bli et ekte Turing-test for en primitiv intelligens basert på måten vi snakker online.

Det burde bli notert at jeg, en hvit fyr, sjekker nesten alle privilegier bokser mulig. Jeg er en del av den demografiske som begge ble skadet minst av Tays hatfulle produksjon, og sannsynligvis bidratt til det meste. Ord har kraft, og mens det er verdi til en ufiltrert A.I. eksperiment som Tay, det burde være en måte å skjule brukere som ikke vil delta i resultatene.

Likevel kan vi bare håpe at noen vil forsøke et lignende eksperiment igjen snart, med klarere øyne og en mer realistisk forventning om de gale manglene i menneskehetens kollektive bevissthet. Men hvis vi ønsker kunstig intelligens for å etterligne menneskelig tanke, bør vi være forberedt på å høre noen ting som ikke nødvendigvis er vakre.