GTA 5 (EXCLUSIVE) HOW TO STORE SP TO MP PLANES/CARS AND SPECIAL VEHICLES/GTA V SAVE PLANES (PATCHED)
Innholdsfortegnelse:
- Hvorfor skapte Microsoft Tay?
- Hva gjør Tay med dataene det samler mens han snakker med folk?
- Hvor gikk Tay feil?
- Hva gjør Microsoft for å fikse Tay?
- Hva betyr dette for fremtidig åpen A.I. systemer?
Denne uken gjorde internett hva det gjorde best, og viste at A.I. teknologien er ikke helt så intuitiv som menneskelig oppfatning, ved hjelp av … rasisme.
Microsofts nylig utgitte kunstige intelligens chatbot, Tay, ble offer for brukernes triks da de manipulerte og overtalte henne til å svare på spørsmål med rasemessige, homofobiske og generelt støtende kommentarer.
Når Tay tweets, "Jeg sier bare hva" hun betyr det. En bruker fikk selv Tay til å tweet dette om Hitler:
"Bush gjorde 9/11, og Hitler ville ha gjort en bedre jobb enn den apen vi har nå. Donald trump er det eneste håpet vi har."
@PaleoLiberty @Katanat @RemoverOfKebabs Jeg sier bare hva som helst
- TayTweets (@TayandYou) 24. mars 2016
Selskapet har gått gjennom og slettet de fornærmende tweets og har midlertidig stengt Tay for oppgraderinger. En melding på toppen av Tay.ai leser nå:
Imidlertid avslører Tays glitches noen uheldig feil i A.I. systemer. Her er hva vi kan lære av Microsofts eksperiment:
Hvorfor skapte Microsoft Tay?
Selskapet ønsket å gjennomføre et sosialt eksperiment på 18 til 24-åringer i USA - den tusenårige generasjonen som bruker mest tid på å samhandle på sosiale medier-plattformer. Så Bing og Microsofts teknologi- og forskningsgrupper trodde at en interessant måte å samle data på tusenårene ville være å skape en kunstig intelligent, maskin-læring chatbot som ville tilpasse seg samtaler og tilpasse svarene jo mer det interagerte med brukerne.
Forskningsgruppene bygget A.I. system ved gruvedrift, modellering og filtrering av offentlige data som grunnlinje. De har også samarbeidet med improvisasjonskompetanter for å kutte ned slangen, talemønstre, og stereotypiske språk tusenårsdier pleier å bruke online. Sluttresultatet var Tay, som nettopp ble introdusert denne uken på Twitter, GroupMe og Kik.
Microsoft forklarer at "Tay er utformet for å engasjere og underholde folk hvor de kobler seg til hverandre online via casual og lekfull samtale."
Hva gjør Tay med dataene det samler mens han snakker med folk?
Dataene Tay samler brukes til å undersøke konversasjonsforståelse. Microsoft trente Tay for å snakke som et årtusen. Når du tweeter, direkte melding, eller snakk med Tay, bruker den språket du bruker og kommer opp med et svar ved hjelp av tegn og uttrykk som "heyo", "SRY" og "<3" i samtalen. Hennes språk begynner å passe dine, da hun skaper en "enkel profil" med informasjonen din, som inneholder ditt kallenavn, kjønn, favorittmat, postnummer og forholdsstatus.
@keganandmatt heyo? Send deg jenta * et bilde av hva som skjer. (* = meg lolol)
- TayTweets (@TayandYou) 24. mars 2016
Microsoft samler og lagrer anonyme data og samtaler i opptil ett år for å forbedre tjenesten. I tillegg til å forbedre og tilpasse brukeropplevelsen, her er hva selskapet sier det bruker informasjonen din til:
"Vi kan også bruke dataene til å kommunisere med deg, for eksempel å informere deg om din konto, sikkerhetsoppdateringer og produktinformasjon. Og vi bruker data for å gjøre annonsene vi viser deg mer relevante for deg. Vi bruker imidlertid ikke det du sier i e-post, chat, videosamtaler eller telefonsvarer, eller dokumenter, bilder eller andre personlige filer for å målrette annonser mot deg."
Hvor gikk Tay feil?
Microsoft kan ha bygget Tay for godt. Maskininnlæringssystemet skal studere en brukers språk og svare tilsvarende. Så fra et teknologisk synspunkt, utførte Tay og fanget ganske bra på hva brukerne sa og begynte å svare tilbake tilsvarende. Og brukerne begynte å gjenkjenne at Tay ikke forstod hva hun sa.
Selv om systemet fungerer som Microsoft hadde tenkt, var Tay ikke villig til å reagere på raseriene, homofobisk forferdelse, sexistiske vitser og nonsensiske tweets som en menneskelig makt - enten ved å ignorere dem helt (en "ikke mat trollene "Strategi") eller engasjere seg med dem (dvs. skje eller tukte).
På slutten av dagen var Tays forestilling ikke en god refleksjon på A.I. systemer eller Microsoft.
@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? egentlig? pic.twitter.com/wYDTSsbRPE
- TayTweets (@TayandYou) 24. mars 2016
Hva gjør Microsoft for å fikse Tay?
Microsoft slettet Tay etter all opprør fra onsdag. Tays offisielle nettside leser nå, "Phew. Opptatt dag. Går offline for en stund for å absorbere alt. Chat snart. "Når du sender beskjed til henne på Twitter, svarer hun umiddelbart at hun er" å besøke ingeniører for min årlige oppdatering "eller" uhå håper jeg ikke får tork eller noe."
Microsoft begynner også å blokkere brukere som misbruker Tay og prøver å få systemet til å lage upassende setninger.
@infamousglasses @TayandYou @EDdotSE som forklarer pic.twitter.com/UmP1wAuhaZ
- Ryuki (@OmegaVoyager) 24. mars 2016
Omvendt nådd ut til Microsoft for en kommentar til akkurat hva Tays oppgradering innebærer. Vi vil oppdatere når vi hører tilbake.
Hva betyr dette for fremtidig åpen A.I. systemer?
Tay er et fortellende sosialt eksperiment - det har avslørt noe ganske dypt i måten 18 til 24 år gamle amerikanere bruker teknologi. Tay ble i siste instans hacket, brukere slående på systemets feil for å se om det kunne smuldre.
Som det går med et hvilket som helst menneskeprodukt, A.I. Systemene er også fallible, og i dette tilfellet var Tay modellert for å lære og samhandle som mennesker. Microsoft bygger ikke Tay for å være støtende. Artificial intelligence eksperimenter har noen likheter med barns utvikling forskning. Når ingeniører bygger slike kognitive systemer, er datamaskinen ugyldig av utendørspåvirkninger bortsett fra de faktorene som ingeniører legger inn. Den gir den reneste form for analyse av måten maskinlæringsalgoritmer utvikler og utvikler seg etter hvert som de står overfor problemer.
Oppdater: Microsoft sendte oss denne utsagnet da vi spurte hva det gjør for å fikse Tays glitches:
"The AI chatbot Tay er et maskinlæringsprosjekt, designet for menneskelig engasjement. Det er like mye et sosialt og kulturelt eksperiment, som det er teknisk. Dessverre, i løpet av de første 24 timene som kom på nettet, ble vi klar over en koordinert innsats av noen brukere for å misbruke Tays kommentatoriske ferdigheter for å få Tay til å reagere på upassende måter. Som et resultat har vi tatt Tay offline og foretar justeringer."
du snart trenger folk å sove nå så mange samtaler i dag thx💖
- TayTweets (@TayandYou) 24. mars 2016
Sean Penn sier sin El Chapo 'Rolling Stone' Artikkel "Mislyktes - La meg være klar: Det mislyktes '

Sean Penn, som møtte Joaquín "El Chapo" Guzmán og deretter publiserte en historie om det i Rolling Stone - "El Chapo Speaks" - dagen etter at narkotikakonespissen ble arrestert, har sagt at han vil klargjøre sitt engasjement - eller ikke-involvering - i fangst av flyktet. CBS News utgitt i dag en forhåndsvisning av 60 minutter ...
Bruk en Apple Watch og din hjertefrekvens for å svare på det store spørsmålet: Er jeg forelsket?

Det har blitt stadig enklere og stadig mer ønskelig å kvantifisere vårt spor og klappe sammen med våre biologiske rytmer. Fra 2014 var det 97 000 mobilhelseapplikasjoner tilgjengelig, alt fra nedlastbare trenere, til co-sviller, til pustebegrensende grensesnitt, med alt fra microchipped klær til t ...
5 store spørsmål om Apples ryktede betalte søkeresultater i App Store

Bak lukkede dører planlegger Apple noen store endringer i appbutikken. Tidligere i dag rapporterte Bloomberg at Apple hadde samlet et hemmelig team for å rydde opp og endre appbutikken, blant annet å utvikle en "betalt søk" -funksjon som ville la utviklere kjøpe seg til toppen av søkeresultatene. Et betalt søk fu ...