Let's end ageism | Ashton Applewhite
For ører sensibilisert av etterskole spesialiteter og mangfoldsseminarer, dette kommer til å høres dårlig, men vi vil ha roboter til å lage raske dommer basert på utseende. Overvinne fordommer er bra, men manglende evne til å stereotype reduserer intelligens - kunstig og ellers. Alan Wagner, Ph.D., en roboticist ved Georgia Tech, er sjefforesponsoren for stereotypingsteknologi. Han hevder at denne typen logikk ikke trenger å bli brukt på rase eller kjønn, bare situasjoner og atferd.
I en tidlig test av sin stereotype algoritme trente Wagner en naiv robot for å få konklusjoner fra det det så. Roboten lærte og ble oppsiktsvekkende, noe som gjorde at Wagner kunne begynne å tenke kritisk på etikken til robotenes antagelser, spesielt de forprogrammerte. Han snakket til Omvendt om sitt arbeid og dens forgreninger.
Gå meg gjennom hvordan eksperimentet fungerte.
Roboten samhandler med ulike typer individer - brannmann, EMT, eller hva som helst - men det har ingen tidligere erfaring med noen av disse personkategorier. Det er i utgangspunktet opplæringslæring.
Tanken var å vise at roboten kunne bruke perceptuelle funksjoner fra individet til å forutsi deres behov når det gjelder verktøybruk. Slik algoritmen fungerte, ville robotens kamera oppleve forskjellige aspekter av hvordan individet så ut - deres ensartede farge, for eksempel om de hadde skjegg og hårfarge.
Det vil også stille dem spørsmål om hvordan de ser ut. Selvfølgelig, å stille spørsmål er ikke hva du vil gjøre i feltet, men robotens oppfatning er så begrenset akkurat nå. Vi trengte en måte å starte opp prosessen om å lære om en person. Personen ville velge verktøyet, og da ville roboten velge verktøyet, og over tid ville roboten lære hvilket verktøy hver type person foretrukket.
Forventet du at roboten skulle lære at et emblem betyr politibetjent eller et tungt reflekterende frakk betyr en brannmann?
Vi slags forventet det. Men det var også noen overraskende ting.For eksempel kjente roboten feilaktig at et skjegg er spådd med en brannmann - det var rart, men når du ser på dataene, var det ikke overraskende. De første flere menneskene som interagerte med det, var brannmenn som hadde skjegg. Så vi argumenterer for et behov for perceptuelt mangfold, en ide om at hvis roboten kunne se store, stort sett forskjellige typer individer i en kategori, ville det bedre kunne utvikle og forstå kategorien.
Vil du si at autonome roboter skal trenes for å stryke ut disse kjennskapene, så en robot vil ikke tenke om denne personen har skjegg, er han en brannmann?
Absolutt. Det er kritisk at vi stryker ut disse tingene. Det er kritisk at vi har disse robotene som fungerer fra et mangfoldig sett av individer.
Hva kan den læring se ut?
Det ville tillate roboten å fokusere på ting som bedre karakteriserer brannmenn. For eksempel kan en brannmann ikke engang ha på seg en jakke. Roboten vil da legge merke til andre aspekter ved brannslukking, kanskje støvlene, kanskje hanskene, kanskje hjelmer. Det ville si, "OK denne personen virkelig er en brannmann i dette miljøet."
Hvis du hadde nok folk, kan det være mulig å gjenkjenne en brannmann i en brann mot en brannmann på et Halloween-parti. Det er subtile perceptuelle detaljer, som forskjellen mellom kvaliteten på typer uniformer eller kontekstuelle miljøer.
Foruten å knytte skjegg med brannmenn, hvor vellykket var denne algoritmen?
Det var to ting vi virkelig ville se på: En, hva kan du gjøre med det? Hvis roboter kan gjenkjenne brannmenn, hjelper det virkelig på noen måte? Papiret viste at det tillot deg å begrense søket. I stedet for å se på skjegg for hårfarge, se etter øyenfarge eller hva annet du kan se etter, kan du fokusere på funksjonene som virkelig betyr noe. Er personen iført en brannmannskjole? Det kan påskynde prosessen.
En annen veldig kritisk ting vi så på, er, hva om kategorien som roboten forutser er feil? Hvordan påvirker det deg? Du kan forestille deg at søke- og redningsmiljøer kan være kaotiske: Du kan kanskje jobbe i røykefylte forhold, og roboten kan kanskje ikke oppfatte alt veldig bra, det kan ha feil. Du kan forestille deg et verre tilfelle, hvor roboten mener at personen er et offer når de faktisk er en brannmann. Så det prøver å redde en brannmann. Det ville være forferdelig. Vi ønsket å se hvor det går, hvordan det går i stykker, hvilke funksjoner påvirker det mest og hva er de forskjellige typer feil.
Du kan bruke denne tilnærmingen på forskjellige måter - hvis de ikke kan se personen i det hele tatt, men kan se handlingene de gjør. Hvis jeg kan se personen som velger en økse, kan jeg forutsi at de har en hjelm.
Hvordan nærmer du deg å få en robot til å vurdere sammenhengen og lage en prediksjon?
Vi har forsøkt å se på et par forskjellige typer miljøer - en restaurant, en skole og et sykehjem. Vi prøvde å fange egenskaper om miljøet og hvilke objekter som er i miljøet, hvilke handlinger personen velger og hva menneskene i miljøet ser ut, og prøver å bruke det for å gjøre mange sosiale spådommer. For eksempel, i et skolemiljø, reiser folk sine hender før de snakker. Så hvis jeg ser handlingen som folk øker sin hånd, hva slags gjenstander ville jeg forvente å se i miljøet? Forventer jeg å se et tavle; forventer jeg å se et skrivebord? Jeg forventer å se barn.
Håper det er å bruke denne informasjonen. Hvis roboten utfører en evakueringsprosedyre, ville det se hvilke typer mennesker som er der og hvor de kan være.
La oss si at det er en robot som kommer til døren din og sier: "Følg meg til avkjøringen." Noe som tilsynelatende enkelt som det er faktisk veldig komplisert. Hvis en robot banker på en dør i en leilighetskompleks, har du ingen anelse om hvem du skal samhandle med. Det kan være et fireårig barn, det kan være en 95 år gammel person. Vi vil gjerne for roboten å skreddersy sin interaktive oppførsel til den typen person den ser for å redde dem. Vi tar noen av disse kontekstuelle leksjonene og prøver å utvikle det programmet.
Bruker du en lignende definisjon av "stereotype" for roboter og mennesker, eller er det noe annet som skjer?
Begrepet stereotyping har en negativ kontekst. Måten vi bruker det er bare å utvikle kategorier av mennesker, og bruk kategorisk informasjon for å forutsi egenskapene til en person. Jeg vet i psykologi at mye arbeid fokuserer på ansikts stereotyper og kjønns stereotyper. Vi gjør ikke noe slikt. Er prosessen det samme? Jeg vet ikke. Ingen anelse.
Er du bekymret for at folk kan ha misforståelser om arbeidet ditt?
For noen år tilbake utviklet vi denne ideen om roboter som kunne bedra folk. I media var det litt misforståelse at dette ville føre til at roboter stjal folks lommebøker.
Jeg vil gjerne bruke nødevakueringssituasjonen: Du vil ikke alltid være helt ærlig med en person i en evakuering, ikke sant? For eksempel, hvis noen spurte deg, "Er familien min ok?" Det kan være forferdelig hvis roboten sa: "Nei, de døde alle. Vennligst følg meg til avkjøringen. "Det er noen situasjoner der roboten faktisk trenger å være kort uærlig. Men min erfaring var at folk følte at vi prøvde å føre til verdens ende.
Vi er alltid interessert i de pro-sosiale aspektene ved disse menneskelige robotteknikker. Vi prøver å hjelpe folk, ikke være noe dårlig.
Facebook Identification Techs Giant Leap Forward
Facebook har tatt et imponerende algoritmisk sprang fremover. Det kan nå gjenkjenne ansiktet ditt, selv om du har på seg en pose eller et ark over hodet ditt, Charlie Brown Halloween stil. Ved å bruke data om holdning, klær og frisyre, lærer Facebook å gjenkjenne folk på samme måte som du gjør, som - hvis megakompaniet er i ...
Har Microsofts Tay mislykt Turing-testen? Ja, men rasisme var ikke problemet
Hvis suksessen til en kunstig intelligens er opprettelsen av en kunstig personlighet, er Microsofts A.I. Bot, Tay, kan betraktes som et tegn på fremgang. Men bredere kan Tay dømmes som en fiasko. "Målet med de fleste som jobber med konversasjonsagenter av denne typen, er ikke så mye å passere noen form for ...
Se Georgia Techs Mini Self-Driving Car Sleng et drivspor
Datamaskiner blir bedre på å gjøre alle slags kompliserte, delikate oppgaver uten mennesker. Den store elven akkurat nå handler om selvkjørende biler, som kan revolusjonere frakt og personlig transport. Men til nå har selvkjøringsteknologi hovedsakelig vært begrenset til smarte gaffeltrucker og å hjelpe folk med å ...