Denne roboten har lært hvordan man sier nei til menneskelige krav

Will the Judges bend over backwards for Bonetics? | Britain's Got Talent 2015

Will the Judges bend over backwards for Bonetics? | Britain's Got Talent 2015
Anonim

Roboter, akkurat som mennesker, må lære når de skal si "nei." Hvis en forespørsel er umulig, ville det føre til skade, eller ville distrahere dem fra oppgaven ved hånden, så er det i beste interesse for en bot og hans menneskelige for en diplomatisk Nei takk å være en del av samtalen.

Men når skal en maskin snakke tilbake? Og under hvilke forhold? Ingeniører prøver å finne ut hvordan man kan innpode denne følelsen av hvordan og når man skal tåle ordrer i humanoider.

Se denne Nao roboten nekter å gå fremover, vel vitende om at det ville få ham til å falle utenfor kanten av et bord:

Enkle ting, men absolutt viktig for å fungere som en kontroll på menneskelig feil. Forskere Gordon Briggs og Matthias Scheutz fra Tufts University utviklet en kompleks algoritme som lar roboten å vurdere hva et menneske har bedt ham om å gjøre, bestemme om han eller hun skulle gjøre det, og svare på riktig måte. Forskningen ble presentert på et nylig møte i Foreningen for Kunstig Intelligens.

Roboten spør seg en rekke spørsmål relatert til om oppgaven er mulig. Vet jeg hvordan du gjør det? Er jeg fysisk i stand til å gjøre det nå? Er jeg normalt fysisk i stand til å gjøre det? Kan jeg gjøre det akkurat nå? Er jeg forpliktet basert på min sosiale rolle å gjøre det? Krenker det noen normative prinsipper for å gjøre det?

Resultatet er en robot som ser ut til å være ikke bare fornuftig, men en dag, til og med klok.

Legg merke til hvordan Nao forandrer seg om å gå videre etter de menneskelige løftene for å fange ham. Det ville være lett å forestille seg et annet scenario, hvor roboten sier: "Nei, hvorfor burde jeg stole på deg?"

Men Nao er en sosial skapning, av design. For å tilfredsstille mennesker er i hans DNA, så gitt informasjonen som mennesket har til hensikt å fange ham, går han blindt fremover i avgrunnen. Visst, hvis mennesket skulle bedra sin tillit, ville han være hooped, men han stoler allikevel. Det er Naos vei.

Som robotkammerater blir mer sofistikerte, må robotingeniører måtte gripe med disse spørsmålene. Robotene må ta avgjørelser, ikke bare for å bevare sin egen sikkerhet, men også på større etiske spørsmål. Hva om et menneske spør en robot å drepe? Å begå svindel? Å ødelegge en annen robot?

Ideen om maskinens etikk kan ikke skilles fra kunstig intelligens - selv våre fremdriftsløse biler må fremdeles konstrueres for å gjøre livs- eller dødsvalg på våre vegne. Den samtalen vil nødvendigvis være mer kompleks enn bare å levere marsjeringsordrer.