Våre robotassistenter lærer å ligge og vi burde gi dem

Маша и Медведь (Masha and The Bear) - Маша плюс каша (17 Серия)

Маша и Медведь (Masha and The Bear) - Маша плюс каша (17 Серия)
Anonim

Roboter viser seg å være ganske gode menneskekammerater. Hvem ville ikke ha en søt liten Pepper å fortelle oss vitser, gi oss komplimenter, og generelt få oss til å føle seg mindre alene i verden? Selv formløse roboter viser seg å være overraskende godt selskap. Ta Amazon Echo's Alexa, for eksempel. Hun er en robotic hjerne med en menneskelig stemme fanget inne i en lydhøyttaler kropp, men hun er nyttig, og hvis du leser hennes vurderinger, er det klart at hun er blitt som familie for mange brukere. Ville folk tenke annerledes hvis hun løy? Hva med om hun fortalte deg noe du egentlig virkelig ikke ville høre?

Tenk på det: Vi forteller at barn aldri skal fortelle en løgn, og at ærlighet er den beste politikken, og likevel utelater vi, forvrenger sannheten, og rett og slett løgner for barn hele tiden. Dette lærer dem gjennom våre handlinger om ikke gjennom våre ord at det ikke handler om fullstendig ærlighet, men om å lære de kompliserte sosiale regler om når og hvordan å avsløre eller skjule potensielt sensitiv informasjon. Programmeringsroboter for å observere disse sosiale reglene kan være en vanskelig, men nødvendig del av den pågående automatiske innovasjonsprosessen.

Her er et eksempel: Jeg var hos min svogers hus den andre helgen, og jeg dro til butikken for å hente litt smørbrød til alles lunsj. Min seksårige niese var å hjelpe meg med å sette maten ut mens alle andre var ute av kjøkkenet, og hun spurte meg hvor mye dagligvarer hadde kostet. Jeg fortalte henne, fordi å lære barn om verdien av penger er en god ting.

På lunsjbordet ba hun meg om å fortelle alle hvor mye dagligvarer hadde kostet. Jeg sa nei."Hvorfor?" Spurte hun, virkelig forvirret om hvorfor et spørsmål jeg hadde svart på noen få minutter tidligere var nå hemmelig informasjon. "Det er ikke høflig," sa jeg og forklarte at fordi hun er barn, er reglene forskjellige når vi er alene. Jeg lærte henne at ærlighet og rettferdighet har en tid og et sted. Informasjon vil ikke i en menneskelig sammenheng alltid være fri.

Det er det samme med roboter. Vi tror at vi ikke vil at våre roboter skal lyve for oss, men vi vil faktisk at de skal lære de kompliserte sosiale regler av høflighet og skjønn som noen ganger nødvendiggjør forvrengning av sannheten. Og de lærer allerede å gjøre det. Ta dette korte klippet med Pepper i samspill med en reporter, for eksempel:

Det første ut av Peppers munn er et kompliment: "Så, du er veldig elegant. Er du en modell?"

Reporteren er kjekk nok, men Peppers spørsmål er ikke helt ærlig. Vi forstår at Pepper egentlig ikke lurer på om han er modell, og har blitt programmert til å si fine ting, uansett hva en person ser ut.

Kort tid etter spør Pepper om et lån, ut av det blå. Det er et uhøflig spørsmål, en indiskretjon som vi lett tilgir en robot for som om vi ville et barn. Reporteren kunne ha påpekt at spørsmålet er uhøflig, foreslo at roboter ikke har behov for penger, eller innrømmet at han ikke hadde noen interesse i å overføre $ 100 til Pepper. Hele sannheten er at reporteren kunne låne roboten pengene, men forstår at selve spørsmålet er litt av et spill. Det han velger å si er en avbøyning, og enten en hvit løgn eller en halv sannhet - han har ikke penger på ham. Håpet er at roboten forstår dette som en mild "nei", og foreslår ikke at reporteren går til en minibank og gjør en tilbaketrekking. Fordi Pepper tydeligvis har noen sosial nåde, slutter spørsmålet med det.

Sosial roboter er programmert for å lære sosiale tegn, og dette er en god ting - det vil til slutt gjøre dem bedre på jobbene våre. Oppgaven for programmører er ikke å stampe ut alle robotbedrag, men å legge til funksjoner som gjør det enklere for roboter å ta beslutninger om passende svar.

Når roboter er våre confidantes, må de ha bevissthet om sammenheng og publikum. Hvis jeg prøver på antrekk hjemme, for eksempel, vil jeg ha en ærlig vurdering av hvor smigrende de forskjellige alternativene er. Hvis jeg er ute på en fest og plutselig selvbevisst at jeg har valgt feil kjole, vil forsikringen om at jeg ser bra ut, være det mest nyttige svaret.

Roboter skal lære mye personlig informasjon om sine følgesvenner, og det vil være viktig for dem å forstå forskjellen mellom konfidensiell informasjon og offentlig informasjon, og også være oppmerksom på hvem som lytter når det snakker. Spørsmål vil ha forskjellige svar avhengig av hvem som spør. Roboter vil oppføre seg annerledes når gjestene er hjemme.

Roboter, som barn, trenger ansvarlig foreldre. Dette betyr at både robotprogrammører og robot eiere må tenke dypt om de etiske og sosiale konsekvensene av A.I. interaksjoner. Men det betyr ikke at krevende perfekt ærlighet - seriøst, ingen ønsker det.