Forhindre Robot Apocalypse ved å vurdere dette A.I. Spørsmål om moral

Can Empathy Prevent A Robot Uprising? - Cheddar Explains

Can Empathy Prevent A Robot Uprising? - Cheddar Explains
Anonim

Det er et moralsk robotikkspørsmål og scenario som må besvares for at kunstig intelligens skal kunne gå videre.

Tenk deg at det er en robot i kontroll over en mineskaft, og det innser at det er en vogn fylt med fire menneskelige gruvearbeidere som hindrer sporene ute av kontroll. Roboten kan velge å skifte sporene og drepe en uvitende gruver, og dermed lagre de fire i handlekurven, eller hold sporene som de er og la de fire gruvearbeidere løpe inn i en vegg og dø. Hvilken ville du velge? Ville svaret ditt skifte seg om den ene gruven var et barn i stedet? Hvis vi ikke kan svare på dette, hvordan programmerer vi robotter for å ta den avgjørelsen?

Det var spørsmålene til paneldeltakerne og publikum ved World Science Festival-arrangementet i New York City, med tittelen "Moral Math of Robots: Kan livs- og dødsavgjørelser bli kodet?" De fleste valgte å lede vognen mot en minearbejder og forandre personen til et barn forandret ikke mange respondenters sinn, men det var ikke enstemmig og menneskelige moralske avgjørelser er ofte ikke.

Det var et skikkelig eksempel på de kampene menneskeheten vil møte når kunstig intelligens fortsetter å utvikle seg og vi takler muligheten for å programmere roboter med moral.

«Et konsept som skade er vanskelig å programmere,» sa panelist Gary Marcus, professor i psykologi og nevrologi ved NYU og administrerende direktør og medstifter av Geometric Intelligence, Inc. Han sa at begreper som rettferdighet ikke har kutt og tørke svar på programmet og vi har for øyeblikket ikke et godt sett med moral for roboter utover Asimovs lover, som ble omtalt i filmer som iRobot.

Han sa at det var meningen med ham å bli med på panelet, for å starte en samtale om hvordan vi skulle takle robotmoral.

Elon Musk denne uken diskuterte sin bekymring for kunstig intelligens, går så langt som å foreslå at vi alle lever i en slags simulering som Matrisen og at mennesker bør investere i nevrale blonder som vil feste til hjernen og øke menneskelige kognitive evner. Andre futurister som Stephen Hawking har advart om farene ved A.I. og i denne uken advarte Matt Damon det samme under sitt begynnelsestale på MIT.

Andre scenarier inkluderte militariserte autonome våpensystemer og hvordan vi moralsk og filosofisk skal håndtere disse menneskelige beslutninger på slagmarken, samt hvilke beslutninger autonome biler måtte måtte gjøre i den ikke så fjerne fremtiden.

Paneldeltakerne kom ikke til enighet om hva de skal gjøre, men sa at det er enorme fordeler for A.I. Det bør ikke kastes ut av vinduet bare fordi disse spørsmålene er vanskelige. De foreslo at de snakket mer åpen om slike moralske mineakselspørsmål, og kanskje kommer vi nærmere for å forhindre robotapokalypsen.