Felles dataprogram forutsetter recidivisme så dårlig som mennesker

$config[ads_kvadrat] not found

Congo and Africa's World War: Crash Course World History 221

Congo and Africa's World War: Crash Course World History 221
Anonim

Akkurat som en profesjonell kokk eller hjertekirurg, er en maskinalgoritme bare så god som treningen den mottar. Og ettersom algoritmer i økende grad tar regjeringer og tar beslutninger for mennesker, finner vi ut at mange av dem ikke mottok den fineste utdanningen, ettersom de etterligner menneskelige rase- og kjønnsbaserte forstyrrelser og til og med skaper nye problemer.

Av disse grunnene gjelder det spesielt at flere stater, inkludert California, New York og Wisconsin, bruker algoritmer til å forutsi hvilke personer som vil begå forbrytelser igjen etter at de har blitt fengslet. Enda verre, det virker ikke engang å fungere.

I et papir publisert onsdag i tidsskriftet Science Advances, et par datavitenskapsfolk ved Dartmouth College fant at et mye brukt dataprogram for å forutsi tilbakevendende er ikke mer nøyaktig enn helt uutdannede sivile. Dette programmet, kalt Correctional Offender Management Profiling for Alternative Sanctions, analyserer 137 forskjellige faktorer for å avgjøre hvor sannsynlig det er at en person vil begå en annen forbrytelse etter utgivelsen. COMPAS anser faktorer som stoffbruk, sosial isolasjon og andre elementer som kriminologer teoretiserer, kan føre til tilbakevendende, rangere folk som høy, middels eller lav risiko.

Og sikker, risikovurdering lyder bra. Hvorfor ikke ha flere data for å hjelpe domstolene å avgjøre hvem som er større risiko? Men hva Dartmouth datavitenskapsmenn Julia Dressel og Hany Farid fant var at uutdannede individer dømmer tilbakefallsrisiko med omtrent samme nøyaktighet som COMPAS, noe som tyder på at algoritmens antatte kraft ikke egentlig er der.

I en prøveperiode som inkluderte bare en brøkdel av informasjonen som ble brukt av COMPAS (syv faktorer i stedet for 137 og eksklusiv rase), evaluerte en gruppe menneskelige frivillige på internett, med antagelig ingen trening i kriminell risikovurdering, saksrapporter. De anslått riktig personens tilbakevendende med 67 prosent nøyaktighet, sammenlignet med COMPAS 65 prosent nøyaktighet.

Ta et øyeblikk for å la det synke inn. Utrente mennesker på nettet var litt bedre å forutsi om en person ville gå tilbake til fengselet enn verktøyet som er bokstavelig talt utformet for å forutsi om en person ville gå tilbake til fengsel. Og det blir verre. Når du legger til en saksøktes løp, var frivilligens falske positive og falske negative priser innenfor bare noen få prosentpoeng av COMPAS. Så ikke bare er COMPAS ikke så flott å forutsi tilbakevendende, det er like utsatt for raseforspenning som mennesker er. Så mye for den kalde logikken til datamaskiner.

Forskerne gjorde da en lineær modell som matchet COMPASs prediksjonsrate med bare to faktorer: alder og antall tidligere overbevisninger. Bare for å være klar, ville denne prediksjonen også være urettferdig, men det demonstrerer bare hvor feil COMPAS er.

Og mens denne forskningen er ny, er de store takeaways det espouses ikke. I en 2016 undersøkelse, ProPublica journalister fant at ikke bare COMPAS er upålitelig, det er faktisk systematisk forutinntatt mot afroamerikanere, som konsekvent vurderer svarte mennesker som høyere risiko enn hvite som begått mer alvorlige forbrytelser. Forhåpentligvis vil denne nye forskningen bidra til å bane vei for justeringsvurderingsprosesser i straffesystemet.

Det faktum at COMPAS er ubrukelig i beste og dypt forspent i verste fall, antyder at databaserte risikovurderinger kan utdype urettene som rettssystemet skal adressere.Siden risikovurderingspoengene kan brukes i ethvert trinn i straffeprosessprosessen, blant annet ved å sette inn en persons bånd, bestemme om de er gitt parole, og i enkelte stater, selv for å bestemme en persons setning, tyder denne undersøkelsen på et sterkt behov for å revurdere bruken av COMPAS og andre programmer.

$config[ads_kvadrat] not found