Tre kongedømmer - Overforenklet
Den kinesiske regjeringen bruker prediktive politi algoritmer til å målrette etniske minoriteter i provinsen Xinjiang, ifølge en Human Rights Watch-rapport som ble utgitt mandag.
Provinsen i det nordvestlige Kina er hjemmet til 11 millioner Uyghurs, en tyrkisk muslimsk etnisk gruppe som har blitt diskriminert av den kinesiske regjeringen de siste årene.
Nå er myndighetene angivelig ved hjelp av store data for systematisk å målrette mot noen som er mistenkt for politisk mislighold. Pressen er en del av "Strike Hard" -kampanjen, med sikte på å kaste ut potensiell terroraktivitet i Kina. I praksis har dette ført til uforholdsmessig politiisering av Uyghurs, sier Human Rights Watch.
Det prediktive politisystemet, kjent som IJOP - Integrated Joint Operations Platform - er matet data fra en rekke forskjellige overvåkingsverktøy. Disse inkluderer CCTV-kameraer, ID-nummer og ID-kort for statsborgere hentet fra sikkerhetskontrollpunkter, og en trove av personlig informasjon, inkludert helse-, bank- og juridiske opplysninger.
I tillegg til automatisert overvåkning gjennomfører regjeringstjenestene besøk i hjemmet for å samle inn data om befolkningen. En kinesisk forretningsmann delte et skjema som han fylte ut for IJOPs poster med Human Rights Watch - blant annet spurte spørreskjemaet om forretningsmannen var Uyghur, hvor ofte han ber, og hvor han går for religiøse tjenester.
Alle disse datainngangene brukes av IJOP for å markere folk som potensielle trusler. Når noen er flagget, åpner politiet en videre undersøkelse og tar dem i varetekt dersom de anses å være mistenkelige.
"For første gang kan vi demonstrere at den kinesiske regjeringens bruk av store data og prediktiv politi ikke bare brutalt strider mot personvernrettigheter, men gjør det også mulig for tjenestemenn å arrestert fange folk," sa Human Rights Watch senior kinesisk forsker Maya Wang.
Ifølge rapporten har noen av de som er flagget, blitt sendt til politiske utdanningssentre der de blir holdt på ubestemt tid uten prøvelse.
"Siden april 2016 estimerer Human Rights Watch at Xinjiang-myndighetene har sendt tusenvis av uyghurer og andre etniske minoriteter til" politiske utdanningssentre ", sier rapporten. IJOP utlåner troverdighet til disse detentions ved å bruke en finér av objektiv, algoritmisk analyse til diskriminerende arrestasjoner.
For å gjøre saken verre, er IJOPs indre arbeid innhyllet i hemmelighold.
"Folk i Xinjiang kan ikke motstå eller utfordre den stadig påtrengende kontrollen av deres daglige liv, fordi de fleste ikke engang vet om dette" black box "-programmet eller hvordan det fungerer," sa Wang.
Det er det samme problemet som plager mest sofistikerte maskinlæringssystemer: de beslutningsprosedyrer de bruker er ugjennomsiktige til algoritmenes skapere.
Kinas bruk av IJOP er verdt å være oppmerksom på fordi prediktiv politi sannsynligvis vil sprede seg etter hvert som teknologien forbedrer seg. Som Jon Christian påpekte på Oversikten, forutsigbare politisystemer er allerede brukt på enkelte steder i USA. Los Angeles Police Deparment bruker programvare som forventer hvor og når forbrytelser sannsynligvis vil oppstå, så offiserer kan lede dem av.
På den andre siden av strafferettssystemet bruker rettssenter noen ganger algoritmer som gir potensielle paroleer "risikovurdering" score for å hjelpe dommerne til å ta mer informerte beslutninger. Dessverre diskriminerer disse tilsynelatende objektive algoritmer basert på rase.
Kinas forgang til prediktiv politisering understreker betydningen av ansvarlig algoritmeimplementering ettersom maskinlæring fortsetter å gå inn i offentlig sektor. Kanskje det er på tide å for teknisk-kunnskapsrike regjeringer å vedta et nytt mantra: Noen ganger skaper kunstig intelligens flere problemer enn den løser.
Varemerker som bruker Pokemon Gå til å selge søppel til tusenår

I går mottok jeg salgsfremmende e-postmeldinger fra to av de skamfullt mange restaurant- og matleveransene som jeg nedlatende. Bougie salatkjeden søtt grønn oppfordret til at jeg "må smake dem alle", mens sømløst gikk tungt på ordspillet, noe som tyder på at jeg "henter en sjelden fangst" i sin faglinje og deretter maki ...
Hvordan hackere bruker AI til å lure deg til å klikke på Sketchy Links

Twitter-brukere må kanskje være mer forsiktig med koblingene de klikker på. ZeroFoxs Philip Tully og John Seymour avslørte på Black Hat USA 2016 hacker-konvensjonen den 4. august at de kan bruke maskinlæring (dvs. kunstig intelligens) for å gjøre Twitter-brukere åpne koblinger til ondsinnede nettsteder med en suksess.
Slik forteller du at noen bruker deg: 16 tegn som en bruker bare ikke kan skjule

Enten din partner, venner, sjef eller familie, kan du bli brukt. Det suger, men det er uunngåelig. Men lær å få øye på hvordan du kan fortelle at noen bruker deg.