Alle på Internett hadde en flott tid med Tay, Microsofts Twitter-robot som ble en rasistisk Holocaust-denier i løpet av noen timer (så kom tilbake og gjorde det igjen). Selskapet hadde opprettet en PR-klaff - mer hendelse enn en katastrofe - samtidig som publikum fikk en objektlesjon om fordelene og ulemperne ved maskinlæring: Automatisering kan utnytte mønstre til fascinerende effekt med fart, men resultatene vil være forutsigbart vanskelig å forutsi.
Som det er tilfelle er militæret en tidlig adopter av automatiseringsteknologi. Det er - på en gang - leder avgiften mot maskinlæring og prøver også desperat å holde tritt. Et av de viktigste fokusområdene for Pentagon er autonome roboter og hvordan de vil samarbeide med mennesker - for eksempel en R2D2-stil robotvinger. Men denne uken, ble assisterende forsvarsminister Robert Work redegjort for en annen oppgave for A.I.: Datakretsen for åpen kildekode.
"Vi er helt sikre på at bruken av dyplæringsmaskiner skal gi oss en bedre forståelse av ISIL som et nettverk og bedre forståelse av hvordan vi målretter det nøyaktig og fører til nederlag, sier sekretærarbeid, ifølge DoDs nettsted. Ifølge den kontoen, Arbeid, som snakket på et arrangement arrangert av Washington Post, hadde sin epiphany mens du så på et Silicon Valley tech selskap demonstrere "en maskin som tok inn data fra Twitter, Instagram og mange andre offentlige kilder for å vise juli 2014 Malaysia Airlines Flight 17 nedspillingen i sanntid."
Private selskaper og rettshåndhevelse har forsøkt å gi mening om "store data" i lang tid. Men militæret har en fordel: ressurs. De har også tilgang til klassifisert materiale.
Den amerikanske regjeringen ser ut til å satse på at programvaralgoritmer kan sortere gjennom den enorme mengden data der ute for å identifisere ISIS-mål som ellers ville ha fjernet dem, og oppdage og forstyrre tomter før planleggerne kan bære dem ut. Regjeringen forsøker allerede å studere sosiale medier for å forutsi størrelsen på elektroniske protester. Det er ingen tvil om at maskinlæring vil gi intelligensanalytikere økt makt for å gi mening om rikdom av tilgjengelig informasjon i verden. Men når den intelligensen blir grunnlaget for en dødelig streik, blir de etiske problemene mer komplekse, selv om de virker rettferdige.
Selv om arbeidet var raskt å si at Pentagon ikke ville "delegere dødelig autoritet til en maskin," forblir sluttspillet. I mellomtiden vil mennesker forbli "i løkken" som jargongen går. Men som alle som har sett på en iPhone for en værmelding når de står ved siden av et vindu, vet vi at forholdene vi har med våre enheter og programvare, ikke er enkle. Vi er problematisk lovlig og lett distrahert av brukergrensesnitt.
"Automasjonsperspektiv", tendensen for mennesker til å utsette for maskiner, presenterer en klar og stadig mer aktuell fare. Go-to-eksemplet for å illustrere dette fenomenet er når telefonen forteller deg å ta en reiselute du vet er feil, men du gjør det uansett, antar at telefonen må vite noe du ikke gjør. Dette er et vanlig problem i ikke-militære sammenhenger. Hva Pentagon ser ut til å være nærmere, er imidlertid trusselsrapporter sammensatt av kunstig intelligens. Vi vet ikke noe om den potensielle effekten av dette programmet, bortsett fra at det vil være vanskelig for mennesker å implementere.
I et dokument fra 2001 som ser på student- og profesjonelle piloter og automasjonsperspektiv, fant forskerne at "i scenarier der korrekt informasjon var tilgjengelig for å krysse sjekke og oppdage automatiske anomalier, ble feilrater på omtrent 55% dokumentert på tvers av begge populasjonene." Studien fant også at å legge til en ekstra menneskelig lagkamerat ikke redusere problemet.
Tilsvarende fant en MIT-studie fra i fjor noe urovekkende at datamaskin- og videospillere hadde en "høyere tilbøyelighet til overstyringsautomatisering." Det kan bety at jo mer tid vi bruker til å stirre på våre skjermer, desto mer stoler vi på det vi ser. Igjen, problemet er ikke med systemene vi bruker, men med måten vi bruker dem på. Feilen er ikke i våre stjerner, men i oss selv.
Store data forblir lovende. Maskinlæring forblir lovende. Men når maskiner råder mennesker, er resultatene forutsigbart uforutsigbare. Betyr Tays transformasjon til en neo-nazistisk misogynist at Twitter hater jøder og kvinner? Det er vanskelig å vite, men ganske usannsynlig. Når vi ikke forstår prosessen ved hvordan innganger blir utganger, sliter vi med å håndtere resultatene på en rasjonell måte. Som setter Pentagon i en interessant posisjon. Er folk som programmerer militærets maskinlæringsprogramvare, kommer til å være de som bestiller airstrikes? Det er ikke hvordan kommandokjeden virker, men kommandokjeder blir forvirret når teknologien blir involvert.
Se forskere animere statiske bilder ved hjelp av mesmeriserende maskinlæring

Animasjon er vakker, men å skape bevegelige bilder er utrolig arbeidsintensiv. Men en ny prosess utviklet av forskere ved Princeton University har potensial til å drastisk forenkle deler av prosessen ved hjelp av maskinlæring, med potensielt hypnotiserende resultater.
Fakeapp Lar Redditors sette Nic Cage inn i hver film ved hjelp av maskinlæring

Deepfakes har forvandlet seg til en hel sjanger av video memes, takket være Reddit. Trenden har flyttet fra kjendisporno til Nic Cage videoer - for nå.
Deepfakes er ingen match for maskinlæring - her er hvorfor

Så langt har folk brukt dype videoer i pornografi og satir for å få det til å se at kjente mennesker gjør ting de ikke ville normalt. Men det er nesten sikkert at deepfakes vil vises i løpet av kampanjesesongen, som viser at kandidater sier ting eller går steder den virkelige kandidaten ikke ville.