A.I. Rapid Advance bør være skummelt hvis du betaler oppmerksomhet

Goal-Oriented Action Planning: Ten Years of AI Programming

Goal-Oriented Action Planning: Ten Years of AI Programming
Anonim

Når det gjelder å identifisere eksistensielle trusler fra teknologiske innovasjoner, kaller den populære fantasien visjoner om Terminator, Matrisen, og Jeg, Robot - dystopier styrt av robotoverlatere som utnytter og utrydder folk en masse. I disse spekulative futures fører en kombinasjon av superintelligens og onde hensikter datamaskiner til å utslette eller enslave menneskeheten.

En ny studie tyder imidlertid på at det vil være de banale bruksområder av A.I. Det vil føre til alvorlige sosiale konsekvenser i løpet av de neste årene. Rapporten - "Ondsinnelig bruk av kunstig intelligens" - forfattet av 26 forskere og forskere fra eliteuniversiteter og techfokuserte tenktanker, skisserer måter den nåværende A.I. teknologier truer vår fysiske, digitale og politiske sikkerhet. For å bringe studiet i fokus, så forskningsprosjektet bare på teknologi som allerede eksisterer eller trolig vil i løpet av de neste fem årene.

Hva studien fant: A.I. systemer vil sannsynligvis utvide eksisterende trusler, introdusere nye og endre karakteren av dem. Avhandlingen av rapporten er at teknologiske fremskritt vil gjøre visse misdeeds enklere og mer verdifulle. Forskerne hevder at forbedringer i A.I. vil redusere mengden ressurser og kompetanse som trengs for å utføre noen cyberangrep, effektivt redusere barrierer for kriminalitet:

Kostnadene ved angrep kan senkes av den skalerbare bruken av AI-systemer for å fullføre oppgaver som vanligvis krever menneskelig arbeidskraft, intelligens og ekspertise. En naturlig effekt ville være å utvide settet av aktører som kan utføre bestemte angrep, hvor raskt de kan utføre disse angrepene, og settet med potensielle mål.

Rapporten gjør fire anbefalinger:

1 - Politikere bør samarbeide tett med tekniske forskere for å undersøke, forebygge og redusere potensielle ondsinnede bruksområder av AI.

2 - Forskere og ingeniører i kunstig intelligens bør ta dual-use karakteren av arbeidet deres seriøst, slik at misbrukelaterte hensyn kan påvirke forskningsprioriteringer og normer, og proaktivt nå ut til relevante aktører når skadelige søknader er forutsigbare.

3 - Best Practices bør identifiseres på forskningsområder med mer modne metoder for å ta opp dobbeltbruk, f.eks. Datasikkerhet, og importeres der det er aktuelt for AI-saken.

4 - Aktivt forsøke å utvide omfanget av interessenter og domenekunnskaper som er involvert i diskusjonene om disse utfordringene

Hvordan A.I. kan gjøre dagens svindel smartere: Eksempel, spyd phishing-angrep, der con artister utgjør som målvenn, familiemedlem eller kollega for å få tillit og utvinne informasjon og penger, er allerede en trussel. Men i dag krever de en betydelig utgift av tid, energi og kompetanse. Som A.I. Systemene øker i raffinement, noe av aktiviteten som kreves for et spydfiskeangrep, som å samle inn informasjon om et mål, kan bli automatisert. En phisher kan da investere betydelig mindre energi i hver gang og målrette flere mennesker.

Og hvis svindlere begynner å integrere A.I. inn i deres online grifter, kan det bli umulig å skille virkeligheten fra simulering. "Som AI utvikler seg videre, kan overbevisende chatbots fremkalle menneskelig tillit ved å engasjere folk i lengre dialoger, og kanskje til slutt maskerer visuelt som en annen person i en videochatt, sier rapporten.

Vi har allerede sett konsekvensene av maskingenerert video i form av Deepfakes. Siden disse teknologiene blir mer tilgjengelige og brukervennlige, bekymrer forskerne at dårlige skuespillere vil spre sammensatte bilder, videoer og lydfiler. Dette kan resultere i svært vellykkede ærekampanjer med politiske konsekvenser.

Utover tastaturet: Og potensiell feil er ikke begrenset til internett. Når vi beveger oss mot adopsjon av autonome kjøretøy, kan hackere distribuere adversarielle eksempler for å lure selvkjørende biler til å misperceive deres omgivelser. "Et bilde av et stoppskilt med noen få piksler endret på bestemte måter, som mennesker lett kunne gjenkjenne som fortsatt et bilde av et stoppskilt, kan likevel bli kategorisert som noe annet helt av et AI-system, sier rapporten.

Andre trusler inkluderer autonome droner med integrert ansiktsgjenkjenningsprogramvare for målretting, koordinert DOS-angrep som etterligner menneskelig oppførsel og automatiserte, hyperperspektiv disinformasjonskampanjer.

Rapporten anbefaler at forskere vurderer potensielle ondsinnede applikasjoner av A.I. mens du utvikler disse teknologiene. Hvis tilstrekkelige forsvarsforanstaltninger ikke blir satt på plass, kan vi allerede ha teknologien til å ødelegge menneskeheten, ingen killer roboter kreves.