DARPA har bestemt seg for å forstå faktisk A.I.

Demonstrations of DARPA's Ground X-Vehicle Technologies

Demonstrations of DARPA's Ground X-Vehicle Technologies
Anonim

Pentagon ønsker å finne ut hva som gjør kunstig intelligens kryss. Forsvarsforskningsprosjektet Agency (DARPA) annonserte i torsdag at det var ekstremt interessert i forklarbare A.I. prosjekter, kjent som XAI. Nyheten er en skarp avgang for et byrå som tidligere hadde prioritert A.I. effektivitet, i stedet for å faktisk forstå hvordan systemene kommer til beslutninger.

DARPA ser etter å støtte A.I. prosjekter som vil gjøre det klart for sluttbrukeren hvorfor noe skjedde. For eksempel ønsker DARPA etterretningsanalytikere å forstå hvorfor anbefalingene deres A.I. sender dem har blitt valgt. Hvis en humananalytiker ser på A.I. valgte data, bør de forstå hvorfor datamaskinen setter dataene foran dem og ikke noe annet. En A.I. som i den agenturfinansierte Cyber ​​Grand Challenge må være utformet på en mer gjennomsiktig måte, men DARPAs kunngjøring sa at den ville vurdere en rekke brukergrensesnitt (det gir ikke for mange detaljer om hvordan XAI-prosjektet burde forklar seg selv.)

Abstracts for potensielle prosjekter skyldes 1. september, og DARPA forventer utdeling av flere priser til forskere. Disse inkluderer anskaffelseskontrakter og samarbeidsavtaler, men byrået vil ikke overføre tilskudd. Byrået leter også etter lag som kan gjennomføre undersøkelser hvordan A.I. bør forklare seg selv; Forskerne må med andre ord studere en A.I. På samme måte som psykologer studerer hvordan menneskets sinn behandler informasjon under ulike forhold.