Video Shows Hvordan A.I. Generert kunst kan både mesmerisere eller hjemsøke drømmene dine

No Mans Sky Next Как найти проект гипердвигателя и разбитый грузовой корабль

No Mans Sky Next Как найти проект гипердвигателя и разбитый грузовой корабль

Innholdsfortegnelse:

Anonim

Tidligere i måneden solgte auksjonshuset Christie hva det sier er det første stykket algoritmisk generert kunst solgt av et stort auksjonshus. Prislappen - nesten en halv million amerikanske dollar - har reist en rekke spørsmål om opprinnelsen til forfatterskapet, det nyhetsobsatte kunstmarkedet, og kanskje viktigst: hvorfor?

Og likevel er arbeidet som går i gang med å lære maskiner om kunst, eller mer presist om bilder, knapt et publisitetsstunt. Fra å være i stand til å bedre oppdage villedende videoer for å tilbakevendiggjøre skiftet av en film, har datavitenskapsmenn en rekke praktiske grunner for å lære maskiner hvordan man bedre kan engasjere seg med den visuelle verden.

Daniel Heiss er en slik teknologi entusiast. Den kreative utvikleren for ZKM senter for kunst og media var en tidlig adopter av et neuralt nettverk publisert av NVIDIA forskere i april. Det ble laget for å generere bilder av imaginære kjendiser etter trening med tusenvis av bilder av eksisterende kjendiser. Denne inspirerte Heiss til å plugge inn 50.000 fotobooth bilder samlet av en av ZKMs interaktive kunstinstallasjoner for å se hvilken type kunst hans A.I. ville produsere. I et online intervju forteller han Omvendt Resultatene var bedre enn han noen gang hadde forestilt seg.

"Jeg så den sprø vridningen av et ansiktskilde i tre ansiktsbilder i to ansiktsbilder og så videre. Det var mye bedre enn jeg trodde, "sa han. "Jeg prøvde å filtrere bildene slik at bare bilder med ett ansikt blir brukt, men mens jeg jobbet på det, ble prøvene generert fra det ufiltrerte datasettet så bra at jeg stoppet det."

progressivt dyrket GAN (Karras et al) trent på ~ 80.000 malerier pic.twitter.com/fkNjw8m2uC

- Gene Kogan (@genekogan) 3. november 2018

Heiss 'video har siden fått mer enn 23.000 oppvoter på Reddit. Han opprinnelig tweeted opptaket sett ovenfor den 4. november som svar på en annen trippy bruk av NVIDIAs algoritme av programmerer Gene Kogan. I stedet for å mate de nevrale nettverkene, brukte Kogan omtrent 80.000 malerier.

Kogan ble også blåst bort med A.I.s evne til å lage rammer som lignet forskjellige stilarter, i stedet for bare å mish-mashing alt.

"Jeg ble overrasket over sin evne til å huske så mange forskjellige estetikk uten å bli for jumbled," forteller han Omvendt. "Jeg tror det er effekten av å ha flere hundre millioner parametere å leke med."

Hvordan vi lærer A.I. å lage egne bilder

NVIDIA-forskerlaget, ledet av Tero Karras, benyttet seg av et generativt adversarielt nettverk, eller GAN, opprinnelig teoretisert av den anerkjente datavitenskaperen Ian Goodfellow i 2014. Dette var den underliggende teknologien bak Googles DeepDream-verktøy som gjorde bølger i feltet og på nettet.

GAN består av to nettverk: generatoren og diskriminatoren. Disse dataprogrammene konkurrerer mot hverandre millioner på millioner av ganger for å finjustere bildegenererende ferdigheter til de er gode nok til å skape det som etter hvert blir kjent som deepfakes.

Generatoren er matet bilder og begynner å prøve og etterligne dem så godt som mulig. Den viser deretter de opprinnelige og genererte bildene til diskriminatoren, hvis jobb det er å fortelle dem fra hverandre. Jo flere forsøk utført, desto bedre blir generatoren ved å syntetisere bilder og jo bedre diskriminatoren blir ved å fortelle dem fra hverandre. Dette resulterer i noen ganske overbevisende - men helt falske - ansikter og malerier.

Hvordan denne teknikken kan hjelpe kunstnere

A.I. har allerede gjort seg kjent i kunstverdenen. I tillegg til det datamaskingenererte portretet som ble solgt på Christies, har DeepDream gjort trippy landskaper siden før deepfakes var en ting.

Heiss mener at maskinlæringsverktøyene som er opprettet i dag, er modne til bruk av kunstnere, men bruk av dem krever teknisk dyktighet. Derfor er ZKM vert for Open Codes-utstillingen for å inspirere til mer samarbeid mellom teknologi og kreativ sektor.

"Verktøy som nå kommer fram kan være svært nyttige verktøy for kunstnere, men det er vanskelig for en kunstner uten kjennskap til programmerings- og systemadministrasjonsferdigheter å bruke dem," sa han. "Denne sammenhengen mellom vitenskap og kunst kan føre til store ting, men det trenger samarbeid i begge retninger."

Tidlige iterasjoner av A.I. som GANS, er i stand til å suge millioner på millioner av datapunkter for å se mønstre og selvbilder som mennesker aldri kan komme opp med på egen hånd. Imidlertid er deres kreative visjon fortsatt begrenset av hva mennesker velger å gi disse algoritmer som rådata.

Med et skarpt øye for estetikk og kodingsferdigheter, kan fremtidige A.I.-artister bruke maskinlæring til å hoppe opp en helt ny alder av kreativitet eller puste livet i eldre kunstarter. Men det vil ta mye data for å lære maskinene hvordan man bedre kan etterligne menneskelig oppfinnsomhet og ta hva datamaskinen spytter ut et skritt videre.