Video Shows Hvordan A.I. Genereret kunst kan både mesmerisere eller hjemsøge dine drømme

$config[ads_kvadrat] not found

Hvordan fungerer den internationale rumstation?

Hvordan fungerer den internationale rumstation?

Indholdsfortegnelse:

Anonim

Tidligere i måneden solgte auktionshuset Christie, hvad det siger, det første nogensinde stykke algoritmisk genereret kunst, der sælges af et stort auktionshus. Pris-mærket - næsten en halv million amerikanske dollars - har rejst en række spørgsmål om forfatterskabets oprindelse, det nyhedsobsatte kunstmarked og måske vigtigst af alt: hvorfor?

Og alligevel er de anstrengelser, der pågår for at undervise i maskiner om kunst, eller mere præcist om billeder, næppe en reklamestunts. Fra at være i stand til bedre at opdage vildledende videoer til retroaktivt at ændre filmen af ​​en film, har computerforskere en række praktiske grunde til at lære maskiner, hvordan man bedre kan engagere sig med den visuelle verden.

Daniel Heiss er en sådan teknologi entusiast. Den kreative udvikler til ZKM Center for Art and Media var en tidlig adopter af et neuralt netværk udgivet af NVIDIA-forskere i april. Det blev oprettet for at generere billeder af imaginære berømtheder efter træning med tusindvis af billeder af eksisterende celebs. Denne inspirerede Heiss til at tilslutte 50.000 fotobooth billeder indsamlet af en af ​​ZKMs interaktive kunstinstallationer for at se hvilken slags kunst hans A.I. ville producere. I et onlineinterview fortæller han Inverse resultaterne var bedre end han nogensinde havde forestillet sig.

"Jeg så den vanvittige vridning af et ansigt til tre billeder i to ansigtsbilleder og så videre. Det var meget bedre end jeg nogensinde troede, "sagde han. "Jeg forsøgte endda at filtrere billederne, så kun billeder med et ansigt blev brugt, men mens jeg arbejdede på det, kom prøverne fra det ufiltrerede datasæt ud så godt, at jeg stoppede det."

progressivt dyrket GAN (Karras et al) uddannet på ~ 80.000 malerier pic.twitter.com/fkNjw8m2uC

- Gene Kogan (@genekogan) 3. november 2018

Heiss 'video har siden erhvervet mere end 23.000 opvoter på Reddit. Han oprindeligt tweeted optagelserne set ovenfor den 4. november som svar på en anden trippy brug af NVIDIAs algoritme af programmør Gene Kogan. I stedet for at fodre de neurale netværkssuperier brugte Kogan ca. 80.000 malerier.

Kogan blev også blæst væk med A.I.'s evne til at skabe rammer, der lignede forskellige stilarter, i stedet for bare at mish-mashing alt.

"Jeg var overrasket over sin evne til at huske så mange forskellige æstetik uden at blive for jumbled," fortæller han Inverse. "Jeg synes det er effekten af ​​at have flere hundrede millioner parametre at lege med."

Hvordan vi lærer A.I. at lave egne billeder

NVIDIA-forskerholdet, der blev ledet af Tero Karras, benyttede sig af et generativt adversarielt netværk eller GAN, som oprindeligt blev teoretiseret af den anerkendte computerforsker Ian Goodfellow i 2014. Dette var den underliggende teknologi bag Googles DeepDream-værktøj, der lavede bølger på marken og online.

GAN består af to netværk: generatoren og diskriminatoren. Disse computerprogrammer konkurrerer imod hinanden millioner på millioner af gange for at forbedre deres billedgenererende færdigheder, indtil de er gode nok til at skabe, hvad der efterhånden bliver kendt som deepfakes.

Generatoren er fodret med billeder og begynder at forsøge at efterligne dem så godt som muligt. Det viser så de originale og genererede billeder til diskriminatoren, hvis job det er at fortælle dem fra hinanden. Jo flere forsøg udføres, desto bedre bliver generatoren ved at syntetisere billeder, og jo bedre diskriminatoren bliver ved at fortælle dem fra hinanden. Dette resulterer i nogle ret overbevisende - men helt falske - ansigter og malerier.

Hvordan denne teknik kan hjælpe kunstnere

A.I. har allerede lavet et navn i sig selv i kunstverdenen. Ud over det computergenererede portræt, der blev sat til salg hos Christie's, har DeepDream lavet trippy landskaber siden før dybfag var en ting.

Heiss mener, at maskinens læringsværktøjer, der oprettes i dag, er modne til at blive brugt af kunstnere, men brug af dem kræver teknisk dygtighed. Derfor er ZKM vært for Open Codes-udstillingen for at inspirere til mere samarbejde mellem den teknologiske og kreative sektor.

"Værktøjer, der nu kommer op, kan være meget nyttige værktøjer til kunstnere, men det er svært for en kunstner uden nogen viden om programmering og systemadministration færdigheder til at bruge dem," sagde han. "Denne forbindelse mellem videnskab og kunst kan føre til store ting, men det har brug for samarbejde i begge retninger."

Tidlige iterationer af A.I. som GANS, er i stand til at opsuge millioner på millioner af datapunkter for at se mønstre og lige billeder, som mennesker aldrig kunne komme på egen hånd. Men deres kreative vision er stadig begrænset af, hvad mennesker vælger at give disse algoritmer som rå data.

Med et skarpt øje for æstetik og kodningsfærdigheder kan fremtidens A.I.-brugskunstnere bruge maskinindlæring til at hoppe igennem en helt ny alder af kreativitet eller puste liv i ældre kunstarter. Men det vil tage en masse data for at undervise i maskinerne, hvordan man bedre kan efterligne menneskelig opfindsomhed og tage, hvad computeren spytter ud et skridt videre.

$config[ads_kvadrat] not found