Video: Stunt-skuespillere kan erstattes af denne A.I. Teknologi en dag snart

$config[ads_kvadrat] not found

Humans Need Not Apply

Humans Need Not Apply
Anonim

Et nyt kunstigt intelligenssystem har udviklet computer-animerede stuntmen, der kunne gøre actionfilm køligere end nogensinde. Forskere ved University of California, Berkeley har udviklet et system, der er i stand til at genskabe nogle af de smukkeste bevægelser i kampsport, med potentialet til at erstatte virkelige menneskelige skuespillere.

UC Berkeley kandidatstuderende Xue Bin 'Jason' Peng siger, at teknologien resulterer i bevægelser, der er svære at adskille fra mennesker.

"Dette er faktisk et stort stort spring fra hvad der er gjort med dyb læring og animation," sagde Peng i en redegørelse udgivet med sin forskning, der blev præsenteret på 2018 SIGGRAPH konferencen i august i Vancouver, Canada i august. "Tidligere har der været en masse arbejde med at simulere naturlige bevægelser, men disse fysikbaserede metoder har tendens til at være meget specialiserede; de er ikke generelle metoder, der kan håndtere en lang række færdigheder.

"Hvis du sammenligner vores resultater med motion-capture optaget fra mennesker, kommer vi til det punkt, hvor det er ret vanskeligt at skelne de to, for at fortælle, hvad der er simulering og hvad der er ægte. Vi bevæger os mod en virtuel stuntman."

Et dokument om projektet, kaldet DeepMimic, blev offentliggjort i tidsskriftet ACM Trans. Kurve i august. I september lavede teamet sine kode- og bevægelsesindsamlingsdata på GitHub, som andre kunne prøve.

Holdet brugte dyb forstærkning læring teknikker til at undervise systemet, hvordan man bevæger sig. Det tog bevægelsesindsamlingsdata fra virkelige livsforestillinger, førte dem ind i systemet og satte det til at øve bevægelserne i en simulering for en hel måned, der skulle træne 24 timer om dagen. DeepMimic lærte 25 forskellige træk som kicking og backflips og sammenligner sine resultater hver gang for at se, hvor tæt den kom til de originale mocap data.

I modsætning til andre systemer, der måske har forsøgt og mislykkedes gentagne gange, slog DeepMimic ned i trinet, så hvis det ikke lykkedes på et tidspunkt, kunne det analysere dets ydeevne og justere det rette tidspunkt i overensstemmelse hermed.

"Da disse teknikker skrider frem, tror jeg, de vil begynde at spille en større og større rolle i film," fortæller Peng Inverse. "Men da film generelt ikke er interaktivt, kan disse simuleringsteknikker have mere umiddelbar indflydelse på spil og VR.

"Faktisk er simuleret karakter uddannet ved hjælp af forstærkning læring allerede at finde vej til spil. Indiespil kan være en meget flot testplads for disse ideer. Men det kan tage et stykke tid længere, før de er klar til AAA-titler, da der arbejdes med simulerede figurer kræver et ret drastisk skift fra traditionelle udviklingsledninger."

Spiludviklere begynder at eksperimentere med disse værktøjer. En udvikler formåede at bruge DeepMimic indenfor Unity spilmotor:

Mine damer og herrer, vi har afsluttet Backflip! Tillykke med Ringo, aka StyleTransfer002.144 - ved hjælp af # unity3d + #MLAgents & #MarathonEnvs. StyleTransfer træner en #ActiveRagoll fra MoCap data aka Deepmimic http://t.co/gAGtYYeawE … #madewithunity pic.twitter.com/3iIoDsfdLe

- Joe Booth (@iAmVidyaGamer) 1. november 2018

Peng er håb om, at frigivelsen af ​​koden vil fremskynde vedtagelsen. Han bemærker også, at holdet har "talt med en række spiludviklere og animationsstudier om mulige anvendelser af dette arbejde, selvom jeg ikke kan gå ind for mange detaljer om det endnu."

Maskiner kæmper regelmæssigt med komplekse bevægelser, som demonstreret af robotterne, der spiller fodbold, der blødt tumbler over græsset i stedet for at fuldføre nogen højoktanske bevægelser. Der er tegn på fremskridt, som A.I. får fat i kompleksiteten af ​​virkelige bevægelser og begynder at korrigere sig mere som mennesker.

Måske kunne DeepMimic på en dag lære et nyt træk i sekunder, ligesom Neo lærer kung fu i Matrixen.

Læs nedenstående abstrakt.

Et langvarigt mål i karakter animation er at kombinere data-drevet specifikation af adfærd med et system, der kan udføre en lignende adfærd i en fysisk simulering, hvilket muliggør realistiske reaktioner på forstyrrelser og miljømæssige variationer. Vi viser, at velkendte metoder til styring af læring (RL) kan tilpasses til at lære robuste kontrolpolitikker, der kan efterligne en bred vifte af eksempelklip, samtidig med at de lærer komplekse inddrivelser, tilpasser sig ændringer i morfologi og opnår brugerspecificerede mål. Vores metode håndterer keyframed bevægelser, højdynamiske handlinger som motion-fanget flips og spins og retargeted motion. Ved at kombinere et bevægelsesimitationsmål med et opgavemål kan vi træne tegn, som reagerer intelligent i interaktive indstillinger, fx ved at gå i ønsket retning eller kaste en bold i et brugerdefineret mål. Denne fremgangsmåde kombinerer således bekvemmeligheden og bevægelseskvaliteten ved at bruge bevægelsesklip til at definere den ønskede stil og udseende, med fleksibilitet og generelitet, som RL-metoder og fysikbaseret animation giver. Vi undersøger yderligere en række metoder til integration af flere klip i læringsprocessen for at udvikle multi-skilled agenter, der er i stand til at udføre et rigt repertoire af forskellige færdigheder. Vi demonstrerer resultater ved hjælp af flere tegn (menneske, Atlas robot, bipedal dinosaur, drage) og et stort udvalg af færdigheder, herunder lokomotion, akrobatik og kampsport.

$config[ads_kvadrat] not found