Video afslører de overraskende udfordringer i undervisningen A.I. at kle sig selv

$config[ads_kvadrat] not found

CLR • IAFLS (Official Music Video)

CLR • IAFLS (Official Music Video)
Anonim

Crawling i en t-shirt kan være en af ​​de få opgaver, vi mennesker kan klare, selvom vi næsten ikke er vågen og stadig skraber søvnen ud af vores øjne. Men det faktum, at vi har mestret hvordan vi klæder os selv (mere eller mindre), tror på, hvor komplekse den serie af bevægelser, der kræves for at gå fra at være i bufferen til at være klædt nok til at træde ud af dørene, er virkelig.

En person, som forstår dette såvel som nogen, er Alex Clegg, en computervidenskab Ph.D. studerende ved Georgia Institute of Technology, der har været fokuseret på at bruge maskine læring til tech kunstig intelligens hvordan man klæder sig selv. Som han fortæller Inverse, mens A.I. er klog nok til at forudsige, hvilke patienter der får sepsis eller hvordan man udfordrer verdensmestere i komplekse strategispil. Undervisningsmaskiner, hvordan man tøjer på en skjorte har vist sig at være et ubehageligt mål.

"Tøj er kompleks", forklarer han i en email. "Det kan reagere øjeblikkeligt og drastisk til små ændringer i kroppens stilling og ofte begrænse bevægelse … Tøj har også tendens til at folde, holde fast og klamre sig til kroppen, hvilket gør haptisk eller touch sensation afgørende for opgaven."

Så hvorfor er det præcis en computer whiz forsøger at bryde ned, hvordan vi passer op om morgenen? Clegg forklarede, at der er et par mulige anvendelser for A.I. der forstår den bedragerisk simpelt tilsyneladende kunst at klæde sig på. På kort sigt kunne Cleggs resultater bruges til en dags hastighed processen med at lave livlige 3D animationer. Men endnu vigtigere kan disse indsigter bidrage til udformningen af ​​hjælperobotter, som kan hjælpe med at tage vare på mennesker unge og gamle.

Forskerne startede ved at lære en computer, hvordan man behersker at få en arm i ærmet. I det papir, der vil blive præsenteret på den kommende SIGGRAPH Asia 2018-konference om computergrafik i december, forklarede Clegg og hans kolleger den præcise teknik, de brugte, en type maskinindlæring kaldet "dyb forstærket læring."

Målet med dybere forstærket læring er at forsøge at undervise robotter hvordan man gennemfører bestemte bevægelser og opgaver ved at få dem til at gøre det igen og igen. I tilfælde af dressing A.I. havde Cleggs hold A.I. observere processen virtuelle miljø, replikere det, og belønnede det derefter, da det syntes at være på rette spor.

Clegg forklarede, at det tog hundredtusindvis af forsøg for at få den pølseformede animerede karakter, de udviklede til at lære at sætte på en jakke eller t-shirt. Når alt kommer til alt, måtte deres bot lære hvordan man opfatter kontakten, så det kunne trænge på trøjen, når det var nødvendigt. Plus, de havde også brug for at indarbejde en fysikmotor for at gøre simuleringen så præcis som mulig.

I sidste ende lykkedes Cleggs klodsede, animerede søn at lære at få sin skjorte på, selvom det var lidt inelegantly. Resultaterne kan dog stadig være mest anvendelige som et proof of concept for, hvordan dyb læring kan bruges til at løse nuancerede problemer.

"Det er spændende at forestille sig de mange problemer, vi kan løse med dybere forstærket læring," siger han. "Vi ser frem til at fortsætte arbejdet med at muliggøre robotik og finde løsninger på store problemer, som påvirker hverdagen for så mange mennesker."

Konvertering af resultaterne af resultaterne af denne undersøgelse til arbejde med robotik vil tage lidt mere arbejde for at harmonisere både software og hardware aspekter. Men Cleggs resultater fastlægger en vej for forskere, der er interesserede i at befri vores futuristiske robotvagter fra deres nuværende begrænsninger.

$config[ads_kvadrat] not found