MITs nye algoritme kan forudsige menneskelige interaktioner, før de bliver svage

$config[ads_kvadrat] not found

Shoshana Zuboff on surveillance capitalism | VPRO Documentary

Shoshana Zuboff on surveillance capitalism | VPRO Documentary
Anonim

Vores manglende evne til at læse andre mennesker har ført til nogle episke høj fem fejler og savnede kys. Selv efter en levetid af erfaring er menneskelige interaktioner vanskelige at forudsige. Men forskere ved MIT's Computer Science and Artificial Intelligence Laboratory mener, at de kan hjælpe: Med en ny deep learning-algoritme, der kan forudsige, hvornår to mennesker vil kramme, kysse, ryste hænder eller høje fem, har de taget et stort skridt i retning af en fremtid velsignet blottet for de ubehagelige øjeblikke.

De håber deres nye algoritme - uddannet på 600 timers YouTube-videoer og tv-shows som Kontoret, Scrubs, Teorien om Big Bang, og Desperate husmødre - kan bruges til at programmere mindre socialt ubehagelige robotter og udvikle Google Headset-headset til at foreslå handlinger for os, før vi selv har chancen for at gå glip af. I fremtiden forestiller de sig, du vil aldrig igen forstyrre en chance for at flyve højt fem sammen med din kollega.

At indse, at robotter lærer at være sociale på samme måder, som vi gør, var nøglen til algoritmens succes. "Mennesker lærer automatisk at foregribe handlinger gennem erfaring, hvilket er det, der har gjort os interesserede i at forsøge at indføre computere med samme form for sund fornuft," siger CSAIL Ph.D. studerende Carl Vondrick, den første forfatter på et tilhørende papir præsenteres i denne uge på den internationale konference om computersyn og mønstergenkendelse. "Vi ønskede at vise, at kun ved at se store mængder video, kan computere få nok viden til konsekvent at gøre forudsigelser om deres omgivelser."

Vondrick og hans team lærte algoritmens mange "neurale netværk" til at analysere store mængder data i dette tilfælde, timer med Jim og Pams højeste fem og Mike og Susans surreptive kys på egen hånd. Under hensyntagen til faktorer som udstrakte arme, en hævet hånd eller et forlænget blik, gissede hvert af de neurale netværk hvad der ville ske i næste sekund, og den generelle konsensus af netværkene blev taget som den endelige "forudsigelse" i undersøgelse.

Algoritmen fik det ret over 43 procent af tiden. Selv om det måske ikke virker højt nok til at sikre, at vores daglige interaktioner vil være mindre mindre underlige, er det en stor forbedring på eksisterende algoritmer, som kun har en præcision på kun 36 procent.

Desuden kan mennesker kun forudsige handlinger 71 procent af tiden. Vi har brug for al den hjælp, vi kan få.

I den anden del af undersøgelsen blev algoritmen undervist for at forudsige, hvilken genstand der skulle forekomme - indenlandske sitcomhæftklammer som fjernbetjeninger, tallerkener og skraldespande - ville ses i scenen fem sekunder senere. For eksempel, hvis en mikrobølge dør åbnes, er der en relativt høj chance for et krus vises næste.

Deres algoritme er ikke tilstrækkelig nok til Google Glass endnu, men med medforfatter Antonio Torralba, Ph.D. - finansieret af en Google-fakultetets forskningspris og Vondrick arbejder med en Google Ph.D. fællesskab - vi kan vædde på, at det kommer der. Fremtidige versioner af algoritmen, Vondrick forudsiger, kan bruges til at programmere robotter til at interagere med mennesker eller endda undervise sikkerhedskameraer til at registrere, når en person falder eller bliver såret.

"En video er ikke som en" Vælg din egen eventyr "bog, hvor du kan se alle de potentielle stier", siger Vondrick. "Fremtiden er iboende tvetydig, så det er spændende at udfordre os selv til at udvikle et system, der bruger disse repræsentationer til at foregribe alle mulighederne."

$config[ads_kvadrat] not found