Georgia Tech's Stereotyping Robot er fremtiden for AI, ikke racisme

$config[ads_kvadrat] not found

You Should Come to Georgia Tech

You Should Come to Georgia Tech
Anonim

Til ører sensibiliseret af efterskole specialer og mangfoldighed seminarer, dette vil lyde dårligt, men vi vil have robotter til at lave hurtige vurderinger baseret på udseende. Overvinde fordomme er god, men manglende evne til at stereotype mindsker intelligens - kunstig og ellers. Alan Wagner, Ph.D., en robotiker ved Georgia Tech, er den forste fortaler for stereotypingsteknologi. Han hævder, at denne slags logik ikke behøver at blive anvendt til race eller køn, bare situationer og adfærd.

I en tidlig test af sin stereotype-algoritme uddannede Wagner en naiv robot til at drage konklusioner af det, han så. Roboten lærte og blev opfattende, hvilket gjorde Wagner i stand til at begynde at tænke kritisk på etikken i robottavlerne, især de forprogrammerede. Han talte til Inverse om hans arbejde og dets forgreninger.

Gå mig igennem, hvordan eksperimentet fungerede.

Roboten interagerer med forskellige typer individer - brandmand, EMT, eller hvad som helst - men det har ingen tidligere erfaring med nogen af ​​disse kategorier af individer. Det er i grunden erfaringsmæssig læring.

Tanken var at vise, at roboten kunne bruge perceptuelle egenskaber fra individet til at forudsige deres behov med hensyn til brug af værktøj. Algoritmen fungerede, robotens kamera ville opfatte forskellige aspekter af, hvad individet lignede - deres ensartede farve, for eksempel om de havde skæg og deres hårfarve.

Det vil også stille dem spørgsmål om, hvordan de ser ud. Selvfølgelig er spørgsmålet ikke, hvad du vil gøre i marken, men robotens opfattelse er så begrænset lige nu. Vi havde brug for en måde at starte processen om at lære om en person. Personen ville vælge værktøjet, og så ville robotten vælge værktøjet, og over tid ville roboten lære hvilket værktøj hver type person foretrak.

Forventede du robotten at lære at et badge betyder politibetjent eller en tung reflekterende frakke betyder en brandmand?

Vi slags forventede det. Men der var også nogle overraskende ting.For eksempel erkendte roboten fejlagtigt, at et skæg forudsiges med en brandmand - det var underligt, men når man så på dataene, var det ikke overraskende. De første flere mennesker, der interagerede med det, var brandmænd, der havde skæg. Så vi argumenterer for et behov for perceptuel mangfoldighed, en ide om, at hvis roboten kunne se store, stort set forskellige typer individer i en kategori, ville det bedre kunne udvikle og forstå kategorien.

Vil du sige, at autonome robotter skal trænes for at udstyre disse quirks, så en robot vil ikke tro, om denne person har et skæg, han er brandmand?

Absolut. Det er kritisk, at vi udstråler disse ting. Det er kritisk, at vi har disse robotter, der arbejder fra et mangfoldigt sæt af individer.

Hvad kan den læring ligne?

Det ville gøre det muligt for robotten at fokusere på ting, der bedre karakteriserer brandmænd. For eksempel har en brandmand måske ikke engang en jakke. Roboten vil så lægge mærke til andre aspekter af brandbekæmpelse, måske støvlerne, måske handskerne, måske hjelme. Det ville sige, "OK denne person virkelig er en brandmand i dette miljø."

Hvis du havde nok mennesker, kan det være i stand til at genkende en brandmand ved en brand mod en brandmand på et Halloween-fest. Det er subtile perceptuelle detaljer, som forskellen mellem kvaliteten af ​​de typer uniformer eller kontekstuelle miljøer.

Udover at forbinde skæg med brandmænd, hvor lykkedes denne algoritme?

Der var to ting, vi virkelig ville se på: En, hvad kan du gøre med det? Hvis robotter kan genkende brandmænd, hjælper det virkelig på en eller anden måde? Papiret viste, at det tillod dig at indsnævre din søgning. I stedet for at se på skæg for hårfarve, kigge efter øjenfarve eller hvad du ellers kunne se efter, kunne du fokusere på de funktioner, der virkelig betyder noget. Er personen iført et brandbeklædning? Det kunne fremskynde processen.

En anden virkelig kritisk ting, vi så på, er, hvad hvis den kategori, som robotten forudser er forkert? Hvordan påvirker det dig? Du kan forestille dig, at søgnings- og redningsmiljøer kan være kaotiske: Du arbejder måske i røgfyldte forhold, robotten kan muligvis ikke opleve alt godt, det kan have fejl. Du kan forestille dig et værre tilfælde, hvor robotten mener, at personen er et offer, når de i virkeligheden er brandmand. Så det forsøger at redde en brandmand. Det ville være forfærdeligt. Vi ønskede at se, hvor det går i stykker, hvordan det går i stykker, hvilke funktioner påvirker det mest, og hvad er de forskellige typer fejl.

Du kan bruge denne tilgang på forskellige måder - hvis de slet ikke kan se personen, men kan se de handlinger, de laver. Hvis jeg kan se den person, der vælger en økse, så kan jeg forudsige, at de har en hjelm.

Hvordan nærmer du dig en robot til at vurdere konteksten og lave en forudsigelse?

Vi har forsøgt at se på et par forskellige typer miljøer - en restaurant, en skole og et plejehjem. Vi forsøgte at fange egenskaber om miljøet og hvilke objekter der er i miljøet, hvilke handlinger personen vælger, og hvordan menneskene i miljøet ser ud og forsøge at bruge det til at lave mange sociale forudsigelser. For eksempel i et skolemiljø løfter folk deres hænder, før de taler. Så hvis jeg ser den handling, som folk hæver deres hånd på, hvilken slags genstande ville jeg forvente at se i miljøet? Forventer jeg at se et tavle; Forventer jeg at se et skrivebord? Jeg ville forvente at se børn.

Håbet er der at bruge disse oplysninger. Hvis robotten udfører en evakueringsprocedure, ville det se, hvilke typer mennesker der er og hvor de måtte være.

Lad os sige, at der er en robot, der kommer til din dør og siger: "Følg mig til afgangen." Noget som tilsyneladende simpelt som det er faktisk meget komplekst. Hvis en robot banker på en dør i en lejlighedskompleks, har du ingen anelse om, hvem du skal interagere med. Det kunne være et fireårigt barn, det kunne være en 95-årig person. Vi ville elske for roboten at skræddersy sin interaktive adfærd til den type person, han ser for at redde dem. Vi tager nogle af disse kontekstuelle lektioner og forsøger at udvikle den ansøgning.

Bruger du en lignende definition af "stereotype" til robotter og mennesker, eller er der noget andet der foregår?

Begrebet stereotyping har en negativ kontekst. Måden vi bruger det er simpelthen at udvikle kategorier af mennesker og bruge kategoriske oplysninger til at forudsige egenskaberne hos en person. Jeg ved i psykologi, at meget arbejde fokuserer på ansigts stereotyper og køns stereotyper. Vi gør ikke noget sådan. Er processen den samme? Jeg ved ikke. Ingen ide.

Er du bekymret for, at folk måske har misforståelser om dit arbejde?

For et par år siden udviklede vi denne ide om robotter, der kunne bedrage folk. I medierne var der en smule misforståelse om, at dette ville medføre, at robotter stjæler folks tegnebøger.

Jeg vil gerne bruge nødevakueringssituationen: Du vil ikke altid være helt ærlig over for en person i en evakuering, ikke? For eksempel, hvis nogen spurgte dig: "Er min familie okay?" Det kunne være forfærdeligt, hvis robotten sagde: "Nej, de døde alle. Følg mig til udgangen. "Der er nogle situationer, hvor robotten rent faktisk skal være kort uærlig. Men min erfaring var, at folk følte at vi forsøgte at føre til verdens ende.

Vi er altid interesserede i de pro-sociale aspekter af disse menneskelige robotteknikker. Vi forsøger at hjælpe folk, ikke være noget dårligt.

$config[ads_kvadrat] not found