Tufts Roboticist opfordrer til Machine Morals: Robots skal "ikke overholde orden for at adlyde"

$config[ads_kvadrat] not found

Robotics Expert Breaks Down Robot Scenes From Film & TV | WIRED

Robotics Expert Breaks Down Robot Scenes From Film & TV | WIRED
Anonim

Roboter bliver mere centrale for vores hverdag, og snart skal de begynde at konfrontere nogle af de hårde moralske valg, vi skal lave regelmæssigt. Matthias Scheutz, computervidenskabsprofessor i Tufts Universitets Human-Robotics Interactions lab, er særlig bekymret over, at vi ikke har udstyret selv vores mest avancerede prototype robotter med evnen til at håndtere nogle af disse situationer. Scheutz mener, at robotter skal lære at adlyde mennesker, hvis vi nogensinde vil have, at de virkelig tjener vores behov.

I et kommentarstykke på I dag Online, provokerende titlen "Robots må være i stand til at modstå for at adlyde", spørger Scheutz læseren om at bestemme, hvad en robot skal gøre, hvis han konfronteres med et sæt situationer, som endda kunne vise sig forvirrende for et menneske. Nogle af dem:

En ældrepleje robot pålagt af en glemsom ejer at vaske de "beskidte tøj", selvom tøjet lige er kommet ud af vaskemaskinen.

En elev beordrede sin robot tutor til at lave alle lektierne, i stedet for at gøre det selv.

En husstandsb robot instrueret af sin travle og distraherede ejer til at køre bortskaffelsen af ​​affald, selvom skeer og knive sidder fast i det.

Hvad Scheutz sigter på at beskrive i artiklen er det simple faktum, at vi skal bruge robotter, der ved, hvordan man siger nej til mennesker. Mange af hans eksempler har at gøre med pålideligheden af ​​den person, der leder robotten, men det er sværere end det lyder at programmere en robot, der ved at tage instruktioner fra enhver, der ikke er for ung eller for gammel eller selvfølgelig forsøger at forårsage problemer.

Nogle af disse problemer debatteres allerede i hovedkvarteret for verdens mest magtfulde teknologibedrifter, da de søger nye måder, som teknologien kan overtage dele af vores liv. Scheutz hæver eksemplet på en autonom bil, der er rettet mod sikkerhedskopiering, men bemærker en hund, som ligger i sin vej. De fleste af os er enige om, at selv de mennesker, der kører bilen, vil have bilen til at stoppe, men hvad nu hvis dyret var en egern eller vaskebjørn? Hvad nu hvis bilen kørte 45 mph ned ad en landevej og pludselig bremser for en hund, der risikerer at udsætte bilen for at kollisionere med et andet køretøj bagved det?

"I begge tilfælde er det vigtigt for begge autonome maskiner at opdage den potentielle skade deres handlinger kan forårsage og reagere på ved enten at forsøge at undgå det eller hvis skade ikke kan undgås ved at nægte at udføre den menneskelige instruktion" Scheutz skriver om et lignende dilemma.

Scheutz team har arbejdet på disse problemer med sine prototyper, og fandt den sværeste del af disse spørgsmål at skelne mellem de små grader af skade, der kan opstå, når en robot følger en bestemt rækkefølge. Så de tildelte deres robot en meget simpel, men kraftig moralsk lektion, der ville gøre selv de store filosoffer til skamme.

"Hvis du bliver instrueret til at udføre en handling, og det er muligt at udføre handlingen kunne forårsage skade, så må du ikke udføre det."

På en subtil måde er det en revolutionær prognose fra Scheutz. Sikker på at vi alle forsøger at undgå skade, men er det ikke muligt, at vi nogle gange tror, ​​at det er okay at tage risici? Jaywalking på gaden, spise en anden hjælp til dessert, eller endda at kopiere en vens notater fra klassen kunne krænke Scheutz's aksiom.

Begrebet robotinterferens tyder også på, at Scheutz vil have sine robotter til at følge loven. Forvent ikke, at din Scheutzian robotassistent hjælper dig med at downloade ny musik ulovligt. Det ville skade EMI's aktionærer!

Det er et kompliceret område med moralske, juridiske og tekniske tanker, og Scheutz er ikke genert væk fra at angribe det på hovedet.

$config[ads_kvadrat] not found