Her er hvordan vi kan stoppe fremtidige Rogue A.I. fra at imitere HAL 9000

$config[ads_kvadrat] not found

HAL 9000: "I'm sorry Dave, I'm afraid I can't do that"

HAL 9000: "I'm sorry Dave, I'm afraid I can't do that"
Anonim

Hvordan stopper vi en fremtid A.I. fra at ikke overholde ordrer og vælger at gå sin egen vej? Det kan lyde som plottet fra 2001: En Space Odyssey, men en ekspert hævder, at det er noget, vi måske allerede må begynde at tænke på. Sikker på, at vi kunne slukke for Google-søgealgoritmen, hvis det nogensinde gik rogue, men når det står over for økonomiske og juridiske konsekvenser, kan det være lettere sagt end gjort. I fremtiden, som vi bliver afhængige af mere avancerede A.I., kunne det vise sig umuligt.

"Denne algoritme er ikke bevidst designet sig selv at være umuligt at genstarte eller slukke, men det er også udviklet til at være den måde ", siger Stuart Armstrong, forsker ved Humanity Institute Future, på Pirat Summit 2016 på onsdag. Det betyder, at en ændring med utilsigtede resultater kan være svært at rette op, og det kan ikke være den første A.I. at finde sig i den situation.

Isaac Asimovs løsning var de tre love i robotikken, som hardt koder ideer som ikke forårsager skade på mennesker. Problemet er, at skaden er temmelig subjektiv og åben for fortolkning. Mennesker arbejder mere på værdier, som at forstå, at det er dårligt at forårsage skade og fortolke situationen, end at arbejde på en hård regel, at de aldrig skal skade.

"Det er på grund af denne slags problem, at folk er meget mere ivrige efter at bruge maskinindlæring til at få værdier i stedet for at forsøge at kode dem på denne traditionelle måde," sagde Armstrong. "Værdierne er stabile på en måde, at andre ting ikke er i A.I. Værdierne forsvarer sig selvstændigt."

Men selv i disse situationer er det vigtigt at designe A.I. at gøre dem afbrydelige, mens de kører. Sikker afbrydelse giver mulighed for sikre politiske ændringer, som kan forhindre utilsigtede konsekvenser fra lærte værdier. Hvis HAL 9000 nogensinde har forsøgt at stoppe podbådsdørene fra åbningen, er det vigtigt, at vi kunne identificere, at A.I.'s værdier er ødelagt og gribe ind uden at tage systemet offline.

$config[ads_kvadrat] not found