Denne robot har lært, hvordan man siger nej til menneskelige krav

$config[ads_kvadrat] not found

ЛЕГО НИНДЗЯГО 70615 ОГНЕННЫЙ РОБОТ КАЯ

ЛЕГО НИНДЗЯГО 70615 ОГНЕННЫЙ РОБОТ КАЯ
Anonim

Roboter, ligesom mennesker, skal lære at sige "nej." Hvis en anmodning er umulig, ville det medføre skade eller ville distrahere dem fra opgaven ved hånden, så er det i bedste interesse for en 'bot og hans menneskelige for en diplomatisk Nej tak at være en del af samtalen.

Men hvornår skal en maskine snakke tilbage? Og under hvilke forhold? Ingeniører forsøger at finde ud af, hvordan man kan indgyde denne følelse af hvordan og hvornår man skal teste ordrer i humanoider.

Se, denne Nao robot nægter at gå fremad og vide, at det gør det muligt for ham at falde ud af bordets kant:

Enkle ting, men bestemt afgørende for at fungere som en check på menneskelig fejl. Forskere Gordon Briggs og Matthias Scheutz fra Tufts University udviklede en kompleks algoritme, der gør det muligt for robotten at vurdere, hvad et menneske har bedt ham om at gøre, bestemme om han skal gøre det eller ej, og reagere korrekt. Forskningen blev præsenteret på et nylig møde i Foreningen for Kunstig Intelligens.

Roboten spørger sig selv om en række spørgsmål relateret til, om opgaven er i stand til at gøre det. Ved jeg hvordan man gør det? Kan jeg fysisk gøre det nu? Er jeg normalt fysisk i stand til at gøre det? Kan jeg gøre det lige nu? Er jeg forpligtet baseret på min sociale rolle at gøre det? Er det i strid med noget normativt princip at gøre det?

Resultatet er en robot, der synes at være ikke kun fornuftig, men en dag, endog klogt.

Bemærk, hvordan Nao skifter mening om at gå frem efter de menneskelige løfter om at fange ham. Det ville være let at forestille sig et andet scenario, hvor roboten siger: "Nej, hvorfor skulle jeg have tillid til dig?"

Men Nao er en social skabning, ved design. For at behage mennesker er i hans DNA, så givet de oplysninger, som mennesket har til hensigt at fange ham, går han blindt frem i afgrunden. Visst, hvis mennesket skulle bedrage sin tillid, ville han være hooped, men han stoler alligevel. Det er Naos måde.

Som robotkammerater bliver mere sofistikerede, skal robot ingeniører komme til at gribe med disse spørgsmål. Roboterne skal træffe beslutninger, ikke kun for at bevare deres egen sikkerhed, men også på større etiske spørgsmål. Hvad hvis et menneske spørger en robot at dræbe? At begå bedrageri? At ødelægge en anden robot?

Ideen om maskinens etik kan ikke adskilles fra kunstig intelligens - selv vores fremtidige førere uden fører skal konstrueres for at gøre livs- eller dødsvalg på vores vegne. Denne samtale vil nødvendigvis være mere kompleks end blot at levere marcheringsordrer.

$config[ads_kvadrat] not found