BSIs første robot kodeks for etik er forbudt A.I. fra Harming Mænd

$config[ads_kvadrat] not found

Det kunstige menneske

Det kunstige menneske
Anonim

Har androids drøm om harmoni med mennesker? De vil, hvis det britiske standarder institut (BSI) har noget at sige om det. Det Forenede Kongeriges førende forretningsstandardorganisation har udgivet en vejledning, der beskriver, hvordan robotter og robotsystemer bør tage hensyn til etiske.

"Så vidt jeg ved, er dette den første offentliggjorte standard for roboternes etiske design," fortæller Alan Winfield, robotikprofessor ved University of West England. Formynderen. "Det er lidt mere sofistikeret end det Asimovs love - det angiver i grunden hvordan man skal foretage en etisk risikovurdering af en robot."

Den fangstbetegnede BS 8611: 2016, prissat til £ 158 ($ 208), er rettet mod producenter for at hjælpe dem med at overveje, hvordan etik kan komme til spil i robotdesign. Det berømte eksempel er selvfølgelig Isaac Asimovs "Tre love of robotics", men den virkelige robotteori må muligvis have en mere kompleks fortolkning af kunstig moral end dem.

Alligevel starter BSI med det grundlæggende, som om ikke at designe robotter for at såre folk, forklarer dokumentet, hvordan grå områder kan opstå - som følelsesmæssig vedhæftning.

BSI dikterer ikke, om man bliver forelsket i en robot, er okay, men forklarer, at det kan være et problem at overveje. Dette kunne vise sig et nyt synspunkt længere nede i købet, når sexroboter udstyret med kunstig intelligens når markedet. For øjeblikket er BSI imidlertid mere bekymret over, at børn kan danne bindinger med robotter. Børn kan måske ikke forstå, at maskinerne er livløse objekter.

Reglerne kan virke som noget af ringe bekymring, indtil robotter bliver bevidste, men disse beslutninger skal foretages snarere end senere. Tidligere i måneden skitserede Tysklands transportminister tre regler, som vil komme til at definere landets bestemmelser om selvkørende biler. Maskinerne vil ikke være i stand til at diskriminere på grund af alder, for eksempel, hvilket betyder, at producenterne ikke må programmere førerløse biler til at køre ind i bestemte grupper af mennesker, hvis de kunne vælge under en nødsituation.

Bekymringer som disse vil komme i spil mere som tiden går videre og A.I. udviklere begynder at gribe med, hvordan man underviser robotter visse værdisystemer.

$config[ads_kvadrat] not found