Vores robotassistenter lærer at ligge, og vi bør lade dem

$config[ads_kvadrat] not found

Парень который не любил мюзиклы

Парень который не любил мюзиклы
Anonim

Roboter viser sig at være temmelig gode menneskekammerater. Hvem ville ikke have en sød lille peber til at fortælle os vittigheder, give os komplimenter og generelt få os til at føle sig mindre alene i verden? Selv formløse robotter viser sig at være overraskende godt selskab. Tag Amazon Echo's Alexa, for eksempel. Hun er en robothjerne med en menneskelig stemme fanget inde i en lydhøjttalers krop, men hun er hjælpsom, og hvis du læser sine anmeldelser, er det klart, at hun er blevet som familie for mange brugere. Ville folk tænke anderledes, hvis hun løj? Hvad med om hun fortalte dig noget, virkelig du virkelig ikke ønskede at høre?

Tænk over det: Vi fortæller børn aldrig at fortælle en løgn, og at ærlighed er den bedste politik, og alligevel undgår vi, forvrider sandheden og direkte lyver for børn hele tiden. Dette lærer dem gennem vores handlinger, hvis ikke gennem vores ord, at det ikke handler om fuldstændig ærlighed, men om at lære de komplicerede sociale regler om hvornår og hvordan man afslører eller skjuler potentielt følsomme oplysninger. Programmeringsroboter til at overholde disse sociale regler kan være en vanskelig, men nødvendig del af den igangværende automatiske innovationsproces.

Her er et eksempel: Jeg var hos min svogers hus den anden weekend, og jeg gik til butikken for at få fat i smørbrød til alles frokost. Min seksårige niece hjalp mig med at lægge maden ud, mens alle andre var ude af køkkenet, og hun spurgte mig, hvor meget dagligvarer havde kostet. Jeg fortalte hende, fordi lære børn om værdien af ​​penge er en god ting.

Ved frokostbordet bad hun mig om at fortælle alle, hvor meget dagligvarer havde kostet. Jeg sagde nej."Hvorfor?" Hun spurgte, virkelig forvirret, hvorfor et spørgsmål jeg havde svaret frit nogle få minutter tidligere var nu hemmelig information. "Det er ikke høfligt," sagde jeg og forklarede, at fordi hun er et barn, er reglerne forskellige, når vi er alene. Jeg lærte hende, at ærlighed og åbenhed har en tid og et sted. Oplysninger vil i en menneskelig kontekst altid være fri.

Det er det samme med robotter. Vi tror, ​​at vi ikke vil have vores robotter til at lyve for os, men vi vil faktisk have dem til at lære de komplicerede sociale regler af høflighed og skøn, der nogle gange nødvendiggør forvrængninger af sandheden. Og de lærer allerede, hvordan man gør det. Tag dette korte klip af Pepper i samspil med en reporter, for eksempel:

Den første ting ud af Pepper's mund er et kompliment: "Så, du er meget smuk. Er du en model?"

Reporteren er flot nok, men Peppers spørgsmål er ikke helt ærlig. Vi forstår, at Pepper faktisk ikke spekulerer på, om han er en model, og er blevet programmeret til at sige gode ting, uanset hvad en person ligner.

Snart efterspørger Pepper et lån ude af det blå. Det er et uhøfligt spørgsmål, en indiskretion, som vi let tilgiver en robot for, ligesom vi ville et barn. Reporteren kunne have påpeget, at spørgsmålet er uhøfligt, foreslog, at robotter ikke har brug for penge eller indrømmede, at han ikke havde nogen interesse i at overføre $ 100 til Pepper. Hele sandheden er, at reporteren kunne lån robotten pengene, men forstår at selve spørgsmålet er lidt af et spil. Hvad han vælger at sige er en afbøjning, og enten en hvid løgn eller en halv sandhed - han har ikke penge på ham. Håbet er, at robotten forstår dette som en mild "nej" og ikke tyder på, at reporteren går til en pengeautomat og trækker en tilbagetrækning. Fordi Pepper åbenbart har en vis social nåde, slutter spørgsmålet.

Social robotter er programmeret til at lære sociale tegn, og det er en god ting - det vil i sidste ende gøre dem bedre til vores job. Opgaven for programmører er ikke at udstyre alle robotbedrag, men at tilføje funktioner, der gør det lettere for robotter at træffe beslutninger om passende svar.

Når robotter er vores confidantes, skal de have bevidsthed om kontekst og publikum. Hvis jeg for eksempel prøver på tøj hjemme, for eksempel vil jeg gerne have en ærlig vurdering af, hvordan smigrende de forskellige muligheder er. Hvis jeg er ude på en fest og pludselig er selvbevidst, at jeg har valgt den forkerte kjole, vil forsikringen om at jeg ser fint ud, være det mest hjælpsomme svar.

Roboter vil lære mange personlige oplysninger om deres ledsagere, og det vil være vigtigt for dem at forstå forskellen mellem fortrolige oplysninger og offentlige oplysninger, og også være opmærksom på, hvem der lytter, når det taler. Spørgsmål vil have forskellige svar afhængigt af hvem der spørger. Roboter opfører sig anderledes, når gæsterne er i hjemmet.

Roboter, som børn, har brug for ansvarlig forældre. Det betyder, at både robotprogrammører og robotejere skal tænke dybt om de etiske og sociale konsekvenser af vores A.I. interaktioner. Men det betyder ikke krævende perfekt ærlighed - alvorligt, ingen ønsker det.

$config[ads_kvadrat] not found