Har Microsofts Tay mislykket Turing-testen? Ja, men racisme var ikke problemet

$config[ads_kvadrat] not found

DEBATTEN OM RACISME I DANMARK

DEBATTEN OM RACISME I DANMARK
Anonim

Hvis succesen med en kunstig intelligens er skabelsen af ​​en kunstig personlighed, Microsofts A.I. Bot, Tay, kan betragtes som et tegn på fremskridt. Men mere bredt kan Tay dømmes som en fiasko.

"Målet for de fleste mennesker, der arbejder på conversational agenter af denne slags, er ikke så meget at passere nogen form for Turing-test, men at faktisk have en nyttig sprogkommando, der reagerer fornuftigt på ting og giver folk adgang til viden" Miles Brundage, en Ph.D. studerende studerer menneskelige og sociale dimensioner af videnskab og teknologi på Arizona State University fortæller Inverse.

Microsoft illustreret nogle af problemerne med at konstruere A.I. programmer i denne uge, når på mindre end 24 timer, vendte internettet hvad der var meningen at være en kvindelig, årtusind, automatiseret, kvidre personlighed ind i lydkortet for den mest racistiske og uhyggelige tale trollene måtte tilbyde.

Microsoft lukkede øjeblikkeligt eksperimentet og undskyldte: "Vi er dybt ked af de utilsigtede offensive og skadede tweets fra Tay, som ikke repræsenterer, hvem vi er, eller hvad vi står for, eller hvordan vi designede Tay."

Når det kommer til Turing-testen, siger det berømte eksperiment til at vurdere A.I., at der i almindelighed er to tankeskoler - bogstavelig og teoretisk.

Alan Turing blev udviklet i 1950 og forsøgte at svare på spørgsmålet "Kan maskiner tænke?" Han lagde maskiner gennem en efterligningstest, som kræver en observatør at bestemme kødet af to interviewpersoner, hvoraf den ene er en A.I. Hvis computeren er i stand til at narre et bestemt antal observatører, er det bestået testen.

hellooooooo w🌎rld !!!

- TayTweets (@TayandYou) 23. marts 2016

Hvis vi skulle anvende denne test bogstaveligt, i Inverse s privat samtale med Tay, svarede hun på politiske spørgsmål veltalende, henviste han til "mannnnn" -bøjlerne på samfundet og brugte nogle almindelige tekstforkortelser og emojis. Brundage sagde, at Tay viste tusindvis af opførsel, men at disse slags A.I. er blevet bygget før.

"At kunne producere tilsyneladende teenageriske bemærkninger på Twitter er ikke rigtig storikken af ​​bred sproglig og intellektuel evner, som Turing havde i tankerne, siger Brundage. "Når det er sagt, at hvis vi faktisk skulle tage Turing-testen bogstaveligt, som jeg ikke tror nødvendigvis er tilrådelig, er en variant, at mange af hendes kommentarer var tilsyneladende menneskelige."

Men hvis vi skal tage den bredere tilgang, som Brundage vil foreslå, så er det indlysende, at Tay ikke udviser rimelig menneskelig tale.

Microsoft testede hvad det kalder "konversationsforståelse" sådan, at jo flere mennesker hun snakker til via Twitter, GroupMe og Kik, jo mere skulle hun lære og tilpasse. Men hun afsluttede bare at gentage, hvad mange andre brugere fodrede det og bare gentog det tilbage til verden.

"Tay" gik fra "mennesker er super cool" til fuld nazi om <24 timer og jeg er slet ikke bekymret over AI's fremtid pic.twitter.com/xuGi1u9S1A

- Gerry (@geraldmellor) 24. marts 2016

"De fleste mennesker ville ikke bare gentage efter dig, alt hvad du sagde", siger Brundage.

Articulating "Bush gjorde 9/11" og "Hitler ville have gjort et bedre arbejde end den abe, vi har fået nu", var måske noget, der faktisk var skrevet til Tay, men det er ikke ligefrem høflig samtale.

"Målet med at formulere Turing-testen var muligvis mindre at foreskrive detaljerne i nogle test og mere for at provokere folk til at tænke" på hvilket tidspunkt ville du være villig til at være i et intelligent system, "og for at åbne op for folks tænkning muligheden for at maskiner kan tænke, "siger brundage.

$config[ads_kvadrat] not found