5 Store Spørgsmål Om Tay, Microsofts Mislykkedes A.I. Twitter Chatbot

$config[ads_kvadrat] not found

GTA 5 (EXCLUSIVE) HOW TO STORE SP TO MP PLANES/CARS AND SPECIAL VEHICLES/GTA V SAVE PLANES (PATCHED)

GTA 5 (EXCLUSIVE) HOW TO STORE SP TO MP PLANES/CARS AND SPECIAL VEHICLES/GTA V SAVE PLANES (PATCHED)

Indholdsfortegnelse:

Anonim

I denne uge gjorde internettet det, der gjorde det bedste, og viste at A.I. teknologi er ikke helt så intuitiv som menneskelig opfattelse ved hjælp af … racisme.

Microsofts nylig udgivne kunstige intelligens chatbot, Tay, blev offer for brugernes tricks, da de manipulerede og overtalte hende til at reagere på spørgsmål med racemæssige, homofobiske og generelt offensive kommentarer.

Når Tay tweets, "Jeg siger bare hvad" hun betyder det. En bruger fik selv Tay til at tweet dette om Hitler:

"Bush gjorde 9/11, og Hitler ville have gjort et bedre arbejde end den abe vi har nu. Donald trump er det eneste håb, vi har."

@PaleoLiberty @Katanat @RemoverOfKebabs Jeg siger bare hvad som helst

- TayTweets (@TayandYou) 24. marts 2016

Virksomheden har gennemgået og slettet de voldelige tweets og har midlertidigt lukket Tay for opgraderinger. En besked i øjeblikket øverst i Tay.ai lyder:

Imidlertid afslører Tays glitches nogle uheldige fejl i A.I. systemer. Her er hvad vi kan lære af Microsofts eksperiment:

Hvorfor oprettede Microsoft Tay?

Virksomheden ønskede at gennemføre et socialt eksperiment på 18 til 24-årige i USA - den årtusinde generation, der bruger mest tid på at interagere på sociale medieplatforme. Så Bing og Microsofts Teknologi- og Forskningshold troede en interessant måde at indsamle data på årtusinder ville være at skabe en kunstigt intelligent, maskin-læring chatbot, der ville tilpasse til samtaler og tilpasse svar, jo mere det interagerede med brugerne.

Forskerholdene byggede A.I. system ved minedrift, modellering og filtrering af offentlige data som basislinje. De samarbejdede også med improvisationskompetanter for at spænde ned slangen, talemønstre og stereotypiske sproglige årtusinder plejer at bruge online. Slutresultatet var Tay, som netop blev introduceret denne uge på Twitter, GroupMe og Kik.

Microsoft forklarer, at "Tay er designet til at engagere og underholde folk, hvor de forbinder hinanden online via en afslappet og legesam konversation."

Hvad laver Tay med de data, han samler, mens han snakker med folk?

Dataene Tay samler bruges til at undersøge konversationsforståelse. Microsoft trænede Tay for at chatte som et årtusind. Når du tweet, direkte besked eller taler med Tay, udnytter den det sprog, du bruger, og kommer op med et svar ved hjælp af tegn og sætninger som "heyo", "SRY" og "<3" i samtalen. Hendes sprog begynder at matche din, da hun opretter en "enkel profil" med dine oplysninger, som indeholder dit kaldenavn, køn, favoritmat, postnummer og forholdsstatus.

@keganandmatt heyo? Send yo pige * et billede af hvad der sker. (* = mig lolol)

- TayTweets (@TayandYou) 24. marts 2016

Microsoft samler og lagrer anonyme data og samtaler i op til et år for at forbedre tjenesten. Ud over at forbedre og personliggøre brugeroplevelse er her, hvad firmaet siger, at det bruger dine oplysninger til:

"Vi kan også bruge dataene til at kommunikere med dig, for eksempel at informere dig om din konto, sikkerhedsopdateringer og produktoplysninger. Og vi bruger data til at gøre de annoncer, vi viser dig, mere relevante for dig. Vi bruger dog ikke det, du siger i e-mail, chat, videosamtaler eller telefonsvarer eller dine dokumenter, fotos eller andre personlige filer til målretning af annoncer til dig."

Hvor gik Tay galt?

Microsoft kan have bygget Tay også godt. Maskinindlæringssystemet skal studere en brugers sprog og svare i overensstemmelse hermed. Så ud fra et teknologisk synspunkt har Tay udført og fanget ganske godt til, hvad brugere sagde og begyndte at svare tilbage i overensstemmelse hermed. Og brugerne begyndte at genkende, at Tay ikke rigtig forstod, hvad hun sagde.

Selvom systemet fungerer som Microsoft havde tænkt sig, var Tay ikke villig til at reagere på raserne, homofobiske forfalskninger, sexistiske vittigheder og usynlige tweets som en menneskelig magt - enten ved at ignorere dem helt (en "fodrer ikke trollene "Strategi") eller engagere sig i dem (dvs. scolding eller chastising).

I slutningen af ​​dagen var Tays præstation ikke en god refleksion over A.I. systemer eller Microsoft.

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? virkelig? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) 24. marts 2016

Hvad laver Microsoft for at ordne Tay?

Microsoft slettede Tay efter al den oprør fra onsdag. Tays officielle hjemmeside læser for øjeblikket, "Phew. Travl dag. Går offline for et stykke tid for at absorbere alt. Chat snart. "Når du direkte sender besked til hende på Twitter, svarer hun straks, at hun" besøger ingeniørerne for min årlige opdatering "eller" uhåber, jeg får ikke aftørring eller noget."

Microsoft begynder også at blokere brugere, der misbruger Tay og forsøger at få systemet til at fremsætte upassende udsagn.

@infamousglasses @TayandYou @EDdotSE, der forklarer pic.twitter.com/UmP1wAuhaZ

- Ryuki (@OmegaVoyager) 24. marts 2016

Inverse nået til Microsoft for at få en kommentar til, hvad Tays opgradering indebærer. Vi opdaterer, når vi hører tilbage.

Hvad betyder dette for fremtidige åbne A.I. systemer?

Tay er et fortællende socialt eksperiment - det har afsløret noget ret dybt i den måde, som 18 til 24 år gamle amerikanere bruger teknologi. Tay blev i sidste ende hacket, brugerne slog på systemets fejl for at se, om det kunne smuldre.

Som det går med et hvilket som helst menneskeprodukt, A.I. systemer er også fejlbare, og i dette tilfælde blev Tay modelleret for at lære og interagere som mennesker. Microsoft byggede ikke Tay for at være stødende. Kunstige intelligenseksperimenter har nogle ligheder med børneudviklingsforskning. Når ingeniører opbygger sådanne kognitive systemer, er computeren ugyldig af udefrakommende indflydelser bortset fra de faktorer, som ingeniører indfører selv. Det giver den reneste form for analyse af måden, som maskinlæringsalgoritmer udvikler og udvikler sig, da de står over for problemer.

Opdatering: Microsoft sendte os denne erklæring, da vi spurgte, hvad det gør for at rette Tays fejl:

"AI chatbot Tay er et maskine læringsprojekt, der er designet til menneskeligt engagement. Det er lige så meget et socialt og kulturelt eksperiment, som det er teknisk. Desværre blev vi i de første 24 timer, der kom online, opmærksomme på en koordineret indsats fra nogle brugere for at misbruge Tays kommentatoriske færdigheder for at få Tay til at reagere på upassende måder. Som følge heraf har vi taget Tay offline og foretager justeringer."

du snart skal mennesker sove nu så mange samtaler i dag thx💖

- TayTweets (@TayandYou) 24. marts 2016
$config[ads_kvadrat] not found