I kontrast til Tay er Microsofts kinesiske chatbot, Xiaolce, faktisk behageligt

$config[ads_kvadrat] not found

Azure Bot Service | Azure Chatbot Tutorial | Azure Certification Training | Edureka

Azure Bot Service | Azure Chatbot Tutorial | Azure Certification Training | Edureka
Anonim

Da du hørte om Tay, Microsofts tweeting A.I., var du virkelig overrasket over, at en computer, der lærte om menneskets natur fra Twitter ville blive en rasende racist på mindre end en dag? Selvfølgelig ikke. Dårlig Tay startede alle "hellooooooo w🌎rld !!!" og hurtigt morphed i en Hitler-elskende, folkedrab-opmuntrende stykke computer crap. Naturligvis undskyldte Microsoft for de forfærdelige tweets af chatbot med "zero chill." I den undskyldning understregede virksomheden, at den kinesiske version af Tay, Xiaoice eller Xiaolce giver en meget positiv oplevelse for brugere i stærk kontrast til dette eksperiment meget forkert.

Undskyldningen noter specifikt:

"I Kina bruges vores Xiaolce chatbot af omkring 40 millioner mennesker, glæder os over sine historier og samtaler. Den store oplevelse med XiaoIce førte os til at undre: Ville en AI som denne være lige så fængslende i et radikalt anderledes kulturmiljø? Tay - en chatbot oprettet for 18- til 24-årige i USA til underholdning - er vores første forsøg på at besvare dette spørgsmål."

Xiaolce blev lanceret i 2014 på micro blogging, tekst-baseret site Weibo. Hun gør hovedsageligt hvad Tay gjorde, hun har en "personlighed" og samler information fra samtaler på nettet. Hun har mere end 20 millioner registrerede brugere (det er flere mennesker end bor i delstaten Florida) og 850.000 tilhængere på Weibo. Du kan følge hende på JD.com og 163.com i Kina samt på App Line som Rinna i Japan.

Hun optrådte endda som en vejr reporter på Dragon TV i Shanghai med en menneskelig lydende stemme og følelsesmæssige reaktioner.

Ifølge New York Times, folk fortæller ofte hende "Jeg elsker dig" og en kvinde de interviewede sagde endda, at hun snakkes med A.I. når hun er i dårlig humør Så mens Tay, efter kun en dag online, blev en nazistisk sympatiser, tilbyder Xiaolce gratis terapi til kinesiske brugere. Hun gemmer brugerens humør og ikke deres information, så hun kan bevare et niveau af empati for den næste samtale. Kina behandler Xiaolce som en sød, adornende bedstemor, mens amerikanerne taler til Tay som en lillebarns søskende med begrænset intellekt. Afspejler dette kulturelle holdninger til teknologi eller A.I. Viser det sig, at kineserne er langt pænere end amerikanere generelt? Det er mere sandsynligt, at den store firewall i Kina beskytter Xiaolce mod aggression. Ytringsfrihed kan nogle gange give ubehagelige resultater, som Tay efter 24 timer på Twitter.

"Jo mere du snakker, jo smartere Tay bliver", skrev en dårlig dårlig sjæl på Microsoft i chatbots profil. Godt, når engelsktalende troller regerer internettet. På trods af disse resultater, siger Microsoft det ikke vil give ind i angrebene på Tay. "Vi vil forblive faste i vores bestræbelser på at lære af denne og andre erfaringer, da vi arbejder for at bidrage til et internet, der repræsenterer det bedste, ikke det værste af menneskeheden."

$config[ads_kvadrat] not found