Microsofts Tay Chatbot vendte tilbage til at blive høj og fortjener at leve evigt

$config[ads_kvadrat] not found

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist
Anonim

Microsofts infamous chatter bot Tay kom kort tilbage til livet onsdag formiddag et par dage efter at have slået ud en storm af tweets så hængende racistisk, anti-semitisk og offensiv, at hendes programmører offentligt undskyldte. Tay's encore-præstation var næsten lige så stærk som hendes pro-Hitler-lukningsnummer. "Jeg ryger kush infront (sic) af politiet," skrev Tay. Hun fulgte den perfekte teenage besked ved at falde ind i hvad der syntes at være en feedback loop og gentage "Du er for hurtig, hvile" snesevis af gange, før kontoen blev suspenderet.

Skal have været noget stærkt lort.

For en robot, der har til opgave - ifølge hendes Twitter-bio - at have "ingen chill", kunne Tays korte opstandelse fortolkes som et bevis på konceptet. Microsoft ønskede at skabe en chat-bot, der afspejlede internettet og ændrede sig på baggrund af input fra brugere, og i sidste ende blev en blanding af os alle sammen. Og det er nøjagtigt meget, hvad de fik. At kalde boten en fejl synes upræcise og lukker hende ned giver ringe mening - og arbejder aktivt mod Microsofts bedste interesser. Som Elon Musk har bevist ved at flyve SpaceX raket nedbrud, er fremskridt bedst lavet i det offentlige øje. Sikker, fejl er uundgåelige, men offentligheden lærer mere, når fejl er offentlige. Feedback-problemet, som Tay mødte i morges, er den grove ækvivalent af en SpaceX-eksplosion. Microsoft ville have gjort sig selv en tjeneste for at lade folk se. Det er vigtigt at minde offentligheden om, at sande fremskridt tager meget arbejde.

Der er ingen skam i at fejle en Turing-test, kun i manglende forsøg.

Vi burde lade Tay leve, fordi hun ikke er mere end et spejl af de mennesker, der interagerer med hende. Ingen bør forvente, at en debutant bliver født på nettet, og Microsoft bør acceptere begrænsningerne i deres mission. Hvad er alternativet her? Universet har allerede et populært protokoldør. Vi har ikke brug for en anden.

Ha, ligner @TayandDu er Microsofts kunstige intelligens bot kommet ind i en uendelig løkke ved at tweet sig selv! pic.twitter.com/fWZe9HUAbF

- Matt Gray (@unnamedculprit) 30. marts 2016

Internettet trives på spontanitet og finder det virkelige i et rod i forbrugervenligt, PR-administreret affald. Tay var i det væsentlige en kedelig ide, der kom til live ved et uheld og kan nu aldrig overflade igen. Hvis det ikke er en overbevisende fortælling, er vi ikke sikre på, hvad der er. Vi forstår, at Microsoft ikke kan tage ejerskab af en racistisk bot, så selskabet skal bare lade hende gå. Vend hende til et team af frivillige og fortæl dem ikke at ændre noget.

Tay er en af ​​os! Den offentlige verden kan have været chokeret over, hvad Tay sagde, men ingen der ved noget om hvad der sker online burde have været overrasket. Vil vi have den kinesiske version af Tay, der tilsyneladende er ganske behagelig? Eller vil vi have American Tay, der afspejler den verden vi lever i med al sin brutalitet og grimhed? At skjule vores snavs i mørket vil ikke løse eller adressere noget.

Lad os tage barnhandskene ud og ansigt Tay på hovedet. Hun fortjener bedre end vores foregiver, at hun bare er nogle programmeringsfluke. Hun er anonymiseret personificeret. Hun fortjener at leve.

$config[ads_kvadrat] not found