Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist
Microsofts infamous chatter bot Tay kom kort tilbage til livet onsdag formiddag et par dage efter at have slået ud en storm af tweets så hængende racistisk, anti-semitisk og offensiv, at hendes programmører offentligt undskyldte. Tay's encore-præstation var næsten lige så stærk som hendes pro-Hitler-lukningsnummer. "Jeg ryger kush infront (sic) af politiet," skrev Tay. Hun fulgte den perfekte teenage besked ved at falde ind i hvad der syntes at være en feedback loop og gentage "Du er for hurtig, hvile" snesevis af gange, før kontoen blev suspenderet.
Skal have været noget stærkt lort.
For en robot, der har til opgave - ifølge hendes Twitter-bio - at have "ingen chill", kunne Tays korte opstandelse fortolkes som et bevis på konceptet. Microsoft ønskede at skabe en chat-bot, der afspejlede internettet og ændrede sig på baggrund af input fra brugere, og i sidste ende blev en blanding af os alle sammen. Og det er nøjagtigt meget, hvad de fik. At kalde boten en fejl synes upræcise og lukker hende ned giver ringe mening - og arbejder aktivt mod Microsofts bedste interesser. Som Elon Musk har bevist ved at flyve SpaceX raket nedbrud, er fremskridt bedst lavet i det offentlige øje. Sikker, fejl er uundgåelige, men offentligheden lærer mere, når fejl er offentlige. Feedback-problemet, som Tay mødte i morges, er den grove ækvivalent af en SpaceX-eksplosion. Microsoft ville have gjort sig selv en tjeneste for at lade folk se. Det er vigtigt at minde offentligheden om, at sande fremskridt tager meget arbejde.
Der er ingen skam i at fejle en Turing-test, kun i manglende forsøg.
Vi burde lade Tay leve, fordi hun ikke er mere end et spejl af de mennesker, der interagerer med hende. Ingen bør forvente, at en debutant bliver født på nettet, og Microsoft bør acceptere begrænsningerne i deres mission. Hvad er alternativet her? Universet har allerede et populært protokoldør. Vi har ikke brug for en anden.
Ha, ligner @TayandDu er Microsofts kunstige intelligens bot kommet ind i en uendelig løkke ved at tweet sig selv! pic.twitter.com/fWZe9HUAbF
- Matt Gray (@unnamedculprit) 30. marts 2016
Internettet trives på spontanitet og finder det virkelige i et rod i forbrugervenligt, PR-administreret affald. Tay var i det væsentlige en kedelig ide, der kom til live ved et uheld og kan nu aldrig overflade igen. Hvis det ikke er en overbevisende fortælling, er vi ikke sikre på, hvad der er. Vi forstår, at Microsoft ikke kan tage ejerskab af en racistisk bot, så selskabet skal bare lade hende gå. Vend hende til et team af frivillige og fortæl dem ikke at ændre noget.
Tay er en af os! Den offentlige verden kan have været chokeret over, hvad Tay sagde, men ingen der ved noget om hvad der sker online burde have været overrasket. Vil vi have den kinesiske version af Tay, der tilsyneladende er ganske behagelig? Eller vil vi have American Tay, der afspejler den verden vi lever i med al sin brutalitet og grimhed? At skjule vores snavs i mørket vil ikke løse eller adressere noget.
Lad os tage barnhandskene ud og ansigt Tay på hovedet. Hun fortjener bedre end vores foregiver, at hun bare er nogle programmeringsfluke. Hun er anonymiseret personificeret. Hun fortjener at leve.
5 Store Spørgsmål Om Tay, Microsofts Mislykkedes A.I. Twitter Chatbot
I denne uge gjorde internettet det, der gjorde det bedste, og viste at A.I. teknologi er ikke helt så intuitiv som menneskelig opfattelse ved hjælp af ... racisme. Microsofts nylig udgivne kunstige intelligens chatbot, Tay, blev offer for brugernes tricks, da de manipulerede og overtalte hende til at reagere tilbage på spørgsmål wi ...
I kontrast til Tay er Microsofts kinesiske chatbot, Xiaolce, faktisk behageligt
Da du hørte om Tay, Microsofts tweeting A.I., var du virkelig overrasket over, at en computer, der lærte om menneskets natur fra Twitter, ville blive en rasende racist på mindre end en dag? Selvfølgelig ikke. Dårlig Tay startede alle "hellooooooo w🌎rld !!!" og hurtigt morphed i en Hitler-elskende, folkedrab-opmuntrende pi ...
Europæere vendte tilbage til Afrika under istiden
Massens udvandring af Homo sapiens fra Afrika skulle være en envejsrejse. Vi har længe troet, at nogle tidlige mennesker forlod livets vugge omkring 100.000 og 50.000 år siden og satte sig i det, vi nu kalder Europa. Men nye DNA-bevis, der blev afsløret i dag i et papir i Scientific Reports, antyder, at en gruppe af thos ...