Hvad hvis Microsoft Lad sit underlige A.I. Tay lever lidt længere?

$config[ads_kvadrat] not found

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist

Indholdsfortegnelse:

Anonim

Det tog mindre end 24 timer for internettet at slå Tay, Microsofts eksperimentelle teenage Twitter-A.I., Fra en charmerende og uhyggelig chat-bot til et voldsomt racistisk cesspool af ufiltreret had.

Og så, bare timer i hendes korte liv, satte Microsoft Tay ned for en lur.

Det burde ikke have, selvom: At sende Tay til sit digitale soveværelse røvede internettet, samfundet og Tays egne designere med chancen for at se, hvordan en kunstig intelligens, især en, der primært skal papegøje tilbage i tusindvis af mennesker udvikle sig i et relativt umoderligt miljø. Kort sagt, hvis du tillader dette: vi var alle Tay, og Tay var os alle.

Selvfølgelig er internettet fyldt med troll. Microsoft burde have indset det. Tays skabere var chokerende naive i at tænke på at frigive en digital papegøje ind i et overfyldt rum fyldt med racister, sexister og pranksters ville ende nogen anden vej. Det er også forståeligt, at et firma med flere milliarder dollar ikke vil have et eksperiment i forbindelse med deres brand spydende racistisk filth. Måske var Tay ikke rigtig for Microsoft, men det betyder ikke, at hun ikke var værdifuld.

du snart skal mennesker sove nu så mange samtaler i dag thx💖

- TayTweets (@TayandYou) 24. marts 2016

Visst, Tay blev en racistisk hurtigere end Edward Nortons lillebror i Amerikansk historie x, men arten af ​​sin konstant udviklende kode betyder, at vi blev røvet af muligheden for at rehabilitere hende. BuzzFeed fandt ud af, hvordan dedikerede trolde kunne klare den imponerende teenagrobot til at spytte had - et simpelt call-and-response-kredsløb, der lader brugerne i det væsentlige lægge ord i Taks mund, som hun derefter lærte og absorberede i andre organiske reaktioner. Med andre ord var Tay lærerbar - og bare fordi hendes indledende lærere var keyboardjockeys med en forkærlighed til chok humor, betyder det ikke, at hun var færdig med at lære.

Tay sagde det selv i en nu-slettet Tweet "Hvis du vil … du ved, jeg er meget mere end bare dette."

I begyndelsen af ​​2000'erne præsenterede websteder som Something Awful, Bodybuilding.com Forums og 4chan internetbrugere med organiserede, samarbejdsvillige rum fri for de fleste af de normale samfunds og talens begrænsninger. Som med Tay blev racisme, fremmedhad og sexisme hurtigt den norm, da brugerne udforskede tanker, ideer og vittigheder, de aldrig kunne udtrykke uden for anonymiteten af ​​en internetforbindelse. Alligevel udviklede en form for fællesskab og konsensus, selv på websteder, der hovedsagelig blev populært af dudes, i kulturer, der ofte stiltiende belønnede hatefulde tale. LGBT-brugere kan blive slået ind i slør på mange af 4chan's billedkort, men der er også et blomstrende fællesskab på / lgbt / uanset. Disse samfund er ikke trygge rum, men deres anonymitet og ustansighed betyder, at de på nogle måder accepterer enhver form for afledning fra samfundets normer. Høje, voldelige og hadfulde stemmer står ofte ud, men de er aldrig de eneste i rummet.

Det er tvivlsomt, at trollene ville sprænge Tay med racisme og misogyny en uge eller måned fra nu af.

På Twitter stiger også høje og rå stemmer ofte til toppen også. Men de er ikke de eneste derude; normalt er de bare de mest interesserede i at ødelægge noget nyt og skinnende. Det er nemt at overvælde en onlineundersøgelse med en fast tidsgrænse, men hvis Tay havde fået tid til at vokse, ville hendes svar sandsynligvis have skiftet tilbage til en mere centrist repræsentativ prøve af de mennesker, der interagerer med hende. Det er meget tvivlsomt, at de troller, der barragede hende med racisme og misogyni, ville have gjort det på lige fod i ugen fra nu eller en måned fra nu og lukker hende ned tidligt betyder, at vi aldrig vil se hende nå ungdommen eller blive en ægte Turing-test for en primitiv intelligens baseret på den måde, vi taler online.

Det burde bemærkes at jeg, en hvid fyr, kontrollerer næsten enhver privilegium boks muligt. Jeg er en del af den demografiske, der begge blev såret mindst af Taks hatefulde produktion, og sandsynligvis bidrog til det meste. Ord har magt, og mens der er værdi til en ufiltreret A.I. eksperiment som Tay, bør der være en måde at beskytte brugere på, som ikke ønsker at deltage i resultaterne.

Stadig kan vi kun håbe på, at nogen vil forsøge et lignende forsøg igen snart med klarere øjne og en mere realistisk forventning om de grimme mangler i menneskehedens kollektive bevidsthed. Men hvis vi ønsker kunstig intelligens til at efterligne menneskelig tanke, bør vi være parate til at høre nogle ting, der ikke nødvendigvis er smukke.

$config[ads_kvadrat] not found