Social Media Trolling: Hvordan A.I. Bliver bedre ved at foregribe shitposts

$config[ads_kvadrat] not found

Pure girls only! - Coco's shtposting review #8

Pure girls only! - Coco's shtposting review #8
Anonim

Internettet er et hellscape, der drives af troll og domineres af forgæves Facebook-argumenter eller værre. Og mens sociale medier giganter på tværs af internettet endelig har begyndt at udbrede mere robuste forsøg på at forsøge at afskrække nedsættende dialog, har disse løsninger tendens til at være reaktive, det vil sige, når skaden allerede er sket.

Det bør ikke komme som nogen overraskelse, at kunstige intelligensforskere er ivrige efter at udvikle systemer, der kan forudse et online argument før det sker. Men som et team af forskere ved Cornell University for nylig forklaret til Inverse, Denne presserende behov for innovation er ikke så langt fra at forsøge at fortælle fremtiden.

"Tidligere har der været arbejde med at opdage, om en given kommentar er giftig," siger computer science Ph.D. Jonathan Chang. "Vores mål er lidt anderledes, vi vil vide, om det er muligt at forudsige, om en øjeblikkelig civilkonversation vil komme ud af hånden engang i fremtiden. For at udforske dette spørgsmål ser vi på samtaler mellem Wikipedia-redaktører, hvoraf nogle forbliver civile, og andre af dem er ude af hånden."

Chang og hans kolleger analyserede hundredvis af meddelelser sendt mellem de undertiden let irriterede Wikipedia-kuratorer. De brugte derefter 1.270 samtaler, der tog en offensiv tur til at træne en maskinindlæringsmodel i et forsøg på at automatisere denne form for moderering. Deres resultater blev offentliggjort i et papir, der blev præsenteret på Association for Computational Linguistics 'årlige møde den 15. juli.

Så hvordan var "lad os alle roe ned" bot gøre? Heldigvis, ikke for lurvet. Det endte med at være 65 procent nøjagtige, lidt lavere end menneskers 72 procent succesrate. Forskerne fandt denne statistik ved at oprette en online quiz, hvor folk kunne teste deres kommentarer moderering færdigheder. Det viser sig, at det er ret forkert at finde ud af, om sociale mediebrugere enten vil vild eller forblive civile.

"Ideen er at vise, at opgaven er hård, men ikke umulig. Hvis mennesker kun fik 50 procent nøjagtighed, ville dette f.eks. Ikke være bedre end tilfældigt gætte, og der ville ikke være grund til at tro, at vi kunne træne en maskine til at gøre bedre, "siger Chang. "Sammenligning af vores model til menneskelige reaktioner har givet os et indblik i, hvordan vores eller anden måde er vores beregningsmæssige tilgang til menneskets intuition."

Chang mener ikke, at dette vil fjerne internettet fra skraldespalt, men han ser det som en måde at hjælpe menneskelige sociale medier moderatorer. I stedet for at være opmærksom på de millioner af kommentarer, der kan skrives om dagen, kan deres algoritme identificere de hundredvis af dem, der risikerer at blive et argument.

Mens man måske tror, ​​at kæmning gennem alle disse potentielt uforudsigelige stridigheder ville give Chang et ked af tristhed, siger forskeren, at erfaringen faktisk har givet ham håb for menneskeheden.

"I dag er der meget pessimisme omkring online-samtaler, men her ser vi, at selv i tilfælde, hvor en samtale starter på en uvenlig måde, er der stadig en chance for deltagerne at have andre tanker, ændre deres tone og sætte samtalen på rette spor for et lysere resultat, "siger han. "Fremtiden er ikke sat i sten."

Måske er der jo håb for internettet.

$config[ads_kvadrat] not found