GHOSTEMANE - AI (OFFICIAL VIDEO)
Når det drejer sig om at identificere eksistentielle trusler, der skyldes teknologiske innovationer, indkalder den populære fantasi visioner om Terminator, Matrixen, og Jeg, Robot - dystopier styret af robotoverherdere, der udnytter og udrydder folk en masse. I disse spekulative futures fører en kombination af superintelligens og onde hensigter computere til at udslette eller enslave menneskeheden.
En ny undersøgelse antyder imidlertid, at det vil være de banale ansøgninger af A.I. Det vil medføre alvorlige sociale konsekvenser inden for de kommende år. Rapporten - "Ondskabelig brug af kunstig intelligens" - der er skrevet af 26 forskere og forskere fra elituniversiteter og techfokuserede tænketanke, beskriver måder, som nuværende A.I. teknologier truer vores fysiske, digitale og politiske sikkerhed. For at bringe deres undersøgelse i fokus kiggede forskergruppen kun på teknologi, der allerede eksisterer eller plausibelt vil inden for de næste fem år.
Hvad undersøgelsen fandt: A.I. systemer vil sandsynligvis udvide eksisterende trusler, introducere nye og ændre karakteren af dem. Rapportens afhandling er, at teknologiske fremskridt vil gøre visse ondskab lettere og mere værdifulde. Forskerne hævder, at forbedringer i A.I. vil reducere mængden af ressourcer og ekspertise, der er nødvendige for at udføre nogle cyberangreb, og effektivt sænke hindringerne for kriminalitet:
Omkostningerne ved angreb kan sænkes af den skalerbare brug af AI-systemer for at fuldføre opgaver, der normalt kræver menneskelig arbejdskraft, efterretninger og ekspertise. En naturlig effekt ville være at udvide sættet af aktører, som kan udføre bestemte angreb, hvor meget de kan udføre disse angreb og sætte potentielle mål.
Rapporten giver fire anbefalinger:
1 - Politikere bør samarbejde tæt sammen med tekniske forskere for at undersøge, forebygge og afbøde potentielle ondsindede anvendelser af AI.
2 - Forskere og ingeniører inden for kunstig intelligens bør tage det dobbelte brug af deres arbejde seriøst, hvilket giver misbrugsmæssige hensyn til at påvirke forskningsprioriteter og normer og proaktivt nå ud til relevante aktører, når skadelige ansøgninger kan forudses.
3 - Best practices bør identificeres på forskningsområder med mere modne metoder til håndtering af problemer med dobbelt anvendelse, såsom datasikkerhed og importeres, når det er relevant for AI's tilfælde.
4 - Aktivt søge at udvide spektret af interessenter og domæneeksperter, der er involveret i drøftelserne af disse udfordringer
Hvordan A.I. kan gøre nuværende svindel smartere: Eksempelvis spyd phishing angreb, hvor kon kunstnere udgør som målets ven, familiemedlem eller kollega for at få tillid til og udtrække information og penge, er allerede en trussel. Men i dag kræver de en betydelig udgift af tid, energi og ekspertise. Som A.I. Systemerne stiger i sofistikation, og nogle af de aktiviteter, der kræves for et phishing-angreb, som at samle oplysninger om et mål, kan blive automatiseret. En phisher kunne derefter investere betydeligt mindre energi i hver gang og målrette flere mennesker.
Og hvis svindlere begynder at integrere A.I. ind i deres online grifter, kan det blive umuligt at skelne virkeligheden fra simulering. "Da AI udvikler sig yderligere, kan overbevisende chatbots fremkalde menneskelig tillid ved at engagere folk i længere dialoger og måske til sidst maskerer visuelt som en anden person i en videochat," siger rapporten.
Vi har allerede set konsekvenserne af maskingenereret video i form af Deepfakes. Da disse teknologier bliver mere tilgængelige og brugervenlige, bekymrer forskerne, at dårlige aktører vil formidle fremstillede fotos, videoer og lydfiler. Dette kan resultere i yderst vellykkede ærekampagner med politiske forandringer.
Ud over tastaturet: Og potentiel misdannelse er ikke begrænset til internettet. Når vi bevæger os mod vedtagelsen af autonome køretøjer, kan hackere anvende adversarielle eksempler til at narre selvkørende biler til at misperceive deres omgivelser. "Et billede af et stopskilt med nogle få pixel ændret på bestemte måder, som mennesker nemt kunne genkende som stadig et billede af et stopskilt, kan alligevel kategoriseres som noget helt andet af et AI-system," siger rapporten.
Andre trusler omfatter autonome droner med integreret ansigtsgenkendelse software til målretning, koordinerede DOS-angreb, der efterligner menneskelig adfærd og automatiserede hyperperspecifikke disinformationskampagner.
Rapporten anbefaler, at forskere overvejer potentielle ondsindede applikationer af A.I. samtidig med at udvikle disse teknologier. Hvis der ikke er iværksat tilstrækkelige forsvarsforanstaltninger, kan vi allerede have teknologien til at ødelægge menneskeheden, ingen krævende robotter kræves.
Videnskaben viser, at skræmmende film er faktisk 'blodskræmmende'
En vigtig del af enhver horror flick er det blodskræmmende skrig, som lader dig vide, at ting netop blev virkelige. Men mens folk har associeret ordet "blodskræmmende" med frygt siden middelalderen, har vi faktisk ikke haft nogen anelse skræmmende ting gør vores blod, godt, curdle. Metaforer skal svæve mod sandheden: A ...
Skræmmende film Grib din opmærksomhed ved at hakke din hjerne
Har du nogensinde efterladt en skræmmende filmoplevelse helt disorienteret? Det er fordi horrorfilm er de ultimative opmærksomhedshackere. Brug af scener fra Alien, Elendighed og klassiske Alfred Hitchcock-film, forskere, der publicerede i tidsskriftet Neurovidenskab, studerede effekten spænding har på hjernen. Viser sig at spændte scener trigger ...
Net Neutralitet Video af Ajit Pai Insults Alle, der betaler opmærksomhed
Ajit Pai, formand for Federal Communications Commission, udgav en video, der viser, hvordan netneutralitet ophævelse ikke vil tage væk fidget spinners og memes.