A.I. Rapid Advance bør være skræmmende, hvis du betaler opmærksomhed

$config[ads_kvadrat] not found

GHOSTEMANE - AI (OFFICIAL VIDEO)

GHOSTEMANE - AI (OFFICIAL VIDEO)
Anonim

Når det drejer sig om at identificere eksistentielle trusler, der skyldes teknologiske innovationer, indkalder den populære fantasi visioner om Terminator, Matrixen, og Jeg, Robot - dystopier styret af robotoverherdere, der udnytter og udrydder folk en masse. I disse spekulative futures fører en kombination af superintelligens og onde hensigter computere til at udslette eller enslave menneskeheden.

En ny undersøgelse antyder imidlertid, at det vil være de banale ansøgninger af A.I. Det vil medføre alvorlige sociale konsekvenser inden for de kommende år. Rapporten - "Ondskabelig brug af kunstig intelligens" - der er skrevet af 26 forskere og forskere fra elituniversiteter og techfokuserede tænketanke, beskriver måder, som nuværende A.I. teknologier truer vores fysiske, digitale og politiske sikkerhed. For at bringe deres undersøgelse i fokus kiggede forskergruppen kun på teknologi, der allerede eksisterer eller plausibelt vil inden for de næste fem år.

Hvad undersøgelsen fandt: A.I. systemer vil sandsynligvis udvide eksisterende trusler, introducere nye og ændre karakteren af ​​dem. Rapportens afhandling er, at teknologiske fremskridt vil gøre visse ondskab lettere og mere værdifulde. Forskerne hævder, at forbedringer i A.I. vil reducere mængden af ​​ressourcer og ekspertise, der er nødvendige for at udføre nogle cyberangreb, og effektivt sænke hindringerne for kriminalitet:

Omkostningerne ved angreb kan sænkes af den skalerbare brug af AI-systemer for at fuldføre opgaver, der normalt kræver menneskelig arbejdskraft, efterretninger og ekspertise. En naturlig effekt ville være at udvide sættet af aktører, som kan udføre bestemte angreb, hvor meget de kan udføre disse angreb og sætte potentielle mål.

Rapporten giver fire anbefalinger:

1 - Politikere bør samarbejde tæt sammen med tekniske forskere for at undersøge, forebygge og afbøde potentielle ondsindede anvendelser af AI.

2 - Forskere og ingeniører inden for kunstig intelligens bør tage det dobbelte brug af deres arbejde seriøst, hvilket giver misbrugsmæssige hensyn til at påvirke forskningsprioriteter og normer og proaktivt nå ud til relevante aktører, når skadelige ansøgninger kan forudses.

3 - Best practices bør identificeres på forskningsområder med mere modne metoder til håndtering af problemer med dobbelt anvendelse, såsom datasikkerhed og importeres, når det er relevant for AI's tilfælde.

4 - Aktivt søge at udvide spektret af interessenter og domæneeksperter, der er involveret i drøftelserne af disse udfordringer

Hvordan A.I. kan gøre nuværende svindel smartere: Eksempelvis spyd phishing angreb, hvor kon kunstnere udgør som målets ven, familiemedlem eller kollega for at få tillid til og udtrække information og penge, er allerede en trussel. Men i dag kræver de en betydelig udgift af tid, energi og ekspertise. Som A.I. Systemerne stiger i sofistikation, og nogle af de aktiviteter, der kræves for et phishing-angreb, som at samle oplysninger om et mål, kan blive automatiseret. En phisher kunne derefter investere betydeligt mindre energi i hver gang og målrette flere mennesker.

Og hvis svindlere begynder at integrere A.I. ind i deres online grifter, kan det blive umuligt at skelne virkeligheden fra simulering. "Da AI udvikler sig yderligere, kan overbevisende chatbots fremkalde menneskelig tillid ved at engagere folk i længere dialoger og måske til sidst maskerer visuelt som en anden person i en videochat," siger rapporten.

Vi har allerede set konsekvenserne af maskingenereret video i form af Deepfakes. Da disse teknologier bliver mere tilgængelige og brugervenlige, bekymrer forskerne, at dårlige aktører vil formidle fremstillede fotos, videoer og lydfiler. Dette kan resultere i yderst vellykkede ærekampagner med politiske forandringer.

Ud over tastaturet: Og potentiel misdannelse er ikke begrænset til internettet. Når vi bevæger os mod vedtagelsen af ​​autonome køretøjer, kan hackere anvende adversarielle eksempler til at narre selvkørende biler til at misperceive deres omgivelser. "Et billede af et stopskilt med nogle få pixel ændret på bestemte måder, som mennesker nemt kunne genkende som stadig et billede af et stopskilt, kan alligevel kategoriseres som noget helt andet af et AI-system," siger rapporten.

Andre trusler omfatter autonome droner med integreret ansigtsgenkendelse software til målretning, koordinerede DOS-angreb, der efterligner menneskelig adfærd og automatiserede hyperperspecifikke disinformationskampagner.

Rapporten anbefaler, at forskere overvejer potentielle ondsindede applikationer af A.I. samtidig med at udvikle disse teknologier. Hvis der ikke er iværksat tilstrækkelige forsvarsforanstaltninger, kan vi allerede have teknologien til at ødelægge menneskeheden, ingen krævende robotter kræves.

$config[ads_kvadrat] not found