Musk, Wozniak, Hawking, andre genier er imod autonome våben

$config[ads_kvadrat] not found

Elon Musk, Stephen Hawking Warn of Killer Robot Wars

Elon Musk, Stephen Hawking Warn of Killer Robot Wars
Anonim

I årtier har AK-47 været den dræbte maskine i valg i mange støvede hjørner af verden, fordi den er billig, holdbar og allestedsnærværende. De samme faktorer argumenterer for underskriverne af et åbent brev, der blev udgivet mandag fra Life Institute, og det er grunden til, at selvstyrende våben er farlige. Men hvad der adskiller kunstig intelligens våben fra Kalashnikovs er, at den autonome maskine kan "vælge og engagere mål uden menneskelig indgriben" - som i de forkerte hænder kunne begå grusomheder langt større end noget uberegneligt gevær.

Underskrivere har deres arbejde skåret ud for dem. Som mennesker er vi som helhed meget bedre til at reagere end at tænke. Store spillere har været langsomt til at sænke vores atomvåben (og bygge autonome droner, tænkning går, ville kræve en brøkdel af det maskineri, der går ud på at skabe en nuke); andre steder, landminer stadig dot årtier gamle slagmarker. Når en teknologi stod for at revolutionere krigsførelse - det være sig krybdyr eller naval dreadnoughts eller beriget uran - der er næsten aldrig ikke været et våben race.

FLI skelner mellem de droner vi har nu, piloteret fjernet af menneskelige hænder, og en robot tændt og overladt til sine egne mordiske enheder. Oprettelsen af ​​sidstnævnte ville udløse et globalt AI-våbenkamp, ​​som FLI hævder, og som Kalashnikovs historie demonstrerer, ville ikke ende godt:

Det vil kun være et spørgsmål om tid, indtil de vises på det sorte marked og i hænderne på terrorister, diktatorer, der ønsker at bedre kontrollere deres befolkning, krigsherrer, der ønsker at begå etnisk udrensning mv. Autonome våben er ideelle til opgaver som mord, destabiliserende nationer, dæmpende befolkninger og selektivt at dræbe en bestemt etnisk gruppe. Vi mener derfor, at et militært AI-våbenkapløb ikke ville være til gavn for menneskeheden. Der er mange måder, hvorpå AI kan gøre slagmarkerne mere sikre for mennesker, især civile, uden at skabe nye værktøjer til at dræbe mennesker.

Dette er lidt tunge. Og navnene bag denne advarsel er ikke din Skynet crackpots - de er skabere, ingeniører, forskere og filosoffer, der har hjulpet formet, hvad vores teknologi ser ud til i dag. En skive af navne omfatter: Apples Steve Wozniak, Skypes Jaan Tallinn, Harvard-fysikeren Lisa Randall, en som er den af ​​AI-forskere og robotister - herunder Stuart Russell, Barbara J. Grosz, Tom Mitchell, Eric Horvitz - skuespillerinden Talulah Riley, Noam Chomsky, Stephen Hawking.

Hawking har lidt på lidt af et pessimistisk bøjet i det seneste, og gentager også sine forudsigelser om farerne ved at møde udenjordisk liv. Han vil også svare på spørgsmål om dette brev og fremtiden for teknologi på Reddit denne uge - vi kan muligvis ikke styre fjendtlige udlændinge, men vi kan sætte "forskerne på forskere i spidsen for denne teknologi for at holde den menneskelige faktor foran og midt i deres innovationer."

Du kan også tilføje dit navn til brevet.

$config[ads_kvadrat] not found