OpenAI: Elon Musks tidligere firma ligger på randen af ​​en ny A.I. Era

$config[ads_kvadrat] not found

OpenAI - Non-profit AI company by Elon Musk and Sam Altman

OpenAI - Non-profit AI company by Elon Musk and Sam Altman
Anonim

OpenAI, den nonprofitorganisation, der forsker kunstig intelligens, der blev grundlagt af Elon Musk i 2016, har gjort store fremskridt - selv efter at Musk skiltes adskillige uenigheder om retningen. Forskere har udviklet systemer, der kan spille spil, skrive nyhedsartikler og flytte fysiske objekter med banebrydende niveauer af fingerfærdighed.

OpenAI har forårsaget kontroverser med sin forskning. I sidste uge annoncerede den udviklingen af ​​en sprogmodel, GTP2, der kan generere tekster med begrænsede beskeder. I betragtning af den menneskelige skriftlige prompte "Miley Cyrus blev fanget shoplifting fra Abercrombie og Fitch på Hollywood Boulevard i dag", producerede systemet en troværdig komplet historie, der fortsatte med "den 19-årige sanger blev fanget på kameraet eskorteret ud af butikken af sikkerhedsvagter."

Det skabte også denne originale historie om at tale enhjørninger baseret på en kort prompte:

"Jeg har ikke været tæt involveret med OpenAI i over et år og har ikke management eller bordovervågning," Musk kommenterede på Twitter i weekenden. "Jeg var nødt til at fokusere på at løse et smertefuldt stort antal tekniske og fremstillingsproblemer hos Tesla (især) og SpaceX. Desuden konkurrerede Tesla for nogle af de samme mennesker, da OpenAI & I ikke var enig i noget af, hvilket OpenAI-team ønskede at gøre. Tilføj det hele og det var bare bedre at dele veje på gode vilkår."

Virksomheden syntes oprindeligt at være en ideel måde for Musk at nå sine mål om at udnytte A.I. til gavn for menneskeheden. Iværksætteren har tidligere advaret om den "grundlæggende risiko" for civilisationen, der stammer fra supersmarte maskiner, og opfordrer regeringerne til at regulere "ligesom vi gør mad, narkotika, fly og biler."

Musk lovede $ 10 millioner for at starte firmaet i første omgang, og dets mission statement fokuserer på "opdage og vedtage vejen til sikker kunstig generel intelligens."

Det er ikke svært at se, hvordan programmer, der laver historier som den, der er delt af OpenAIs administrerende Greg Brockman, kunne bruges af et relativt lille antal mennesker til at påvirke udtalelser fra en mindre kyndig offentlighed.

En OpenAI-medarbejder udskrev denne AI-skriftlige stikprøve og sendte den i genbrugsbeholderen: http://t.co/PT8CMSU2AR pic.twitter.com/PuXEzxL7Xd

- Greg Brockman (@gdb) 14. februar 2019

"På grund af vores bekymringer over ondsindede applikationer af teknologien frigiver vi ikke den uddannede model," forklarede virksomheden i et blogindlæg. "Som et eksperiment i ansvarlig offentliggørelse frigiver vi i stedet en meget mindre model for forskere at eksperimentere med såvel som et teknisk papir."

Meddelelsen førte til bekymringer teknologien kunne bruges til at generere falske nyheder. Analytics Indien advarede om, at med det kommende indiske valg senere i år blev A.I. kunne forårsage kaos med den demokratiske proces. OpenAIs forskere siger selv, at i kombination med forskning i produktion af syntetisk lyd og video, "skal offentligheden generelt blive mere skeptisk over for tekst, de finder online."

Ryan Lowe, en A.I. videnskabsmand og tidligere OpenAI-praktikant, opsummerede truslen om et program som dette, der bruges til at skabe falske nyheder kortfattet i dette gennemgåede mellemliggende post:

…. Et automatiseret system kunne: (1) gøre det muligt for dårlige aktører, der ikke har ressourcer til at ansætte tusindvis af mennesker, til at drage store disinformationkampagner; og (2) drastisk øge omfanget af de informationskampagner, der allerede drives af statslige aktører.

Ikke alle OpenAIs forskning har vist sig så kontroversielt. Dactyl, afsløret juli 2018, kan tilpasse sig virkelige fysik til at manipulere genstande i den virkelige verden. Robothånden er meget kompleks, med 24 frihedsgrader, men systemet kan nemt bevæge objekterne rundt ved blot at bruge tre RGB-kameraer og robotthåndets koordinater.

Robot hånden udnytter de generelle formål forstærkning læring algoritmer bruges til at slå mennesker i videospil. "OpenAI Five" holdet gik ud mod et team af professionelle Dota 2 spillere i 2018. Systemet blev uddannet i 180 års spilværdier, idet man udnytter en spændende 128.000 processorkerner og 256 grafikprocessorer. Mens det slog et menneskeligt team af ex-professionelle og Twitch streamers, mislykkedes det mod professionelle spillere.

Musk brugte Dota 2 kampe for at gøre opmærksom på Neuralink, hans plan om at skabe et symbiotisk forhold med A.I. ved at forbinde menneskelige hjerner og undgå robotovertagelse:

Godt arbejde af @OpenAI. Har brug for den neurale grænseflade snart at aktivere human / AI symbiose.

- Elon Musk (@elonmusk) 6. august 2018

I sin meddelelse om tekstgeneratorer sagde OpenAI, at den planlægger at diskutere sin bredere strategi om seks måneder. Firmaet håber at gnist en nyanceret diskussion om farerne ved kunstig intelligens, et skridt, der kunne undgå nogle af de katastrofscenarier, som Musk forestiller. Selv selv indrømmer virksomheden, at det er "ikke sikker på, at" tilbageholdelse af tekstgeneratoren "er den rigtige beslutning i dag." Med et skis, der allerede er dannet mellem to store enheder, der advarer om farerne ved AI, er det usandsynligt, at lovgivere vil have en let tid i at udvikle løsninger.

$config[ads_kvadrat] not found