Coolplay Мини-автомобили 6 Little Cars Animal Die Cast Модель Автомобили Игрушки для девочек Маль..
Tre forskere ved Cornell Tech i New York City har opdaget, at slørede og pixelerede billeder ikke matcher kunstig intelligens. Selvom uklare billeder forbliver uforståelige for menneskelige øjne, og så synes at beskytte deres følsomme indhold, kan neurale netværk ofte fortælle præcis, hvem der er i det originale billede.
Med andre ord er mennesker ikke længere litmusprøven. Vi kan ikke længere spørge, om noget besejrer alle menneskers hjerner. A.I.s - selv simple A.I.s - kan overgå mennesker, så også besejre dem skal altid være en del af ligningen.
Cornell Tech forskernes undersøgelse fokuserede på at teste privatlivsbeskyttelsesalgoritmer, som slør eller pixelerer visse oplysninger eller dele af billeder. Tidligere betroede vi privatlivsbevarende software eller algoritmer implicit og fastslog, at de oplysninger, de skjulte, var sikre, fordi ingen human kunne fortælle hvem der var bag det digitale slør. Undersøgelsen viser, at den æra er forbi, og relaterede anonymiseringsmetoder vil heller ikke vare længe. Neurale netværk, der er opfyldt med disse privatlivsforanstaltninger, er uberørt.
Richard McPherson er en ph.d. kandidat i datalogi ved University of Texas, Austin, som fulgte sin professor, Vitaly Shmatikov, til Cornell Tech. Sammen med Reza Shokri demonstrerede de, at enkle neurale netværk kunne omdanne almindelige billedforvirringsteknikker. Teknikken er relativt usofistikeret, hvilket gør opdagelsen mere bekymrende: Disse er almindelige, tilgængelige metoder, og de var i stand til at besejre industristandarderne for obfuscation.
Neurale netværk er store, lagdelte strukturer af knuder eller kunstige neuroner, som efterligner hjernens grundstruktur. De er "baseret på en forenklet forståelse af, hvordan neuroner fungerer," fortæller McPherson Inverse. "Giv det noget input, og neuronen brænder eller fyrer ikke."
De er også i stand til at "lære" ved en grov definition af begrebet. Hvis du viser en feral (helt uuddannet) menneskelig noget "rødt" og fortæller dem at udvælge alle "røde" ting fra en spand, vil de kæmpe først men forbedre sig over tid. Også med neurale netværk. Maskinindlæring betyder blot at undervise i en computer for at vælge de "røde" ting, for eksempel fra en virtuel spand af varierede ting.
Sådan uddannede McPherson og firma deres neurale netværk. "I vores system skaber vi en model - en arkitektur af neurale netværk, et struktureret sæt af disse kunstige neuroner - og så giver vi dem en stor mængde forvirrede billeder," siger han. "For eksempel kan vi give dem hundrede forskellige billeder af Carol, der er blevet pixeleret, så et hundrede forskellige billeder af Bob, der er blevet pixeleret."
Forskerne mærker derefter disse pixelerede billeder, og fortæller således modellen, der er i hvert billede. Efter at have behandlet dette datasæt, ved netværket funktionelt, hvad Pixelated Bob og Pixelated Carol ser ud. "Vi kan så give det et andet pixeleret billede af Bob eller Carol uden etiketten," fortæller McPherson, "og det kan gætte og sige," Jeg tror, at dette er Bob med 95 procent nøjagtighed."
Modellen rekonstruerer ikke det forvirrede billede, men det faktum, at det er i stand til at besejre de mest almindelige og tidligere mest pålidelige anonymiseringsmetoder, er foruroligende i sig selv. "De kan finde ud af, hvad der bliver forvirret, men de ved ikke, hvad det oprindeligt lignede," siger McPherson.
Men de neurale netværk er stadig i stand til at gøre så langt bedre end mennesker. Da billederne var mest forvirrede ved hjælp af en industri-standard teknik, var systemet stadig over 50 procent nøjagtigt. For lidt mindre obfuscated billeder viste systemet sig bemærkelsesværdigt, med omkring 70 procent nøjagtighed. YouTubes norm for slørede ansigter mislykkedes fuldstændigt; selv de mest slørede billeder blev trounced af neurale netværk, som viste 96 procent nøjagtige.
Andre tidligere uformede data-, tekst- og billedanimeringsteknikker er ligeledes upålidelige. "Der var et arbejde i løbet af sommeren, der så på anonymiserende tekst ved hjælp af pixelation og sløring, og viste at de også kunne brydes," siger McPherson. Og andre gang-troværdige metoder kan også være på vej ud af døren. Selv om han ikke kender til ind-og-out af stemmeforvirringsteknikker, som dem, der blev brugt til anonyme tv-interviews, "ville han ikke blive overrasket", hvis neurale netværk kunne bryde anonymiseringen.
McPherson's opdagelse viser at "de privatlivsbeskyttelsesmetoder, vi havde tidligere, ikke er helt op til snus, især med moderne maskinlæringsteknikker." Med andre ord kodificerer vi os for irrelevans, træner maskiner til overgå os i alle riger.
"Efterhånden som maskinindlæringen vokser, vil denne bytte skifte til fordel for modstanderne," forskerne skrev.
Japansk virksomhed Debuts Privacy Visor, der scrambles ansigtsgenkendelse software
Bekymret for uønskede billeder, der kan knyttes til din identitet? Nå, måske skal du være. Digital ansigtsgenkendelse software har avanceret til det punkt, at gratis software eksisterer online, der kan binde dig tilbage til dit Facebook profilbillede med spændende nøjagtighed. Faktisk er det voksende kor af bekymring ab ...
Se Georgia Techs Mini Self-Driving Car Smid et drivspor
Computere bliver bedre til at gøre alle mulige komplicerede, sarte opgaver uden mennesker. Den store dille nu drejer sig om selvkørende biler, som kan revolutionere fragt og personlig transport. Men indtil nu har selvdrevende teknologi hovedsagelig været begrænset til nifty gaffeltrucks og hjælper folk med at ...
Hvordan Folk Hacker Google Billeder til at lave "Idiot" Vis Billeder af Trump
Som du sikkert har set på Twitter, er Google Image søgeresultater for "idiot" fulde af billeder af Donald Trump. Det er stort set nyhedsmediernes skyld, men Google nægter at adlyde at spille Gud med sine egne søgeresultater, selv når de er utroligt racistiske og antisemitiske.