Kan Googles "overmenneskelige" neurale netværk virkelig fortælle placeringen af ​​ethvert billede?

$config[ads_kvadrat] not found

kon kan google bnadm part 2

kon kan google bnadm part 2
Anonim

At søge efter billeder er nemmere end nogensinde. Men hvis du forsøger at finde et billede af noget på et sted, der ikke er helt åbenlyst (så ikke de egyptiske pyramider eller den gigantiske tommelfingerskulptur i Paris), er det sværere end du tror - selv med geolocation informationen baseret på, hvad der er i billedet.

Indtast Google ingeniør ved navn Tobias Weyand og et par af hans kolleger. Ifølge et nyt papir i tidsskriftet arXiv (udtalet "arkiv") har trioen bygget en dyb learning-maskine, der kan identificere placeringen af ​​næsten ethvert foto baseret udelukkende på analyse af dets pixels.

For at få en maskine til at udføre en opgave som denne, vil du give det mulighed for at intuitere information baseret på visuelle spor. Du vil have det til at tænke, med andre ord som et menneske.

Weyand satte op om at udvikle et kunstigt neuralt netværk - et maskine system designet til at efterligne hjernens neurologiske veje, som gør det muligt at lære, behandle og genkende information som et menneske kunne. Dette nye system, PlaNet, er tilsyneladende i stand til at overgå mennesker til at bestemme placeringen af ​​billeder, uanset hvad indstillingen - hvad enten det er indendørs eller udendørs - og med enhver form for unikke eller ikke-beskrivende visuelle tegn.

Hvordan virker PlaNet? Weyand og hans team opdelte et kort over verden til et gitter, der lagde over 26.000 firkantede figurer på forskellige regioner afhængigt af hvor mange billeder der blev taget på disse steder. Tomme steder, hvor mange billeder bliver taget i form på et mindre firkant, mens større, mere fjerntliggende regioner kan skære i større firkanter.

Teamet oprettede derefter en stor database med billeder, der allerede er geolokeret - næsten 126 millioner forskellige billeder. Omkring 91 millioner blev brugt som datasæt til at lære PlaNet at finde ud af, hvilket billede der kunne placeres i hvilket net på verdenskortet.

Derefter blev det neurale netværk opdraget med geolocating de øvrige 34 millioner billeder fra databasen. Endelig blev PlaNet sat på et datasæt på 2,3 millioner geotagged billeder fra Flickr.

Resultaterne? PlaNet kunne bestemme oprindelseslandet for 28,4 procent af fotos og kontinentet for 48 procent. Desuden kunne systemet identificere en gadeplanplacering for 3,6 procent af Flickr-billederne og placeringen på byniveau for 10,1 procent.

Og PlaNet er bedre på dette end de fleste mennesker - selv de største globetrotters. Weyand tiltrådte 10 velbegrundede individer for at konkurrere mod PlaNet i et spil af mærkningslokaler af billeder, der findes på Google Street View.

"I alt vandt PlaNet 28 af de 50 runder med en median lokaliseringsfejl på 1131,7 km, mens den mediane lokaliseringsfejl var 2320,75 km," forskerne skrev. "Dette småskala eksperiment viser, at PlaNet når superhuman præstation med opgaven med geolocerende Street View scener."

Er dette for ægte? Har en Google-ingeniør virkelig udviklet en "overmenneskelig" A.I. system?

Når det kommer til geolocating billeder, måske. Og det er ikke alt for overraskende - A.I. er ikke at fundamentalt efterligne den menneskelige hjerne på alle måder, men at overgå menneskelige begrænsninger på nogle få måder til at udføre meget vanskeligere opgaver. Så i den forstand, hvad forskerne skriver er sandt.

Det er stadig et strejf at kalde PlaNet til et "neuralt netværk". En ideel form for den slags teknologi ville være i stand til at lære om meget mere end billed geolocation. A.I. systemer er i stand til at skrive billeder og spille Super Mario, men det er små ting i forhold til et ideelt "master" system, der automatisk kan overvåge og vedligeholde vitaler, administrere transport- eller energiinfrastruktur og meget mere.

$config[ads_kvadrat] not found