Apple iPhone X kan ikke fortælle Apart Chinese Faces, Refund Given

$config[ads_kvadrat] not found

Kinas historie del 1 - oldtiden og de første dynastier

Kinas historie del 1 - oldtiden og de første dynastier
Anonim

I sidste uge, i en storby i Nanjing, en storby i det østlige Kina, blev en kvinde ved navn Yan ydet to gange tilbageleveret af Apple til sin fejlbehæftede iPhoneX, som hendes kollega låste op ved hjælp af ansigtsgenkendelsesteknologi. Begge kvinder er etnisk kinesisk.

Yan fortalte lokale nyheder, at hun i første omgang kaldte iPhone-hotlineen, men de troede ikke på hende. Det var først, før hun og hendes kollega gik til en lokal Apple-butik og viste butikens personale, at de tilbød hende en tilbagebetaling, og hun købte en ny telefon og tænkte på, at måske et defekt kamera var skylden.

Men den anden telefon havde det samme problem, hvilket tyder på, at det ikke var et defekt kamera, som butikens arbejdere foreslog, men et problem med selve softwaren.

Dette ville ikke være det første tilfælde, hvor ansigtsgenkendelse software, og AI bag den, har haft problemer med at anerkende ikke-hvide ansigter.

I 2015 tagede Google Photos et uheld med et billede af to afroamerikanere som gorillaer, mens i 2009 HP-computere http://www.youtube.com/watch?v=t4DT3tQqgRM) havde problemer med at genkende og spore sorte ansigter - men Intet problem med hvide ansigter. Samme år blev Nikons kamera software fanget mislabeling et asiatisk ansigt som blinkende.

Google Fotos, er du fucked up. Min ven er ikke en gorilla. pic.twitter.com/SMkMCsNVX4

- Jacky (@jackyalcine) 29. juni 2015

"Dette er grundlæggende et dataproblem," skrev Kate Crawford, en hovedforsker ved Microsoft og medformand for Obama White House Symposium on Society og A.I. "Algoritmer lærer ved at blive fodret med visse billeder, ofte valgt af ingeniører, og systemet bygger en model af verden baseret på disse billeder. Hvis et system trænes på billeder af mennesker, der er overvældende hvide, vil det få en sværere tid at genkende ikke-hvide ansigter."

Jacky Alcine, den Brooklyn-baserede programmør, hvis foto var mislabeled af Google, aftalt. Af hans erfaring sagde han: "Dette kunne have været undgået med præcis og mere fuldstændig klassificering af sorte mennesker."

Men den racisme, der er kodet til AI, selvom den er utilsigtet, har konsekvenser ud over bare ansigtsgenkendelse.

En ProPublica-undersøgelse i 2016 viste, at sorte kriminelle var dobbelt så tilbøjelige til at være fejlagtigt markeret som sandsynligt at genoptage forbrydelser end hvide kriminelle, mens den voksende tendens i "prediktiv politi" bruger algoritmer til at forudsige kriminalitet og direkte politi ressourcer i overensstemmelse hermed.

Men mindretalssamfund er historisk overvurderet, hvilket har ført til muligheden for, at "denne software risikerer at fortsætte en allerede ond cirkel", siger Crawford.

Tilbage i Nanjing, Kina, modtog Yan en anden tilbagebetaling på sin anden iPhoneX. Fra lokale nyhedsrapporter er det uklart, om hun så købte en tredjedel.

Hvad der var på spil, denne gang, kan lige have været en enkelt forbruger. Men Yan sagen var et eksempel på det fortsatte behov for, at teknologibranchen skulle designe med mangfoldighed og inklusivitet i tankerne.

$config[ads_kvadrat] not found