Kinas historie del 1 - oldtiden og de første dynastier
I sidste uge, i en storby i Nanjing, en storby i det østlige Kina, blev en kvinde ved navn Yan ydet to gange tilbageleveret af Apple til sin fejlbehæftede iPhoneX, som hendes kollega låste op ved hjælp af ansigtsgenkendelsesteknologi. Begge kvinder er etnisk kinesisk.
Yan fortalte lokale nyheder, at hun i første omgang kaldte iPhone-hotlineen, men de troede ikke på hende. Det var først, før hun og hendes kollega gik til en lokal Apple-butik og viste butikens personale, at de tilbød hende en tilbagebetaling, og hun købte en ny telefon og tænkte på, at måske et defekt kamera var skylden.
Men den anden telefon havde det samme problem, hvilket tyder på, at det ikke var et defekt kamera, som butikens arbejdere foreslog, men et problem med selve softwaren.
Dette ville ikke være det første tilfælde, hvor ansigtsgenkendelse software, og AI bag den, har haft problemer med at anerkende ikke-hvide ansigter.
I 2015 tagede Google Photos et uheld med et billede af to afroamerikanere som gorillaer, mens i 2009 HP-computere http://www.youtube.com/watch?v=t4DT3tQqgRM) havde problemer med at genkende og spore sorte ansigter - men Intet problem med hvide ansigter. Samme år blev Nikons kamera software fanget mislabeling et asiatisk ansigt som blinkende.
Google Fotos, er du fucked up. Min ven er ikke en gorilla. pic.twitter.com/SMkMCsNVX4
- Jacky (@jackyalcine) 29. juni 2015
"Dette er grundlæggende et dataproblem," skrev Kate Crawford, en hovedforsker ved Microsoft og medformand for Obama White House Symposium on Society og A.I. "Algoritmer lærer ved at blive fodret med visse billeder, ofte valgt af ingeniører, og systemet bygger en model af verden baseret på disse billeder. Hvis et system trænes på billeder af mennesker, der er overvældende hvide, vil det få en sværere tid at genkende ikke-hvide ansigter."
Jacky Alcine, den Brooklyn-baserede programmør, hvis foto var mislabeled af Google, aftalt. Af hans erfaring sagde han: "Dette kunne have været undgået med præcis og mere fuldstændig klassificering af sorte mennesker."
Men den racisme, der er kodet til AI, selvom den er utilsigtet, har konsekvenser ud over bare ansigtsgenkendelse.
En ProPublica-undersøgelse i 2016 viste, at sorte kriminelle var dobbelt så tilbøjelige til at være fejlagtigt markeret som sandsynligt at genoptage forbrydelser end hvide kriminelle, mens den voksende tendens i "prediktiv politi" bruger algoritmer til at forudsige kriminalitet og direkte politi ressourcer i overensstemmelse hermed.
Men mindretalssamfund er historisk overvurderet, hvilket har ført til muligheden for, at "denne software risikerer at fortsætte en allerede ond cirkel", siger Crawford.
Tilbage i Nanjing, Kina, modtog Yan en anden tilbagebetaling på sin anden iPhoneX. Fra lokale nyhedsrapporter er det uklart, om hun så købte en tredjedel.
Hvad der var på spil, denne gang, kan lige have været en enkelt forbruger. Men Yan sagen var et eksempel på det fortsatte behov for, at teknologibranchen skulle designe med mangfoldighed og inklusivitet i tankerne.
IPhone XR kan have en "underordnet" skærm, men du kan ikke fortælle det
IPhone XR har fået nogle flack fra brugere og YouTubers om dens 326 pixel-per-tommer skærm. Ray Soneira, præsidenten for DisplayMate Technologies, fortæller omvendt, at en stigning i PPI'en ville have gjort nogen forskel og kunne endda få telefonen til at blive værre.
Folk kan stadig ikke fortælle, om denne skrifttype til dyslexi hjælper nogen
Skrifttypen Comic Sans har hjulpet nogle mennesker med dysleksi, og for nylig er andre skrifttyper også kommet frem. Det er ikke klart, om Dyslexie fungerer, selvom.
IOS 12 Skjulte funktioner: 4 Funktioner Apples tips kan ikke fortælle dig om
På nuværende tidspunkt har du måske bemærket, at den lille gule lyspære vises i dit meddelelsescenter, der viser nogle af de nye funktioner, der blev leveret med iOS 12 mandag. Blandt disse nye menuer og apps lurker du underlige funktioner og gester, der gør det lettere end nogensinde at få tingene gjort på din iPhone eller iPad.