A.I. Research Institute viser hvordan man opretter ansvarsfulde algoritmer

$config[ads_kvadrat] not found

КУПИЛ XBOX SERIES S / SERIES X - РАСПРОДАН

КУПИЛ XBOX SERIES S / SERIES X - РАСПРОДАН
Anonim

Forskningsinstitutet AI har nu offentliggjort nye anbefalinger til ansvarlig implementering af algoritmer på det offentlige område.Deres råd er rettet mod en task force dannet af New York City Council i januar, der studerer regeringens brug af kunstig intelligens.

AI Nu's rapport, Algoritmiske konsekvensanalyser: Mod ansvarlig automatisering i offentlige kontorer, skitserer behovet for gennemsigtighed, når det gælder implementering af algoritmer. Algoritmer har stor indflydelse på vores dagligdag, men deres indflydelse går undertiden ubemærket. Fordi de er bagt ind i infrastrukturen i sociale medier og video platforme, er det for eksempel nemt at glemme, at programmer ofte bestemmer hvilket indhold der trykkes på internetbrugere. Det er først, når noget går galt, som en konspirationsteori-video, der når toppen af ​​YouTubes trending liste, at vi gennemgår de automatiserede beslutningsprocedurer, der skaber online-oplevelser.

Og algoritmer er ikke begrænset til internetplatforme. Statsinstitutioner er blevet mere og mere afhængige af algoritmer, inden for områder lige fra uddannelse til strafferet. I en ideel verden ville algoritmer fjerne menneskelig bias fra hårde beslutninger, som at bestemme, hvorvidt en fængslet skal gives parole. I praksis er algoritmer imidlertid kun lige så effektive som de mennesker, der gør dem.

For eksempel en undersøgelse af ProPublica viste, at risikovurderingsalgoritmer anvendt i retssalen var racistisk forudindtaget. For at gøre sager værre er mange af de algoritmer, der anvendes i den offentlige sektor, privatejet, og nogle virksomheder nægter at dele koden bag deres software. Det gør det umuligt at forstå, hvorfor disse såkaldte "black box" -algoritmer returnerer visse resultater.

En potentiel løsning, der tilbydes af AI Now? Algoritmiske konsekvensanalyser. Disse vurderinger skaber en norm for fuldstændig gennemsigtighed, hvilket betyder, at regeringsorganer, der bruger algoritmer, skal offentliggøre, hvornår og hvordan de bruger dem. "Dette krav i sig selv ville gå langt i retning af at afdække, hvilke teknologier der anvendes til at tjene offentligheden, og hvor ansvarlig forskning skal fokuseres," udtalte rapporten.

En politik med åbenhed omkring algoritmer ville også åbne døren for borgerne for at undersøge og protestere over deres brug. Vil du have en algoritme, der giver dig en risikovurdering baseret på faktorer uden for din kontrol, især når den score kan hjælpe med at bestemme, om du går i fængsel? Måske ja måske nej. På nogen måde er det vigtigt at vide præcis, hvilke variabler der analyseres af algoritmen.

Derudover anbefaler AI nu at indstille en lovlig standard for folk at lobbyere mod uretfærdige algoritmer.

Hvis et agentur f.eks. Ikke afslører systemer, der med rimelighed falder inden for rammerne af dem, der foretager automatiserede beslutninger, eller hvis det tillader sælger at gøre overordnede forretningshemmeligheder og dermed blokerer for meningsfuld systemadgang, bør offentligheden have mulighed for at rejse bekymringer med et agenturovervågningsorgan eller direkte i en domstol, hvis agenturet nægtede at rette op på disse problemer efter den offentlige kommentarperiode.

Anbefalingerne koger i det væsentlige til et overordnet mandat: Hvis du bruger algoritmer, skal du ikke være skyggefulde om det.

Læs hele rapporten her.

$config[ads_kvadrat] not found