En algoritme bliver testet i San Francisco for at indstille førtiltrædelsesgaranti

$config[ads_kvadrat] not found

San Francisco, California | 4K Drone Footage

San Francisco, California | 4K Drone Footage
Anonim

Det strafferetlige system er midt i en algoritmisk forandring. Omkring 30 jurisdiktioner - herunder hele staterne Arizona, Kentucky og New Jersey, samt byer som San Francisco og Chicago - har testet en algoritme, der fastsætter omkostningerne ved kaution baseret på landsdækkende strafferegistre data. Ikke alle dommere er nødvendigvis klar til at tage de digitale anbefalinger til hjerte.

Algoritmen blev oprettet af Houston-baserede Laura og John Arnold Foundation, og kaldes Public Safety Assessment, eller PSA. Målet med algoritmen er at tage forrang ud af at indstille kaution ved at bruge data fra 1,5 millioner pretrial tilfælde. Tidligere har algoritmer imidlertid de samme forspændinger af de mennesker, der gør dem.

Ni faktorer går ind i algoritmen, pr. Fondets hjemmeside:

  • Om den nuværende lovovertrædelse er voldelig
  • Om personen har en afventende afgift på tidspunktet for anholdelsen
  • Om personen har en tidligere misdemeanor overbevisning
  • Om personen har en tidligere forbrydelse overbevisning
  • Om personen har en tidligere overbevisning for en voldelig forbrydelse
  • Personens alder på tidspunktet for anholdelsen
  • Uanset om personen ikke har fundet sted under en forudgående høring i de sidste to år
  • Uanset om personen ikke har fundet sted under en retssag for over to år siden
  • Om personen tidligere er blevet dømt til fængsling.

Algoritmen tager ikke højde for race, køn, indkomst, uddannelse, beskæftigelse eller kvarter. Dette, ifølge fundamentet, gør PSA neutral.

Dommere i San Francisco har dog ikke konsekvent fulgt anbefalingerne San Francisco Chronicle rapporter.

San Francisco flyttede til at bruge algoritmen efter at byen blev sagsøgt af en national borgerrettighedsgruppe, der hævdede ublu borgere, såre de fattige mere end de rige. Rige mennesker, der begik mindre forbrydelser, købte deres vej ud af fængslet, mens fattige mennesker, der ikke havde råd til store bail amounts, blev efterladt i en holdingcelle, indtil et forsøg kunne planlægges.

PSA skulle udligne spillereglerne ved at se på data, snarere end den umiddelbare forbrydelse. Algoritmen bruger historiske data til at bedømme, hvor sandsynligt det er, at en person vil begå en anden forbrydelse eller undgå forsøg, hvis han sætter på kaution, Minoritetsrapport stil. Hvis sandsynligheden er høj, er kautionen højere, og omvendt.

En lignende algoritme, der blev oprettet af Northpointe, blev brugt til at styre fangeudgivelsesdatoer. ProPublica offentliggjorde resultaterne af en undersøgelse i maj, som fandt, at "risikovurdering" -pointsne fra Northpointe's algoritme uforholdsmæssigt forudsagde, at sorte mennesker sandsynligvis ville begå en anden forbrydelse end hvide mennesker, da de kom ud. Kun 20 procent af Northpointe's forudsigelser var korrekte.

Avanceret kortlægningsteknologi og store data hjælper på den anden side med at retshåndhævelse identificerer og politiets kriminelle hotspots.

Fundamentets algoritme sigter mod at undgå en lignende bias ved at fjerne eventuelle demografiske indikatorer. Hvorvidt det virkelig virker, vil dog ikke ses, før dommere rent faktisk begynder at stole på algoritmer over præcedens og intuition.

$config[ads_kvadrat] not found