krönika Den svenska polisen vill använda artificiell intelligens i sitt arbete. Men tekniken tar ofta fel på icke-vita personer och ökar därmed riskerna för rasism, skriver Jehna Al-Moushahidi.

Polisövervåld och rasprofilering mot svarta fortsätter öka i flera länder på grund av fördomar. Likaså protesterna. Black Lives Matter-rörelsen har varit oerhört viktig under det senaste året och hoppet om förbättring har tänts sig hos många. Stora delar av debatten har handlat om svarta som misstänkliggjorts på felaktiga grunder. En av grunderna till detta har varit artificiell intelligens, AI, som använts av polismyndigheter.

Program för igenkänning av ansikten gör ofta misstag när det kommer till svarta personer. Trots detta så håller Sverige på att införa ansiktsigenkänning för att lättare utreda brott och hitta efterlysta  gärningsmän. Andra länder har valt att förbjuda AI inom polisväsendet då det finns för stora fördomar inom algoritmen. Men Sverige väljer att gå mot strömmen. Något som ökar riskerna för rasism inom polisväsendet.

Om några veckor kommer den svenska polisen börja använda sig av AI. De kommer då kunna identifiera personer, bilar och andra objekt genom bland annat videomaterial. Ett väldigt kontroversiellt men till synes effektivt verktyg. De allra flesta som programmerar systemen är vita män. Detta har lett till att systemet inte tränats nog mycket i att känna igen icke-vita personers ansikten. Kvinnor drabbas också av dessa felbedömningar.

Amazon och Microsoft har valt att sluta sälja sin teknik till polismyndigheter, då de inte vill riskera att svarta blir felaktigt misstänkliggjorda.

Den svenska polisen säger att de har valt ut det mest träffsäkra och rättssäkra systemet som finns. Problemen med även de bästa algoritmerna har dock varit så stora att bland andra Amazon och Microsoft valt att sluta sälja sin teknik till polismyndigheter, då de inte vill riskera att svarta personer blir felaktigt misstänkliggjorda.

Det är dessutom sällan som man tittar på de etiska aspekterna innan man väljer att använda AI. Om systemet är så pass effektivt som det sägs vara, varför blir det då konstant fel? Kvinnor kodas som män. Svarta personers ansikten uppfattas inte, eller blandas ihop. Allt det här talar emot effektiviteten.

Om vi tillåter ett verktyg som till grunden bygger på fördomar, hur förväntar vi oss då att gå mot ett mer jämlikt samhälle? Vad är det som säger att felbedömningar inte kommer göras i Sverige? Det finns många frågetecken kring ansiktsigenkänning. Trots detta verkar vi gå mot en normalisering av övervakning av människor. Att automatisera ett arbete som egentligen behöver nyanseras är oroväckande.

Tittar vi på England har folk fått böter för att ha dolt ansiktet när de gått förbi polisens kameror. Något som är otroligt integritetskränkande. Även om vi inte är där än, så är det här ett steg i den riktningen.

Riskerna och luckorna inom AI är större än den tid man eventuellt kan spara. Det är dags för polisen att börja sätta människor i första hand och sluta normalisera digital diskriminering.

 

Jehna Al-Moushahidi är statsvetare och praktiserar som opinionsskribent hos Dagens Arena.