Malmö University Publications
Change search
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf
Beslutsfattande Artificiell Intelligens: Partiskhet och rättvisa i rättsväsendets tillämpning av riskbedömningsinstrument
Malmö University, Faculty of Technology and Society (TS).
2022 (Swedish)Independent thesis Basic level (degree of Bachelor), 10 credits / 15 HE creditsStudent thesisAlternative title
Decision-making Artificial Intelligence : Bias and fairness in the judiciary's application of risk assessment instruments (English)
Abstract [en]

Risk assessment instruments used in criminal justice have been shown to produce unfair and biased results for minorities. This semi-systematic literature review aims to uncover why these machine learned instruments become biased and how these biases can be mitigated in order to achieve fairness. Data was collected from peer-reviewed publications on the subject. The results show that bias can be injected into the instrument during any step in its life cycle: through data, data generation, the model, or evaluation. To mitigate the biases and inject fairness into the instrument instead of bias one can either regulate the input data, regulate the algorithmic model, or refrain from implementing the risk assessment instrument altogether. The present study discusses, analyses, and compares the three strategies to one another in order to establish how effective they would be in creating fair outcomes. It concludes that dismissing the use of risk assessment instruments will not decrease the risk of bias, but possibly increase it, because of the biases present in subjective risk assessments. Furthermore, the results of this study illustrate that risk assessment instruments cannot produce outcomes that are completely fair, unless the instrument makes predictions with 100% accuracy or if the groups have the same base rate of arrests. However, risk assessment instruments can be regulated in order to produce fairer outcomes, which should be done with respect to normative principles that justify the chosen method of regulation.

Abstract [sv]

Riskbedömningsinstrument som används inom straffrätten har visat sig producera orättvisa och partiska resultat för minoriteter. Denna semi-systematiska litteraturstudie syftar till att utreda varför dessa maskininlärda instrument blir partiska och hur dessa former av partiskhet kan mildras för att uppnå rättvisa. Data samlades in från referentgranskade publikationer om ämnet. Resultaten visar att partiskhet kan injiceras i instrumentet under varje steg i dess livscykel: genom data, datagenerering, modell eller evaluering. För att mildra partiskhet och tillföra rättvisa i instrumentet, i stället för partiskhet, kan man antingen reglera indata, reglera den algoritmiska modellen eller låta bli att implementera riskbedömningsinstrumentet överhuvudtaget. Denna studie diskuterar, analyserar och jämför de tre strategierna med varandra för att fastslå hur effektiva de hade varit på att generera rättvisa utfall. Slutsatsen som dras är att avfärdandet av nyttjandet av riskbedömningsinstrument inte kommer att minska risken för partiskhet, utan möjligtvis öka den, på grund av partiskhet som förekommer i subjektiva riskbedömningar. Vidare illustrerar resultaten av denna studie att riskbedömningsinstrument inte kan producera helt rättvisa utfall, såvida instrumentet inte gör prediktioner med 100% exakthet eller om grupperna har samma basfrekvens av arresteringar. Emellertid kan riskbedömningsinstrument regleras för att producera mer rättvisa utfall, vilket bör göras med hänsyn till normativa principer som rättfärdigar den valda metoden för reglering.

Place, publisher, year, edition, pages
2022. , p. 42
Keywords [en]
risk assessment instrument, bias, fairness, justice system, decision-making
Keywords [sv]
riskbedömningsinstrument, partiskhet, rättvisa, rättsväsendet, beslutsfattande
National Category
Computer Systems
Identifiers
URN: urn:nbn:se:mau:diva-52758OAI: oai:DiVA.org:mau-52758DiVA, id: diva2:1668955
Educational program
TS Systemutvecklare
Supervisors
Examiners
Available from: 2022-06-23 Created: 2022-06-13 Last updated: 2022-06-23Bibliographically approved

Open Access in DiVA

No full text in DiVA

Search in DiVA

By author/editor
Maslo, Lanna
By organisation
Faculty of Technology and Society (TS)
Computer Systems

Search outside of DiVA

GoogleGoogle Scholar

urn-nbn

Altmetric score

urn-nbn
Total: 71 hits
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf