Overslaan en naar de inhoud gaan

De computer heeft het dus nooit gedaan

Besluitvorming op basis van algoritmes levert uit het oogpunt van efficiency vaak grote voordelen op. Maar het heeft ook de neiging tot vergissingen of ongewenste uitkomsten te leiden, constateren Nicholas Diakopoulos en Sorelle Friedler in het artikel How to hold algorithms accountable in MIT Technology Review. Algoritmes kunnen structurele discriminatie verergeren, of individuen ten onrechte diensten weigeren.
Intelligente robot
© Pixabay CC0 Public Domain
Pixabay CC0 Public Domain

Als voorbeeld geven Diakopoulos en Friedler het systeem dat de Amerikaanse justitie gebruikt ter ondersteuning van justitiële beslissingen ten aanzien van verdachten. Dat algoritme berekent het risico van het vrij laten rondlopen van een verdachte in afwachting van een proces, de risico's voor de samenleving van een proeftijd, en dergelijke. Recent onderzoek heeft laten zien dat deze algoritmes door vooroordelen gekleurd zijn, waardoor zwarte verdachten een grotere kans lopen onterecht vastgezet te worden. Gezien de consequenties voor de betrokkene zou het betreffende op algoritmes berustende besluitvormingsproces verantwoordelijk moeten worden gehouden als de beslissingen ervan negatieve consequenties hebben.

Lees dit PRO artikel gratis

Maak een gratis account aan en geniet van alle voordelen:

  • Toegang tot 3 PRO artikelen per maand
  • Inclusief CTO interviews, podcasts, digitale specials en whitepapers
  • Blijf up-to-date over de laatste ontwikkelingen in en rond tech

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in