‘Neem verplichte transparantie van algoritmes op in wet’
Ben je gediscrimineerd door een algoritme van de overheid? Dat is lastig te bewijzen, want vaak weten mensen helemaal niet of er een algoritme is gebruikt in een beschikking (een overheidsbesluit dat is gericht op een individuele burger). Als ze het wel weten, tasten ze vaak in het duister over hoe het is gebruikt. Bewijs dan maar eens dat de overheid tot de beslissing is gekomen op basis van persoonskenmerken die er niet toe zouden moeten doen.
Probleem voor rechtsbescherming
Eigenlijk strookt dat niet met de wet. Volgens de Algemene wet bestuursrecht (Awb) moeten overheidsbesluiten gebaseerd zijn op een ‘draagkrachtige en kenbare motivering’ (artikel 3:46 en 3:47). ‘Draagkrachtig’ betekent dat er een logisch redenering achter het besluit moet zitten en dat die redenering geen gaten vertoont. ‘Kenbaar’ wil zeggen dat de motivering te begrijpen moet zijn voor degene op wie het besluit betrekking heeft. Algoritmegebruik dat niet wordt gemeld door de overheid levert dus een probleem op voor de rechtsbescherming, omdat overheidsbesluiten daarmee niet aan deze vereisten voldoen.
Transparantie algoritmes opnemen in AwB
In een position paper pleit het College voor de Rechten van de Mens ervoor om transparantie over algoritmegebruik expliciet in de Awb op te nemen. Algoritmegebruik voor een beschikking moet altijd worden gemeld, stelt het College voor. In iedere beschikking moet niet alleen staan om welke algoritmes het gaat, er moet ook in begrijpelijke taal worden uitgelegd hoe het algoritmegebruik uitwerkte op de beslissing.
Broncode in algoritmeregister
De broncode van algoritme hoeft niet in de beschikking te worden opgenomen, want de gemiddelde burger schiet niet veel op met pagina’s vol code. Wel moet de broncode terug te vinden zijn in het algoritmeregister. Dat is nu niet altijd het geval. Van een deel van de 123 gepubliceerde algoritmes in het algoritmeregister is alleen een algemene beschrijving beschikbaar. Een reden daarvoor kan zijn dat de leverancier van het algoritme zich baseert op zijn intellectuele eigendomsrecht. Er kan in een contract zijn vastgelegd dat het algoritme afgeschermd blijft.
Open source-verplichting
Wat het College betreft, is transparantie belangrijker dan intellectueel eigendom en zou er een open source-verplichting moeten komen voor overheidsalgoritmes. Uit de position paper: ‘Transparantie moet een ontwerpprincipe zijn (‘transparency by design’) van ieder algoritme binnen de overheid. Ontwikkelaars zijn op hun beurt vrij om al dan niet onder die voorwaarde voor de overheid te werken.’
Transparantie moet een ontwerpprincipe zijn van ieder algoritme binnen de overheid.
Uitzondering voor risicoselectie-algoritmes
Een uitzondering zou voor het College hooguit kunnen bestaan voor algoritmes die worden gebruikt om fraude op te sporen, zogeheten risicoselectie-algoritmes. Het openbaar maken van een dergelijk algoritme kan leiden tot misbruik, is de gedachte. ‘Denk hierbij aan de prikkel die mogelijk uitgaat van openbaarheid van een algoritme dat is ingesteld om onder een bepaalde drempelwaarde aftrekposten niet te controleren,’ schrijft het College.
Een externe toezichthouder zou dergelijke algoritmes onafhankelijk moeten goedkeuren voor gebruik, vindt het College. ‘Totdat autorisatie heeft plaatsgevonden mogen opsporingsalgoritmes met geheime elementen niet in gebruik genomen worden. Omdat de keuze voor dit soort elementen in algoritmes dynamisch kan zijn, moet ook de mogelijkheid worden ingebouwd deze algoritmes aan periodieke herkeuring te onderwerpen.’
Voorbij de werkagenda
Met de Werkagenda Waardengedreven Digitaliseren werkt staatssecretaris digitalisering Alexandra van Huffelen aan meer transparantie over algoritmegebruik. Het voorstel van het College is een concrete invulling van dit voornemen en gaat op een aantal punten verder dan de werkagenda, zoals met de verankering van algoritmische transparantie in de wet en de open source-verplichting.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee