Gevaar algoritmes in de jaren ’80 al gemeld
In de jaren ‘80 werd aanzienlijk minder gedebatteerd over de gevolgen van digitalisering dan nu. Juist daarom is opmerkelijk hoe nauwkeurig sommige van onze huidige problemen toen al werden voorspeld, zoals wat er mis ging bij de toeslagenaffaire. Die conclusie trekt Margo ter Bekke, datastrateeg van de provincie Zuid-Holland, in een essay in Binnenlands Bestuur op basis van artikelen in magazines van die titel uit die jaren.
Opkomst personal computer
Brede politieke en maatschappelijke aandacht voor digitalisering was er, anders dan nu, niet altijd. In de jaren ‘80, het decennium waarin gecentraliseerde rekencentra plaatsmaakten voor de personal computer en de automatisering van overheids- en andere organisaties een grote vlucht nam, zijn weinig sporen van discussies over computergerelateerde thema’s te vinden.
"Politici, bestuurders en ambtenaren spraken zich graag uit over allerlei onderwerpen, maar het onderwerp digitalisering, of, zoals het toen nog heette, automatisering, kwam zelden aan de orde. Dit ondanks het feit dat de overheidsinvesteringen in IT halverwege de jaren ‘80 al meer dan 2 miljard gulden per jaar bedroegen en er al veel eerder, in 1967, een staatssecretaris met automatisering in zijn takenpakket had bestaan", aldus Ter Bekke. "Wim van Gelder, die in 1984 gedeputeerde was in Noord-Holland en de portefeuille Informatie en Automatisering onder zijn hoede nam, merkte op dat hij dit onderwerp enkel kreeg toegeschoven omdat geen van zijn medebestuurders het wilde. En ook Hans Wiegel zal ongetwijfeld gelijk gehad hebben toen hij zei dat er in zijn tijd als minister in het kabinet-Van Agt ‘aan automatisering politiek gezien niets viel te verdienen."
'Grootste voordeel is grootste gevaar'
Ondanks het feit dat er vanuit politiekbestuurlijke hoek weinig belangstelling is voor het onderwerp digitalisering, vond Ter Bekke in Binnenlands Bestuur wel degelijk artikelen waarin digitalisering wordt besproken in relatie tot thema’s als de rechtsstaat en het functioneren van de overheid. Zo doet, in de editie van 1 februari 1985, redacteur Tom Eijsbouts verslag van een symposium ‘Trias Automatica’ aan de Tilburgse Hogeschool. Voorzitter van het symposium is dan Herman Tjeenk-Willink, destijds Regeringscommissaris voor de Reorganisatie van de Rijksdienst. De bijeenkomst gaat over de relatie tussen automatisering en de rechtsstaat, en de sprekers benaderen het onderwerp niet vanuit de techniek maar vanuit het recht en het bestuur.
De centrale vraag op het symposium is wat de gevolgen zullen zijn wanneer de overheid beslissingen gaat nemen, of preciezer geformuleerd, beschikkingen gaat geven, op basis van digitaal verzamelde gegevens, en bij het nemen van die beslissingen gebruik gaat maken van algoritmes. Gert Nielen, hoogleraar informatiesystemen, is er in elk geval niet helemaal gerust op. "Je kijkt er niet meer naar om, naar die gegevens, en die dingen gaan dus een eigen leven leiden. Wat in een computerprogramma is vastgelegd, vraagt onze dagelijkse aandacht niet meer. Dit is het grootste voordeel van de automatisering, maar tegelijkertijd haar grootste gevaar."
Bureaucratie
Een ander punt dat door sprekers wordt benoemd, heeft te maken met het gevaar van eenzijdig opereren van de overheid. Ernst Hirsch-Ballin, destijds hoogleraar staats- en bestuursrecht, merkt op dat een te sterk vertrouwen op de eigen, automatisch verzamelde gegevens bij het nemen van beslissingen kan leiden tot een isolement van de bureaucratie en het vervagen van het rechtsbeginsel ‘fair hearing’.
Daarbij, zo stelt hij, is het vermogen om te kunnen vergeten, of verjaring, een fundament van het recht, maar geen eigenschap van computers. Ook de Nijmeegse hoogleraar bestuurskunde Hans Bekke is bang voor een eenzijdig opererende overheid. Automatisering kan er volgens hem toe leiden dat de overheid liever ‘mondsnoerende’ databestanden opbouwt dan dat ze haar informatie ophaalt bij intermediaire organisaties. Het enige dat je dan overhoudt, zo stelt hij, "zijn overheidsdiensten die elkaar ieder met hun eigen cijfers bestoken".
Onvoorspelbaarheid
Een derde punt van zorg heeft te maken met de mogelijkheid dat algoritmes gebruikt gaan worden bij het geven van beschikkingen. "Juridisch redeneren", zo stelt Hirsch-Ballin, "is een proces dat zich onttrekt aan het algoritme. Onvoorspelbaarheid is daarin vervat, onvoorspelbaarheid die geen willekeur is." Daar waar een afweging nodig is, waar een bevoegdheid bestaat en geen plicht tot beslissen van de overheid, zijn er volgens hem grenzen aan het gebruik van computers.
"Zulke discretionaire bevoegdheden zijn bedoeld om recht te doen aan het individuele geval, en rechters vragen in zulke gevallen ook om een oordeel gericht op de individuele situatie. Aan algoritmes heb je hier dus niets", schrijft Ter Bekke.
Toeslagenaffaire voorzien?
Hoewel het wat ver gaat om de sprekers van toen profetische gaven toe te dichten, is het opmerkelijk hoe relevant hun analyses zijn gebleken voor het heden. Alles wat er mis ging bij de toeslagenaffaire is op die bijeenkomst in 1985 vrij aardig voorspeld. Algoritmes die beschikkingen genereren, databestanden die een eigen leven leiden, het onvermogen om recht te doen aan individuele gevallen en rechters die geen tegenmacht bieden. Dat het in 1985, toen pc’s nog een bezienswaardigheid waren en de internetrevolutie nog moest beginnen, al mogelijk was om zo’n nauwkeurige analyse te maken van de rol van digitalisering in de rechtsstaat, mag een prestatie heten.
Dit artikel is eerder gepubliceerd bij Binnenlands Bestuur.
Lees het volledige essay (Digitale lessen uit de vorige eeuw) in Binnenlands Bestuur nr. 18 van deze week.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee