Toekomst voorspellen
Ik ben een (aanstaande) moeder die dagelijks nieuwe technologische ontwikkelingen voorbij ziet komen. Dat is handig, want zo ben ik goed op de hoogte van de handige snufjes. Maar het geeft je ook een kijkje in de wereld van morgen. Dat baart me wel eens zorgen.
Ik zie dagelijks voorbeelden van hoe algoritmen voorspellingen doen. Vorige maand schreven we over snelgroeier Keencorp dat aan de hand van communicatiepatronen peilt hoe betrokken medewerkers zijn. Bijstandsfraude wordt voorspeld aan de hand van data. En Facebook bepaalt met een algoritme welk nieuws ik in mijn tijdlijn krijg te zien – nieuws dat ik graag tot me neem, geen informatie die me op andere gedachten zet.
Over mij, mijn man, mijn dochter en mijn ongeboren zoon zijn al allerlei data te vinden; onze nationaliteit, vooropleidingen, banen, de plek waar ons huis staat en hoe wij ons gedragen op social media. Dat zijn openbare data waarmee toekomstig gedrag kan worden voorspeld. Bijvoorbeeld wat de kans is dat mijn zoon later zijn opleiding zal afronden.
Gelukkig leven we (nog) niet in een wereld waarbij de toekomst van mijn ongeboren zoon nu al vast staat; een kinderdagverblijf, school of universiteit maakt geen voorspellingen over het groeipad van kinderen. Maar data als schoolcijfers zijn wel al heel belangrijk bij het bepalen of er überhaupt een plek is bij een bepaalde opleiding.
Algoritmen zijn wiskundige modellen die veelal door witte mannen van middelbare leeftijd worden gemaakt. En daarna is er weinig in transparantie in het rekenmodel of de data die wordt gebruikt.
Ik ben gelukkig niet de enige die zich zorgen maakt over hoe die algoritmen tot stand komen. Bij een aantal leveranciers wordt gesproken over ethische waarden bij de toepassing van AI. Er zijn wetenschappers die hun zorgen uitspreken. Begin oktober zei minister Dekker transparantie van algoritmen na te streven, maar niet altijd. Innovatie is een reden om dat niet te doen.
Natuurlijk is het lastig om altijd openheid te geven. Maar laten we elkaar in elk geval beloven dat we nadenken over de bias die in zo’n rekenmodel kan zitten. Die bias is (deels) te ondervangen door een model door een diverse groep mensen te laten ontwikkelen en door goed te toetsen of er geen gekleurde gegevens in de data zitten.
Het lijkt me hét onderwerp voor 2019. Omdat het zo belangrijk is voor de jaren erna.
Magazine AG Connect
Dit artikel is ook gepubliceerd in het magazine van AG Connect (nummer 12, 2018). Wil je alle artikelen uit dit nummer lezen, klik dan hier voor de inhoudsopgave
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee