7 aandachtspunten voor ethiek en transparantie bij toegepaste AI
Want of het nou komt door gebrekkige data of fouten in de programmatuur: blind vertrouwen op de uitkomst van wat een algoritme zegt kan ernstig nadeel toebrengen aan mensen. Met de Toeslagenaffaire als pijnlijk en extreem voorbeeld. Hoe kun je ervoor zorgen dat je AI op een verantwoorde manier inzet?
Privacy- en ethiekframework voor AI: de zeven aandachtsgebieden in het kort
Future Facts heeft een privacy- en ethiekframework ontwikkeld voor de inzet van AI. Dit framework benoemt zeven aandachtsgebieden waarbij je moet stilstaan als je problemen wilt voorkomen. Lees hier de uitgebreide versie van het framework.
1. Beleid en Governance bij het toepassen van AI
Stel richtlijnen en kaders op over hoe je als organisatie omgaat met AI. En zorg voor een duidelijke verdeling van rollen en verantwoordelijkheden.
2. Rechtvaardigheid bij het toepassen van AI
Een algoritme mag niet leiden tot het uitsluiten van bevolkingsgroepen op bepaalde kenmerken. Nauw verband hiermee houdt bias, oftewel vooringenomenheid, die in data verstopt kan zitten. Alles bij elkaar vraagt de inzet van AI om een zorgvuldige afweging van (maatschappelijke) risico’s, kosten en baten.
3. Rechtmatigheid bij het toepassen van AI
Bij de inzet van AI-toepassingen moet je (uiteraard) voldoen aan wet- en regelgeving. Verwerk je persoonsgegevens met een algoritme? Dan is de AVG van toepassing. Ook als je geen persoonsgegevens verwerkt kun je met bepaalde wetgeving te maken hebben. Daarnaast is er de Europese AI-verordening, waarover de onderhandelingen tussen de lidstaten en het Europees Parlement nog moeten beginnen.
4. Kwaliteit bij het toepassen van AI
Kwaliteitsborging verhoogt de toegevoegde waarde van het algoritme en vermindert risico’s voor mens en maatschappij. Kwaliteitsborging heeft zowel betrekking op de kwaliteit van de data, als die van de AI-toepassing zelf. Datakwaliteit is het terrein van datamanagement. Gedegen datamanagement is dus een randvoorwaarde voor de inzet van AI.
5. Transparantie bij het toepassen van AI
Voor de acceptatie van AI is het van belang dat degenen die onderwerp van de output zijn, of daar de gevolgen van ondervinden, op de hoogte zijn van het gebruik van algoritmes. Transparantie is ook een goede maatstaf voor moreel handelen: als je niet open durft te zijn over wat je doet, ben je dan wel met de juiste dingen bezig? Transparantie verhoogt het vertrouwen in je organisatie, dus het credo is: zeg wat je doet, en doe wat je zegt.
6. Bewustzijn bij het toepassen van AI
Hier kunnen we kort over zijn: zorg dat iedereen binnen je organisatie die op wat voor manier dan ook betrokken is bij AI bewust is van wat AI eigenlijk is, wat de mogelijkheden zijn, maar zeker ook wat de tekortkomingen en valkuilen zijn.
7. Verantwoording bij het toepassen van AI
Voor de inzet van AI is het van groot belang dat je je als organisatie achteraf kunt verantwoorden. Hiervoor is het uiteraard nodig dat je een goede governance hebt geïmplementeerd, maar het gaat verder dan dat. Leg van meet af aan vast welke keuzes je hebt gemaakt, en waarom. Zorg er ook voor dat de output van AI verklaarbaar is, en dat tijdig kan worden ingegrepen als zaken anders lopen dat gepland. Zorg bij impactvolle AI altijd voor een menselijke beoordeling.
De moeite waard!
Alles bij elkaar zijn er best veel zaken om rekening mee te houden. Maar de moeite die je daarvoor moet nemen, verdient zich dubbel en dwars terug. Je beperkt niet alleen risico’s, maar je dwingt jezelf tot nadenken over de keuzes die je gaandeweg moet maken. Daar wordt niet alleen de wereld, maar ook je AI-model, en daarmee je organisatie beter van.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonneeNaast een privacy- en ethiekframework kun je ook wiskunde toepassen om issues te voorkomen. Informatiedragers als foto's, audio's en video's kunnen ook door AI gegenereerd worden. Om te bewijzen dat een informatiedrager echt is kan een watermerk in de informatiedrager aangebracht worden waarmee de authenticiteit en eigenaar van de informatiedrager bewezen kan worden.
Uitleg in een masterclass in de Tweede Kamer is te vinden is op https://www.tweedekamer.nl/nieuws/kamernieuws/masterclass-over-toepassingen-en-gevolgen-van-chatgpt
In de Dr.Kelder Podcast legt José van Dijck (Universiteit Utrecht, deskundige in Nederland op het gebied van technologie, onderwijs en media) uit waarom een watermerk opgenomen in informatiedragers als foto's, audio's en video's steeds meer noodzakelijk is: https://www.radioviainternet.nl/podcasts/dr-kelder-en-co/2023/chat-gpt-vloek-of-zegen-vriendschappen-heb-je-er-wat-aan
Komende jaren zullen op wetenschappelijke conferenties steganografie systemen gepresenteerd worden waarmee onzichtbare en onkraakbare watermerken in informatiedragers aangebracht kunnen worden.
Op https://citeseerx.ist.psu.edu/document?repid=rep1&type=pdf&doi=b5f364dc21d2cbebe8f4f8f6d3961ff7c4284ee7 is een informatie-theoretisch framework te vinden waar deze nieuwe systemen aan zullen voldoen.
Achtergrond info over digitale watermerken (bijvoorbeeld de applicaties hiervan) is te vinden op https://nl.wikipedia.org/wiki/Digitaal_watermerk
Een voorbeeld van een onzichtbaar en onkraakbaar watermerk in een foto is te zien op https://www.ndax.eu/RLchCdQtYaA7g-ZuOjOm.jpg
Conform het wetenschappelijke falsificatie principe kan bewezen worden dat de gebruikte manier van een onzichtbaar en onkraakbaar watermerk aanbrengen niet werkt door de inhoud van het watermerk in de foto terug te sturen in een reactie op dit artikel.