Waarom regelgeving voor kunstmatige intelligentie ‘waanzinnig moeilijk’ wordt
De stemming onder betrokken experts in Nederland toen de EU de regels aankondigde was eerst nog opgetogen, vertelt onderzoeker en adviseur Marlies van Eck van Radboud Universiteit en Hooghiemstra & Partners, gespecialiseerd in rechtsbescherming bij computerbesluiten. Het was na diverse ‘algoritmeschandalen’, zoals in Nederland de toeslagenaffaire en SyRI, immers hoog tijd dat er kritisch wordt gekeken naar computerbesluiten, zegt Van Eck.
“De blijdschap was er vooral omdat er in Nederland lange tijd heel weinig beweging was rondom regelgeving voor AI. Via ‘Brussel’ kwam het dan toch naar ons toe.” Maar de euforie maakte al snel plaats voor teleurstelling toen de tekst een jaar geleden werd gepubliceerd. “De manier waarop Europa AI wil gaan reguleren lijkt mij persoonlijk minder verstandig”, aldus Van Eck. Ze spreekt van een ‘waanzinnig moeilijk voorstel’ dat vermoedelijk voor veel onduidelijkheid en chaos zal zorgen. “Voor juristen is dit voorstel echt een feest, je kan je tanden erop stukbijten. Ik denk dat deze regelgeving niet zo’n geschikt mechanisme is als het gaat om verantwoord gebruik van AI.”
'EU heeft geen begrip van AI'
Waar schort het precies aan? Volgens van Eck lijkt het er ten eerste op dat de Europese Commissie met het voorstel geen goed begrip heeft van AI-toepassingen. “Zoals de regels nu zijn geformuleerd, zijn ze vooral een vertaling van regelgeving voor al bestaande producten. Een product moet simpel gezegd ‘op orde’ zijn voordat het de markt op gaat.”
AI verschilt echter wezenlijk van ‘gewone’ producten, legt Van Eck uit. “AI is niet statisch. Het is geen hamer die van de fabrieksband rolt en klaar is voor gebruik en verder een hamer blijft. Een op de markt gebrachte AI-toepassing blijft zich ontwikkelen. Dat komt door updates die de gebruiker allerlei nieuwe opties geven, maar ook doordat toepassingen zichzelf trainen op basis van data. Optimalisatie noemt men dat. Het product dat je koopt kan dus nog op allerlei manieren veranderen. Je weet nooit wat er in de praktijk uitkomt.”
Praktisch toepasbaar
Europees Parlementariër Axel Voss (CDU) ziet eveneens problemen met de huidige ‘product gebaseerde’ aanpak in het voorstel, zo vertelt hij in een bijeenkomst van IBM. “Critici willen juist dat de AI-regelgeving over fundamentele rechten gaat. Er ligt nu een basis, maar de regels moeten praktisch toepasbaar zijn. Het voorstel is wat ons betreft nog te breed.”
Van Eck noemt het zelfs gemiste kans voor de introductie van een aantal nieuwe mensenrechten. “Er wordt niet uitgegaan van de bescherming van mensenrechten, terwijl er diverse ideeën voor mensenrechten zijn geopperd zoals het recht om niet als proefkonijn gebruikt te worden, en het recht om niet gemeten te worden.” Wat van Eck betreft is het niet zinnig om AI-systemen voor belastingen uit te sluiten zoals nu wordt voorgesteld. “In Nederland mag de Belastingdienst zo’n beetje alles. Zij vallen opmerkelijk genoeg niet onder de regelgeving zoals die nu is voorgesteld, terwijl het eerder met algoritmen juist misging bij deze organisatie.”
Middenweg tussen mensenrechten en innovatie
Europees AI regulering-expert Emmanuelle Legrand, werkzaam bij de Europese Raad, stelt dat er met de regels vooral een ‘middenweg’ moet worden gevonden waarbij mensenrechten sterke bescherming genieten, maar waar ook ruimte blijft voor innovatie. “Wie iets met AI wil doen heeft simpelweg data nodig. Zonder data bestaat er geen kunstmatige intelligentie.” Legrand wijst er daarnaast ook op dat de gebruiker ten alle tijden de touwtjes in handen moet hebben. “Er moet ruimte zijn om te experimenteren, en tegelijkertijd moeten aanbieders ook voldoen aan de Europese waarden en de normen. Voor alle lidstaten geldt dat er behoefte is aan ‘guidance’ op dit gebied.”
Maar hoe realistisch is die middenweg? Voor bedrijven geldt dat het huidige voorstel nog niet concreet genoeg is uitgewerkt om alle vragen weg te nemen. Christina Montgomery, Chief Privacy Officer van IBM, stelt dat de AI Act technologie veiliger en betrouwbaarder kan maken. In eerste instantie is het Amerikaanse bedrijf voorstander van Europese wetgeving, omdat IBM in honderden landen actief is met allemaal eigen, lokale wetgeving. “Een universeel en gestandaardiseerd framework zou ons helpen. En dat geldt ook voor de veiligheid van klanten en mensenrechten.”
Discussie over begrip AI
Tegelijkertijd zijn er bij IBM ook zorgen die nog niet zijn weggenomen. Montgomery noemt de definitie van kunstmatige intelligentie in het huidige voorstel nog ‘te breed’. De Amerikanen hebben dan ook verzocht om het concept van autonomie nader te beschrijven in de uiteindelijke versie. “Wat is bijvoorbeeld AI-software en hoe verschilt AI-software van gewone software die net als AI-software ook ‘resultaten’ geeft?”, aldus Montgomery. Daarnaast heeft IBM ook vragen over de rolverdeling in de ‘supply-chain’ van AI. Het is niet altijd duidelijk wie de leverancier of aanbieder is van een AI-product. “Er moet nog veel gefinetuned worden. Overheden moeten nu niet aan de zijlijn blijven staan, maar hiermee gezamenlijk met bedrijven aan de slag.”
Net als Montgomery vraagt ook Van Eck zich af of de regelgeving wel genoeg toegespitst is op de praktijk. “Bij de regelgeving die nu is voorgelegd moet er heel veel worden vastgelegd en gedocumenteerd. Ik vraag mij af of een gemiddelde startup hier wel de tijd en expertise voor heeft. Ik vraag me af in hoeverre innovatie wordt gehinderd door deze regels. Je zou juist graag dingen mogelijk willen maken.”
Ruimte voor bedrijven
Voss zou graag zien dat er ruimte over blijft voor bedrijven om te bouwen aan AI zonder het ‘hele GPDR-proces’ te moeten doorlopen. Dit zou met ‘sandboxes’, oftewel ‘veilige ruimtes’ om te kunnen experimenteren moeten kunnen. Daarnaast vraagt hij zich af of er voor bijvoorbeeld digitale beveiliging niet meer mogelijk moet worden gemaakt als het om AI gaat. “Want security is het fundament van wat we doen, om de infrastructuur goed te kunnen beschermen zouden we hier misschien meer ruimte voor moeten bieden.”
Het valt Van Eck op dat de Europese Commissie tot nu toe ‘harde keuzes’ in de regelgeving lijkt te vermijden. “De Commissie had ervoor kunnen kiezen om bijvoorbeeld neuroscience-toepassingen, waarmee met AI wordt ingegrepen in het menselijk brein, te verbieden. Dat is nu niet gedaan.” Wel is er gekozen om AI voor subliminale technieken die ervoor kan zorgen dat mensen anderen fysieke of psychische schade toebrengen te verbieden. “Ik vind het merkwaardig dat dit niet in zijn geheel verboden wordt. Ik vind dat mensen altijd moeten weten wanneer hun gedrag beïnvloed wordt door AI en keuzevrijheid moeten hebben.”
Tijd om te onderhandelen
Er is nog tijd om te onderhandelen over het voorstel, maar de zorgen zijn allerminst weggenomen, besluit Marlies van Eck “Het is geen kwestie meer van puntjes op de i zetten. Regulering voor AI klinkt heel aantrekkelijk, iedereen is blij met het initiatief. Maar we moeten wel goed kijken naar de context en de vorm waarin dit wordt ingezet en naar de effecten. Er wordt al gewaarschuwd voor het scenario waarin onze AI in de voorfase andere landen buiten Europa wordt ontwikkeld, om vervolgens alsnog hier te worden verkocht. Is dat dan de manier om met Europese normen en waarden te innoveren? Ook moeten we oppassen dat regelgeving niet alleen maar dingen moeilijker maakt.”
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee