Dit zijn de nieuwe Europese regels voor AI
Het staat straks zwart op wit; wat mag er wel en wat mag er niet met AI. AI-systemen of toepassingen die een duidelijke bedreiging vormen voor de veiligheid, bestaansmiddelen en rechten van mensen, worden verboden. Verboden wordt bijvoorbeeld om menselijk gedrag te manipuleren met AI-systemen om de vrije wil van gebruikers te omzeilen of te beïnvloeden.
Denk bijvoorbeeld aan speelgoed met spraakondersteuning dat minderjarigen aanspoort tot gevaarlijk gedrag. Ook AI-systemen die “social scoring” door overheden mogelijk maken, zijn niet toegestaan op basis van de voorgestelde regels.
Strenge eisen aan risicovolle AI-toepassingen
Niet verboden, maar wel onderworpen aan strenge eisen worden de zogenaamde risicovolle AI- systemen. Risicovolle AI-systemen zijn bijvoorbeeld bepaalde systemen voor biometrische identificatie op afstand. Ook AI-systemen die worden gebruikt voor recruitment of selectie in het kader van personeelsbeheer zijn als risicovol aangemerkt. Net als AI-systemen die worden gebruikt voor de toegang tot onderwijs.
Deze risicovolle AI-systemen moeten voldoen aan een flinke set verplichtingen voordat de systemen op de markt mogen worden gebracht. Zo moet er een adequaat systeem zijn voor risicobeoordeling en risicobeperking. Verder worden eisen gesteld aan de kwaliteit van de datasets die het systeem voeden en moeten gebruikers via het systeem duidelijk en adequaat kunnen worden geïnformeerd. Deze verplichtingen zijn volgens de Europese Commissie al “state of the art” voor vele vooraanstaande leveranciers van AI-systemen.
Met een zogenaamde conformiteitsbeoordeling moeten leveranciers aantonen dat hun AI-systemen voldoen aan deze eisen. Voor sommige AI-systemen moet de conformiteitsbeoordeling door een derde partij worden uitgevoerd.
Transparantieverplichtingen voor aangewezen AI-systemen
Voor in de voorgestelde regels specifiek aangewezen AI-systemen worden bepaalde informatieverplichtingen in het leven geroepen. Zo moeten gebruikers van een AI-systeem zoals een chatbot worden ingelicht dat zij met een machine van doen hebben en niet met een mens. Dit stelt gebruikers in staat om bewust te kiezen de interactie met de chatbot voort te zetten of niet.
Vrijwillige gedragscodes
Voor leveranciers van AI-systemen die niet zijn aangemerkt als risicovol hebben de voorgestelde regels geen bijzondere consequenties. Wel is in de voorgestelde regels te lezen dat de Europese Commissie en de lidstaten de ontwikkeling van vrijwillige gedragscodes voor dergelijke AI-systemen zullen aanmoedigen en faciliteren. Voor bepaalde AI-systemen vormen deze gedragscodes een aanvulling op de transparantieverplichtingen.
Hoe verder?
De voorgestelde regels moeten volgens de normale wetgevingsprocedure worden behandeld. Nadat de regels zijn vastgesteld gelden ze rechtstreeks binnen de gehele Europese Unie. De regels gelden ook als het AI-systeem is ontwikkeld of zich bevindt buiten de EU maar daarbinnen wordt gebruikt. Op nationaal niveau zal worden toegezien op naleving van de regels en gehandhaafd bij niet naleving. De lidstaten moeten daarvoor één nationale toezichthoudende autoriteit aanwijzen.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee