Explainable AI nu al misbruikt in marketing
Naarmate kunstmatige intelligentie een belangrijkere rol krijgt in het maatschappelijk leven, neemt ook de behoefte toe te begrijpen hóe een algoritme te werk gaat. Dat inzicht is belangrijk voor burgers en bedrijven om vertrouwen te krijgen in de werking van algoritmen, maar in een groot aantal gevallen is die uitleg ook noodzakelijk. Denk aan juridische procedures, medische adviezen en bij financiële besluitvorming.
De roep om de black box te openen, heeft al geleid tot technieken die pretenderen meer inzicht te bieden. Voorbeelden hiervan zijn xAI Workbench, Arize AI en EthicalML/ai. Deze middelen voor meer inzicht, worden echter 'misbruikt' voor het aanjagen van sales. De inzet van deze technieken heeft namelijk tot gevolg dat 'explainable AI' nu steeds meer als een marketingterm wordt ingezet om AI-platformen aan de man te brengen, zo blijkt uit een analyse van Fortune.
Het probleem is - zo klinkt de kritiek - dat de 'verklaarbaarheid' neerkomt op het uitspugen van een hoop technisch 'gebrabbel' dat al dan niet iets te maken heeft met de uitgevoerde taak. De verklaring lijkt dan eerder een verhulling, door extra complexiteit te genereren. Aan de andere kant van het spectrum leveren deze 'verklaarbare AI-systemen' juist een te simplistische uitleg die niet duidelijk maakt waarom een gebruikte dataset wel of niet belangrijk was voor de uitkomsten van het algoritme.
Verklaren versus begrijpen
Verklaren staat dan ook niet gelijk aan begrijpen. Anthony Habayeb - CEO bij AI governance developer Monitaur - trekt bij Venturebeat de vergelijking met ervaringen in het onderwijs: iemand iets uitleggen is niet hetzelfde als zeker weten dat diegene het ook echt begrijpt. Daarom is het belangrijk dat er 'begrijpelijke AI' komt in plaats van 'verklaarbare AI'.
AI begrijpelijk maken betekent niet alleen dat gebruikers inzicht krijgen in hoe het model functioneert, maar ook hoe en waarom het werd geselecteerd voor het uitvoeren van een bepaalde taak. Dat omvat ook welke data aan het model werden gevoed en waarom. Plus welke problemen er tijdens de ontwikkeling en training opdoken. En zo zijn er nog meer van dit soort onderwerpen om AI begrijpelijk te maken.
Veel moeite en weinig tijd
Uiteindelijk is 'verklaarbaarheid' een datamanagement-probleem. Het zal niet makkelijk zijn om de juiste technieken en gereedschappen te ontwikkelen die voldoende gedetailleerd de genoemde punten uit de doeken doen. Bijkomende complexiteit is dat dit ook nog eens binnen een aanvaardbare periode moet worden gedaan om de inzet van 'begrijpelijke AI' werkbaar te houden.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee