Responsible AI-initiatieven moeten verantwoordelijken aanwijzen
We bouwen al aan een 'onwerkelijke wereld', stelt Accenture als 'bottom line' in zijn Technology Vision 2022-rapport, dat vooral ingaat op het ontstaan van een 'Metaverse'. Of daarmee de wereld beter gemaakt wordt of dat we slachtoffer worden van kwaadaardige actoren, valt nog te bezien.
Waarschijnlijk komen we ergens in het midden uit, concluderen de auteurs. Maar daarmee wordt authenticiteit als kompas om AI te gebruiken op een verantwoorde manier erg belangrijk. Herkomst (hoe zijn we hier gekomen?), beleid (wat zijn de grenzen?) mensen (wie is verantwoordelijk?) en doelen (wat doet het eigenlijk?) moeten onder de loep worden genomen.
Uit het rapport blijkt dat 77% van de ondervraagden in het onderzoek vindt dat de bedrijven verantwoordelijk gehouden moeten worden voor hun misbruik van AI. Verder heeft slechts 35% vertrouwen in hoe AI wordt geïmplementeerd door organisaties.
Wie is verantwoordelijk?
De ontwikkeling van ethisch verantwoorde en betrouwbare AI is voor een belangrijk deel de verantwoordelijkheid van de mensen die de AI-modellen bij een organisatie creëren en beschikbaar stellen. De richtlijnen die daarbij worden gehanteerd, blijken per organisatie flink te verschillen. Een bijkomend probleem is dat er een behoorlijke kenniskloof bestaat tussen beleidsmakers aan de ene kant en data scientists en ontwikkelaars aan de andere kant. Niet alle betrokkenen beschikken over de juiste middelen om een juiste risico-inschatting te kunnen maken van het toepassen van machine learning en AI in het algemeen.
Venturebeat sprak met de CEO van het twee jaar oude Credo AI, dat een governance-platform heeft ontwikkeld dat bedrijven moet helpen hun AI-systemen en machinelearning-modellen in lijn te houden met de menselijke waarden. Een van de onderdelen daarvan is duidelijkheid creëren waar zaken mis kunnen gaan en wie dan verantwoordelijk is.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee