Overslaan en naar de inhoud gaan

Pas heel goed op met inkoop van AI-tools

Veel organisaties zonder eigen AI-expertise in huis, kopen technologie in van derden met het idee dan de risico's te hebben afgedekt. Niet is minder waar, blijkt uit onderzoek (pdf) van MIT Sloan Management Review en Boston Consulting Group. Maar liefst 55% van de missers zijn het gevolg van AI-tools van derden. 

Het gebruik van tools van derden maakt organisaties kwetsbaar voor dezelfde type missers die optreden bij het gebruik van AI in het algemeen. Reputatieschade, verlies van vertrouwen bij klanten, financiële verliezen, boetes van toezichthouders en rechtszaken. Het is uiterst belangrijk een responsible AI (RAI) programma op te zetten waarin alle risico's die het gevolg kunnen zijn van het inzetten van AI, zorgvuldig in kaart worden gebracht, blijkt uit het rapport.

Toch stellen de auteurs vast dat 20% van de organisaties die AI-tools van derden gebruiken geen enkele risico-assessment doet. Velen van hen hebben bijvoorbeeld geen routine om leveranciers of hun producten te evalueren op cybersecurity, waardoor ze blind vertrouwen op het aanbod.

Controle is geen sinecure maar zinvol

Het probleem is wel dat er geen eenvoudig pakket aan maatregelen is om de risico's van het gebruik van AI-tools van derden te beperken. Het komt er volgens de auteurs op neer een scala aan verschillende evaluatiemethoden toe te passen. Dat heeft echt wel zin, concluderen ze. Organisaties die zeven verschillende methoden hanteren, hebben bijna twee keer zo veel kans een AI-misser tijdig te ontdekken dan een organisatie die slechts drie methoden inzet (51% tegenover 24%).

De gesignaleerde risico's zijn aanzienlijk. Maar liefst 78% van de bij het onderzoek betrokken organisaties gebruikt AI-tools van derden en 53% gebruikt zelfs uitsluitend ingekochte tools. Ook nemen de risico's toe omdat de regelgeving rond het gebruik van AI toeneemt. Daardoor is de kans groter dat AI-tools niet aan de regelgeving voldoen en er boetes worden uitgedeeld en reputatieschade optreedt. 

In het diepe met genAI

Generatieve AI, zoals ChatGPT, veroorzaakt een golf van vraagstukken op het gebied van compliance, security, juridische implicaties en ethiek. IT staat centraal in het beantwoorden van deze vragen en het begeleiden van de organisatie door deze transformatie. Sluit je aan bij ons voor een diepe duik in de kernuitdagingen waarmee IT-professionals worden geconfronteerd bij het implementeren en integreren van deze technologie:

IT aan het roer op 7 november AFAS, Leusden

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in