Overslaan en naar de inhoud gaan

Tool helpt computer zeggen: 'Ik weet het niet'

Een van de belangrijke problemen bij een grootschalige toepassing van kunstmatige intelligentie is het gebrek aan vertrouwen van het grote publiek in systemen die autonoom beslissingen nemen. Een nieuw hulpmiddel - ontwikkeld door de University of Southern California (USC) - kan bijdragen dat vertrouwen te versterken.
twijfel
© Pixabay licence
Pixabay licence

De systemen die taken van mensen overnemen zoals in autonome auto's, zijn doorgaans op machine learning gebaseerd. Deze systemen maken gebruiken van neurale netwerken die zijn gemodelleerd naar de werking van de menselijke neurale systemen. Mensen kunnen razendsnel beslissingen nemen, maar kennen ook de twijfel wat de juiste keuze is, zeker als er heel veel informatie binnenkomt op basis waarvan de beslissing moet worden genomen. De autonome systemen maken echter altijd een keuze.

In de Cyber Physical Systems Group van de USC ontstond het idee dat het vertrouwen van mensen in dergelijke systemen toeneemt wanneer duidelijker is hoe zeker het systeem is van de juistheid van de beslissing. Een van de wetenschappers - Mingxi Cheng - verwoordt het zo: "Wanneer er conflicterende informatie is - waarom kunnen machines ons niet vertellen dat ze het niet weten."

De groep ontwikkelde 'Deep Trust', een gereedschap dat de mate van onzekerheid kwantificeert en dus kan aangeven wanneer het noodzakelijk is dat een mens meekijkt bij het nemen van beslissingen. Gedurende de ontwikkeling van de software hebben zij de systemen geanalyseerd die op basis van enquêtes de uitslag van de Amerikaanse presidentsverkiezing voorspelden. Het gereedschap maakt daarbij gebruik van een technologie genaamd subjectieve logica. Daaruit bleek dat de voorspellingen die richting een overwinning van Hillary Clinton wezen, een veel grotere foutmarge hadden dan werd aangenomen.

Architectuur van neurale netwerken is essentieel

De DeepTrust-tool geeft inzicht in de betrouwbaarheid van AI-algoritmen die getraind zijn op miljoenen datapunten. Het controleren van de labeling van al deze datapunten is een ondoenlijk werk. Het is volgens de onderzoekers belangrijker een analyse te maken van de architectuur van de neurale netwerken. Het gereedschap kan daarbij ook helpen te bepalen hoeveel ruis er in de test samples mag zitten. Dat kan data scientists helpen bij het maximaliseren van de accuratesse van het systeem en daarmee ook de betrouwbaarheid te vergroten.

Volgens de onderzoekers is er nog geen andere methode om de betrouwbaarheid van neurale netwerken te kwantificeren. Door verder te gaan op deze onderzoeksrichting kan kunstmatige intelligentie worden ontwikkeld met een zeker niveau van bewustzijn en vermogen tot zichzelf aanpassen.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in