Machinelearning-algoritmen gaan op drie manieren de fout in
Tot nog toe wordt er veelal vanuit gegaan dat wanneer een machinelearning-algoritme de fout in gaat bij de interpretatie van data die nog niet eerder werden aangeboden, er twee oorzaken zijn: ofwel er zitten fouten in de trainingsdata, ofwel er is gemanipuleerd met de aangeboden data. In dat laatste geval hebben kwaadwillenden bijvoorbeeld met stukjes tape een verkeersbord een andere betekenis gegeven.
Cameron Buckner, associate professor filosofie aan de Universiteit van Houston, wijst er in een artikel in Nature Machine Intelligence op dat een derde variant vaak over het hoofd wordt gezien. Het algoritme kan ook de fout in gaan door een artefact. Hij legt het uit aan de hand van een voorbeeld uit de camera-optiek: de zon die op een cameralens valt zorgt voor een foto waarop patronen te zien zijn die in werkelijkheid niet in beeld waren. Die patronen zijn niet het gevolg van een fout in het lenzenstelsel en ook niet moedwillig aangebracht in de gefotografeerde omgeving.
Op dezelfde manier kunnen ook algoritmen een foute beslissing maken, terwijl de trainingsdata betrouwbaar waren en er niet is gemanipuleerd met de patronen waarop het algoritme een besluit moet nemen. Het probleem is dat over het voorkomen van deze artefacten nog onvoldoende bekend is. Toch is dit begrip noodzakelijk om een oordeel te kunnen vellen over hoe betrouwbaar zo'n algoritme is.
Zo'n artefact kan zelfs extra informatie bieden. In het geval van het zonlicht in de cameralens geeft de strepen aan waar de zon stond, op het moment dat de foto genomen werd. Onderzoek naar artefacten bij deeplearning-algoritmen kunnen zo wellicht ook extra inzicht opleveren.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee