Facebook schakelt racistisch AI-advies uit
De racistische labeling van Facebooks video-aanbevelingen is recent aan het licht gekomen bij een video van juni dit jaar, meldt onder meer The New York Times. In de opname komen gekleurde mannen voor die in conflict zijn met blanke mensen en politieagenten. Apen of primaten zijn niet in beeld, komen niet aan bod, en zijn ook niet gerelateerd aan de inhoud van de video, die afkomstig is van de Britse tabloid The Daily Mail.
Jaren oud probleem
Facebook-gebruikers die de video bekeken, kregen van het social network de vraag of ze 'video's over primaten' wilden blijven zien. In reactie heeft het bedrijf van Mark Zuckerberg de aanbevelingsfunctie geheel uitgeschakeld. Het stelt nu een onderzoek in naar de oorzaak van deze "onacceptabele fout".
Een link tussen huidskleur en primaten is al eerder ten onrechte gelegd door AI-software, in bijvoorbeeld fotomateriaal. Zo heeft Google met zijn online fotodienst Photos in 2015 het label 'gorilla's' geplakt op beeld met gekleurde mensen. Concurrent Flickr bleek ook zoiets te doen. Ook AI-inzet voor gezichtsherkenning gaat vaak de fout in bij gekleurde mensen. Daarbij komen fouten en persoonsverwisselingen vaker voor dan bij blanke gezichten.
Datasets
Een oorzaak voor zulke bias in kunstmatige intelligentie kan de gebruikte dataset zijn, waarbij ontwikkelaars en AI-ingenieurs niet goed letten op diversiteit van hun bronbestanden en de beoogde inzet van systemen die ze ontwikkelen. Facebook heeft de grootste collectie van gebruikersbeeld ter wereld en kan daar zijn algoritmes op trainen. Het is niet duidelijk hoe nu de racistische labeling tot stand is gekomen. "We hebben nog veel vooruitgang te boeken", verklaart een woordvoerder tegenover The Verge.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee