'Beeldherkenning heeft seksistische trekjes'
Hoogleraar Computer Science Vincente Ordóñez van de Universiteit van Virginia ontdekte een patroon in de beeldherkenningssoftware die hij aan het ontwikkelen was. ‘De software associeerde de foto van een keuken met vrouwen en niet met mannen’, zei hij tegen Wired.
Ordóñez vroeg zich hierdoor af of hij en de andere onderzoekers onbewust vooroordelen door lieten schemeren tijdens het programmeren. Hij nam de proef op de som met zijn collega’s.
Gorilla's
Uit zijn onderzoek bleek dat twee prominente verzamelingen van afbeeldingen – waaronder één die wordt gebruikt door Facebook en Microsoft – seksediscriminatie laten zien bij foto’s die betrekking hebben op koken en sport. Beelden van wasmachines worden bijvoorbeeld geassocieerd met vrouwen, het gebruiken van wapens wordt gekoppeld aan mannen.
De machine-learning software trainde zichzelf er vervolgens in om de associaties – bijvoorbeeld van vrouwen met koken nog sterker te maken. In het onderzoek staat een foto van een man bij een fornuis die door de kunstmatige intelligentie wordt herkend als vrouw. Dat soort fouten kunnen grote gevolgen hebben: in 2015 herkende een fotoservice van Google mensen met een donkere huidskleur bijvoorbeeld als gorilla’s.
Afwashulp
Een onderzoeker aan het Allen Institute voor Kunstmatige Intelligentie zei tegen Wired dat hij zich een scenario voor kan stellen waarin een robot aan een vrouw vraagt of ze hulp nodig heeft bij het afwassen terwijl hij haar man een biertje geeft. ‘Dat houdt niet alleen bestaande rolpatronen in stand, maar kan ze verergeren’, zei hij tegen Wired.
Microsoft stelt tegenover Wired dat ze een intern comité voor ethiek heeft en claimt dat haar onderzoekers bij het werken met haar systemen altijd op moeten passen voor eigen en andermans vooroordelen.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee