Gezichtsherkenning in politiezaak: 'De computer had het fout'
Een woordvoerder van het politiebureau in Detroit verklaart tegenover Ars Technica dat het computersysteem meer moeite heeft met beelden van gekleurde mensen. Verschillende testen uitgevoerd door de politie van Detroit hebben dit resultaat bevestigd. Een consequentie van de techniek van kunstmatige intelligentie waarbij de technologie bij meerdere resultaten uiteindelijk gokt welke uitkomst het beste matcht.
Het Nationale Instituut van Standaarden en Technologie, de NIST, in Amerika publiceerde eerder al een studie waaruit bleek dat gezichtsherkenning het vaakst klopt bij blanke mensen. Maar voor Aziatische en bijvoorbeeld zwarte mensen is het 10 tot 100 keer waarschijnlijker dat er een foute uitkomst wordt gegenereerd.
Williams werd op basis van de gezichtsherkenning toegevoegd aan een selectie van zes personen, die aan een beveiliger werd getoond. Williams werd als dader aangewezen. De beveiliger had echter ook alleen de beveiligingsbeelden gzien. Na een nacht in de cel en ondervraging de volgende dag werd duidelijk dat Williams de dader niet kon zijn. “Dan heeft de computer een fout gemaakt", reageerde de politie.
IBM stopt met gezichtsherkenning
Al eerder werd bekend dat IBM gezichtsherkenning niet meer als technologie aanbiedt. Op 8 juni schreef de CEO Arvind Krishna in een brief aan het Amerikaanse congres: "IBM is fel tegen en zal het gebruik van technologie, inclusief gezichtsherkenningstechnologie die door andere leveranciers wordt aangeboden, voor massasurveillance, raciale profilering, [of] schendingen van fundamentele mensenrechten en vrijheden afkeuren”.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee