AI-ethiek: Tesla negeerde waarschuwing fatale fout in Autopilot
- Rechtszaak brengt brisante verklaringen van Tesla-technici aan het licht
- Autopilot ontworpen alleen voor gebruik op de snelweg
- Bedrijfsleiding Tesla deed niets met waarschuwingen
- Lees ook: Tesla-hacker: geheime autonome modus ontdekt én uitgeprobeerd
Uit verklaringen in een rechtszaak tegen Tesla rond de dood van een 50-jarige bestuurder blijkt dat de bedrijfsleiding gewaarschuwd was dat Autopilot niet kon omgaan met kruisend verkeer. Toch werd de software zo geïmplementeerd dat deze actief kon zijn in de bekende gevaarlijke situaties. Met fatale afloop.
De situatie doet denken aan het klassieke trolly-probleem uit de ethiek waarbij een proefpersoon de keuze moet maken of een autobestuurder het leven van kind spaart ten koste van een oudere passagier. Alleen gaat het in dit geval niet om twee mensen, maar om het leven van een bestuurder en de bedrijfsresultaten van de autofabrikant.
Kruisend verkeer
De zaak draait om een ongeluk uit 2019 waarbij Jeremy Banner in de bestuurdersstoel van een Tesla Model 3, net de Autopilot had aangezet op een weg zonder middenstreep toen er op een kruising een voertuig met oplegger overstak. De software zag het gevaarte niet, waarbij de Tesla onder de aanhanger schoof en Banner om het leven kwam.
Het ongeluk heeft grote overeenkomsten met een ongeluk uit 2016 waar in een soortgelijke situatie Joshua Brown onder een grote vrachtauto belandde met een Model S die op de Autopilot reed.
Belastende verklaringen
Afgelopen week werden verklaringen bekend gemaakt uit een rechtszaak die nabestaanden van Banner tegen Tesla hebben aangespannen, meldt Bloomberg. Twee technici van Tesla stellen daarin, onder ede, dat binnen het bedrijf bekend was dat de Autopilot-software een blinde vlek heeft voor kruisend verkeer. Toch heeft de bedrijfsleiding niet de stappen genomen om te voorkomen dat die tekortkoming leidt tot ongelukken. Een van de technici - Chris Payne - stelt dat de Autopilot is ontworpen om de middenstreep op de weg te detecteren. Is die er niet, schakelt de software zichzelf uit. Maar het is wel mogelijk de Autopilot aan te zetten ook als er geen middenstreep is en Autopilot zal dan gewoon blijven werken.
De andere techneut - Nicklas Gustafsson - verklaart dat de software is ontwikkeld voor gebruik op de snelweg en niet is bedoeld voor het reageren op kruisend verkeer.
Inmiddels is het probleem een onderwerp van verschillende onderzoeken onder meer van de US National Highway Traffic Safety Administration (NHTSA), maar ook van het Amerikaanse ministerie van Justitie.
Verkeerde voorstelling doel Autopilot
In de rechtszaak rond de dood van Banner beschuldigt de familie van het slachtoffer Tesla ervan, op basis van de verklaringen van de twee technici, de eigenschappen van Autopilot verkeerd te hebben voorgesteld terwijl het bedrijf wist op basis van het eerdere ongeluk dat de software niet goed werkte. Ondanks dat besef werd bewust besloten om door te gaan met miljarden te verdienen aan hun slecht-functionerende voertuigen, staat te lezen in de aanklacht. In oktober neemt een jury-rechtbank de zaak in behandeling.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee