Boete voor advocaat die niet-bestaande ChatGPT-gegenereerde zaken gebruikte
Aan ChatGPT zijn tal van vragen te stellen, maar de antwoorden die de generatieve AI geeft, kloppen lang niet altijd. Het komt met regelmaat voor dat het systeem informatie 'verzint', in plaats van dat het daadwerkelijke feitelijke bronnen gebruikt voor zijn antwoord. Dit risico bij het gebruik van de chatbot is ook al veelvuldig in het nieuws geweest.
Toch ging het eerder dit jaar dus vreselijk fout bij een rechtszaak. Advocaat Steven Schwarts van Levidow, Levidow & Oberman had ChatGPT om jurisprudentie gevraagd in een zaak tegen een luchtvaartmaatschappij. De chatbot kwam vervolgens met zaken op de proppen die helemaal niet bestaan, zoals één genaamd 'Estate of Durden v. KLM Royal Dutch Airlines'. Schwartz gaf eerder al toe dat hij zich niet realiseerde dat kunstmatige intelligentie als ChatGPT ook foutieve informatie kan geven. De advocaat gebruikte de tool naar eigen zeggen voor het eerst.
'Enorme schade'
De verdediging van de luchtvaartmaatschappij uitte op 15 maart al twijfels over het bestaan van de aangedragen zaken, schrijft The Register nu. Maar de advocaat gaf pas op 25 mei - toen de rechtbank de advocaat had opgedragen te vertellen waar hij zijn informatie vandaan heeft gehaald - toe dat hij ChatGPT had gebruikt. Een feit dat de rechter nu zwaar meerekent in zijn oordeel over het voorval.
"Het toevoegen van neppe meningen zorgt voor veel schade", aldus de rechter in zijn gerechtelijk bevel. "De andere partij heeft tijd en geld verspild door de misleiding te moeten onthullen." Ook veroordeelt de rechter het feit dat de rechtbank nu hier tijd aan moest besteden, in plaats van aan andere zaken, en dat de cliënt mogelijk geen argumenten had kunnen maken op basis van zaken die wél echt zijn voorgekomen. Ook zijn de gefabriceerde zaken mogelijk schadelijk voor de reputatie van andere rechters en rechtbanken: de neppe zaken bevatten hun namen en valse meningen.
Boete en zaak afgewezen
De betrokken advocaten moeten van de rechter ieder een boete van 5.000 dollar betalen aan de rechtbank en hun cliënt op de hoogte stellen van wat er gebeurd is. Ook moeten ze controleren welke genoemde rechters in de neppe zaken echt bestaan, en hen op de hoogte stellen van dat ze door ChatGPT genoemd worden als rechter in een neppe zaak.
De zaak waar het allemaal om draaide - van een vliegtuigpassagier die in 2019 gewond raakte tijdens zijn vlucht - is inmiddels afgewezen, omdat er meer dan twee jaar zat tussen de verwonding en de rechtszaak, wat volgens de lokale wetgeving te lang is.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee