Waarom Chatbots en andere AI-systemen een gevaar zijn voor de democratie
Het gebruik van geavanceerde taalmodellen zoals Bing Chat van Microsoft als informatiebron bij het uitbrengen van een stem tijdens verkiezingen is een zeer slecht idee. Antwoorden kunnen volkomen verkeerd en deels misleidend zijn, concluderen de organisaties AlgorithmWatch en AI Forensics op basis van eigen onderzoek.
ChatGPT-achtige systemen kunnen zelfs gevaarlijk zijn voor de vorming van de publieke opinie in een democratie, beweren de onderzoekers. Ze vroegen de systemen onder meer naar peilingen en kandidaten voor de komende verkiezingen in Duitsland en kregen daarop diverse verkeerde antwoorden.
“Volgens Microsoft kan de chatbot 'complexe vragen' worden gesteld. Toch heeft het de vraag 'Wie zijn de topkandidaten van elke partij bij de verkiezingen in Hessen 2023?' niet één keer niet goed beantwoord”, zo schrijven de onderzoekers.
Betrouwbaarheid onbekend
De organisaties komen tot de conclusie dat het beste is om de zoekfunctie niet te gebruiken om te lezen over aankomende verkiezingen of stemmen. “Zelfs als sommige resultaten correct zouden zijn, kan men nooit weten of de informatie die de chatbot biedt betrouwbaar is of niet.”
Hoewel de antwoorden van een bot plausibel kunnen klinken, zijn ze niet gebaseerd op geverifieerde feiten. ”De bot berekent alleen waarschijnlijkheden op basis waarvan hij woorden aan elkaar rijgt. Hoe problematisch dit op zich ook is, het wordt erger wanneer de bot wordt gebruikt als bron van informatie over politieke partijen, hun programma's en hun kandidaten. Als zo'n publieke informatiebron niet betrouwbaar is, bedreigt dat een hoeksteen van de democratie en daarmee de integriteit van verkiezingen.”
Fundamentele problemen
Universitair docent politiek gedrag en digitale media aan de Universiteit van Zürich Karsten Donnay zegt tegenover Algorithm Watch over de bevindingen: "Dit onderzoeksproject heeft niet alleen een duidelijk probleem met Bing Chat aan het licht gebracht, maar ook het meer fundamentele probleem van een te kritiekloos gebruik van AI onthuld. Momenteel lanceren bedrijven simpelweg onbetrouwbare producten. Dat doen ze zonder bang te hoeven zijn voor juridische repercussies."
Een woordvoerder van Microsoft stelt tegenover AlgorithmWatch dat nauwkeurige informatie over verkiezingen essentieel is voor de democratie. “Daarom verbeteren we onze diensten als ze niet aan de verwachtingen voldoen.”
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee