Nederlander heeft weinig vertrouwen in algoritmes
Mensen worden daarmee steeds wantrouwiger ten opzichte van algoritmes. Ze zijn vooral kritisch over het gebruik van zo'n technologie door de overheid en door financiële instellingen. Ze twijfelen ook aan antwoorden van ChatGPT en andere chatbots die kunstmatige intelligentie gebruiken om teksten te schrijven.
KPMG heeft tussen juli en september onderzoek laten doen naar de houding van Nederlanders tegenover zulke technologieën. Ongeveer 70 procent is bekend met algoritmes. Zo'n vier jaar geleden was minder dan de helft hiervan op de hoogte. Het vertrouwen is met 22 procent gedaald ten opzichte van vorig jaar, becijfert KPMG. Aan het onderzoek, dat is uitgevoerd door Motivaction, namen ruim 1000 Nederlanders deel.
Meer dan vier op de tien mensen zijn negatief over het gebruik van algoritmes door de overheid, en door organisaties die voor de overheid werken. Dat kan te maken hebben met de toeslagenaffaire en andere zaken, denken de onderzoekers.
Nog minder vertrouwen is er in de toepassing van algoritmes door onze banken en verzekeraars. Iets meer dan de helft van de mensen denkt dat financiële instellingen niet eerlijk en transparant zijn over hun gebruik van algoritmes.
Steeds meer mensen gebruiken ChatGPT om antwoorden op vragen te krijgen, maar minder dan een op de vijf mensen vertrouwt de antwoorden. Hoe meer mensen weten over de algoritmes, hoe meer ze zich bewust zijn van de risico's, concludeert KPMG.
Rathenau: AI versterkt risico's digitalisering
Het groeiende wantrouwen ten opzichte van AI lijkt te worden onderbouwd door resultaten van een onderzoek van het Rathenau Instituut stelt op basis van een onderzoek naar generatieve AI. Daarin concludeert het onderzoeksinstituut dat de opkomst van generatieve AI-systemen bekende risico’s van digitalisering, zoals discriminatie en onveiligheid versterkt. Daarnaast brengt de technologie nieuwe risico’s met zich mee voor intellectueel eigendom en menselijke ontwikkeling.
Het Rathenau Instituut, bracht vandaag de publicatie Geratieve AI uit met daarin een overzicht van de soorten toepassingen van generatieve AI en de maatschappelijke impact ervan.
“Politici en beleidsmakers moeten nu aan de slag om de risico’s van generatieve AI tegen te gaan, maar het kost tijd voordat beleid effect zal hebben”, aldus onderzoekscoördinator Linda Kool. “Tot die tijd staat iedere burger en organisatie voor de vraag of zij de technologie op dit moment verantwoord kunnen gebruiken.”
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonneeIn de wetenschap worden domein specifieke chatbots gebruikt. Een voorbeeld is te vinden op https://pubs.rsc.org/en/content/articlelanding/2023/dd/d3dd00112a Deze chatbots worden getraind met wetenschappelijke publicaties in een bepaald domein. De bekende risico’s van digitalisering, zoals discriminatie en onveiligheid, zijn er in deze domein specifieke wetenschappelijke chatbots niet.
De gangbare negatieve beeldvorming via journalistiek is te veel een een verdienmodel welke niet bijdraagt in het begrip.
Elke regeling verzonnen door een mens of met behulp van een machine is een algoritme. De vele algoritmes in dagelijks gebruikte technologie worden over het hoofd gezien.