BingGPT aan banden gelegd door Microsoft
Gebruikers hebben de vernieuwde zoekmachine al betrapt op feitelijke fouten, volledige verzinsels en zelfs geprikkelde of ronduit vijandige reacties. Experts hebben al gewaarschuwd voor het grote probleem van 'hallucinaties' door generatieve taalmodellen, zoals GPT-3 dat in verbeterde uitvoering de grondslag vormt voor BingGPT. Dergelijke AI-systemen hebben de neiging dat ze gaan 'hallucineren', doordat ze bij het genereren van teksten afwijken van feiten en woordencombinaties ophoesten die weliswaar aannemelijk lijken, maar in de werkelijkheid niet bestaan.
Zoekmachinereus Google, die zelf haastig heeft gereageerd op BingGPT, heeft eerder gewaarschuwd voor misleidende output door AI-gedreven chatbots. De mate waarin mensen vertrouwen op 'wat de computer zegt' kan ondermijnend werken, voor de hele maatschappij. Microsoft neemt nu maatregelen om afdwalend gedrag van zijn AI-gedreven zoekmachine aan banden te leggen.
Onbetrouwbaar, soms zelfs gevaarlijk
"Zoals we eerder al meldden, kunnen zeer lange gesprekken voor de nieuwe zoekmachine verwarrend werken", schrijft Microsoft vrijdag in een blogpost. De mededeling van het techconcern komt enkele dagen nadat verschillende buitenlandse maar ook Nederlandse media meldden dat de nieuwe functionaliteit in de zoekmachine niet altijd betrouwbaar en soms zelfs gevaarlijk is.
De kunstmatige intelligentie die Microsoft aanbiedt, is ontwikkeld door OpenAI, het bedrijf achter het populaire programma ChatGPT. Wie de volledige kunstmatige intelligentie-functionaliteit in Bing wil gebruiken moet geduld hebben. Er is een wachtlijst. Microsoft heeft wel verklaard binnen de komende weken te willen opschalen naar miljoenen gebruikers. Het is niet bekend of dat ambitieuze plan nog op schema ligt.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee