Wanneer de robot faalt, is er dan nog vertrouwen?
De komende jaren gaan mensen steeds vaker aan de slag met een robot die hen assisteert in dagelijkse werkzaamheden. Hoewel robots wanneer ze goed geprogrammeerd zijn minder fouten maken dan mensen, komt het toch voor dat er onverwachte dingen gebeuren. Robert en Esterwood, respectievelijk universitair docent en post-doc medewerker aan de School of Information van de Universiteit van Michigan, hebben met een praktijkonderzoek bestudeerd of en hoe geschonden vertrouwen valt te herstellen.
Excuus, ontkenning, belofte
De wetenschappers lieten in een simulatie-experiment 164 mensen werken met een robot die pakjes op een lopende band moest zetten, schrijft Ars Technica. De deelnemers moesten controleren of dat wel goed ging. De robot was zo geprogrammeerd dat er af en toe wat fout liep. De groep menselijke participanten was ook nog in tweeën gedeeld. De een werkte met een mensachtige robot (humanoïde), de andere met een robotarm.
Na het maken van de fout gaf de robot een melding. Die kon variëren tussen een excuus, een ontkenning, een verklaring en een belofte dat het in het vervolg goed ging. De deelnemers werd gevraagd of zij er vertrouwen in hadden dat de robot de taak kon uitvoeren, dat het de taak zou uitvoeren of dat het de taak ook goed zou uitvoeren.
Feedback belangrijk
Het bleek dat het vertrouwen van de deelnemers in het taakuitvoerende vermogen van de robot het best herstelde wanneer de fout was gemaakt door de humanoïde robot. Dit herstellen gold zeker als deze mensachtige machine een verklaring gaf wat er fout was gelopen. Maar ook het vertrouwen dat de humanoïde robot het uiteindelijk goed zou doen, herstelde beter bij het maken van de verontschuldiging, de ontkenning en de verklaring.
De robotarm kon daarentegen beter dan de menselijk aandoende robot het vertrouwen herwinnen dat hij de taak kon doen. Hetzelfde gold voor het vertrouwen dat het de taak ook goed kon doen wanneer een belofte op het scherm verscheen na het maken van de fout.
Menselijke aanname
De verklaring die de wetenschappers geven voor deze uitkomsten is dat het toch voor een mens makkelijker is aan te nemen dat een menselijk aandoende robot leert van zijn fouten. Het geeft mensen iets meer het idee dat ze snappen hoe een robot werkt. Vertrouwen is steeds belangrijker naarmate mensen in nauw contact werken met robots. Zeker met de inschakeling van zelflerende systemen kan er nog wel eens wat mis gaan. Het systeem leert immers ook van fouten. Ook daar moeten mensen mee leren omgaan, maar daarnaast kunnen robotfabrikanten leren hoe ze de acceptatie door de mens zo goed mogelijk kunnen faciliteren. Robert en Esterwood zijn van plan deze interactie voorlopig verder te bestuderen.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee