Mensen houden niet van AI-gegenereerde antwoorden
Onderzoekers van Cornell University hebben deelnemers aan het onderzoek bij elkaar gezet in 219 paren die online een conversatie moesten houden over een beleid. Deze paren zijn daarbij weer verdeeld in drie groepen. Bij één groep moesten beide deelnemers in het paar uitsluitend gebruik maken van Smart Reply van Google. Dat machinelearningmodel houdt de conversatie bij en doet suggesties voor antwoorden. In een tweede groep mochten de deelnemers het hulpmiddel níet gebruiken en in de derde groep moest een van beide deelnemers in het paar wel Smart Reply gebruiken en de ander juist niet. De deelnemers wisten van elkaar niet of ze het hulpmiddel gebruikten.
Efficiency versus gevoel
De conclusie uit het onderzoek, zo beschrijft The Register, was dat het gebruik van het hulpmiddel de conversatie efficiënter en positiever van toon maakte. Maar de deelnemers die doorkregen dat ze voorgekookte antwoorden kregen, zagen hun gesprekspartner als minder coöperatief en hadden geen goed gevoel over de ander.
Een van de auteurs van het resulterende wetenschappelijk artikel in de sectie Scientific Reports van Nature - Malte Jung - geeft als verklaring dat mensen technologie minder vertrouwen, maar ook dat ze conversaties niet authentiek vinden als de technologie wordt gebruikt. Wanneer iemand vermoedt dat de ander AI gebruikt in antwoorden, kan dat tot de perceptie leiden dat een persoon minder interesse heeft, minder oprecht of authentiek is, zei Jung tegen The Register. "Een gedicht van een geliefde wordt waarschijnlijk minder op prijs gesteld als het gegenereerd is door ChatGPT.
Wel in zakelijke conversatie
Uit een vervolgexperiment waarbij iets andere hulpmiddelen werden ingezet, bleek dat het gebruik van AI in sommige situaties wel voordelen kan hebben. Dit betreft dan bijvoorbeeld transactionele of zakelijke communicatie. Daar kan AI een goede invloed hebben, vooral als het hulpmiddel is geïnstrueerd om een positieve toon in de conversatie te gebruiken. Maar, zo waarschuwt Jung wel, hoe een positieve toon wordt gewaardeerd in een conversatie hangt wel sterk van de context af. Een negatieve boodschap moet niet op jubelende toon worden gebracht.
De hoofdauteur van het wetenschappelijk artikel waarschuwt bovendien dat het gebruik van tekstgenererende AI betekent dat je een deel van je persoonlijke stem opoffert. Hij pleit dan ook voor meer transparantie met betrekking tot het gebruik van deze hulpmiddelen zodat duidelijker wordt wanneer mensen ze inzetten. Dat helpt volgens hem het wantrouwen ten aanzien van large language models (LLM's) wat weg te nemen.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee