Innovatie & Strategie

Wetenschap
AI-bot

Verontrustend: AI-bots ontwikkelen onderling eigen taal

Onderzoekers stoppen experiment met AI-bots die ze niet meer begrijpen.

AI © Wikimedia,  Alejandro Zorrilal Cruz
19 juli 2017

Onderzoekers stoppen experiment met AI-bots die ze niet meer begrijpen.

Het is een 'hot topic', momenteel. Wat moeten we met kunstmatige intelligentie als we die niet meer begrijpen. Experimenten bij Facebook laten zien dat dat moment heel snel kan aanbreken.

Facebook heeft experimenten gedaan met het onderhandelingsproces tussen tussen twee kunstmatig intelligent gemaakte chatbots. Daarmee wijkt het af van de doorsnee experimenten: bij chatbots onderzoekt men meestal de interactie met mensen.

De onderzoekers van Facebook hadden - naar het zich laat aanzien zonder vooropgezette reden - de chatbots geen taalrestricties opgelegd. Dat leidde op een gegeven moment tot een uitwisseling van argumenten waar geen touw meer aan vast te knopen was. De Bob gedoopte onderhandelingspartner kwam op enig moment met de zinsnede:

“I can can I I everything else.”

De Alice gedoopte tegenpartij kwam met:

“Balls have zero to me to me to me to me to me to me to me to me to.”

Begrijp jij het, begrijp ik het. De onderzoekers bij Facebook konden er in ieder geval geen touw aan vastknopen. Maar voor alle duidelijkheid: Bob en Alice zijn agenten in de waarschijnlijk meest geavanceerde onderhandelingssoftware van dit moment, die veel sneller en efficiënter een accuraat onderhandelingsresultaat kunnen bereiken dan de doorsnee mens. En het leidt geen twijfel dat de uitwisseling van argumenten  tussen Bob en Alice tot een resultaat had geleid. Ware het niet dat de Facebook-onderzoekers het experiment stopzetten, omdat ze het onwenselijk vinden dat niet na te gaan valt hoe een beslissing tot stand komt.

Het is overigens niet zo gek dat er een apart taaltje ontstaat tussen partijen die met elkaar handelen. Op de beursvloer had de doorsnee burger zich ook volstrekt niet thuis gevoeld, toen die nog niet gedigitaliseerd was. Een veemarkt is ook niet iets waar je als leek makkelijk doorzag hoe de onderhandelingen verliepen. En laten we wel wezen: een gesprek tussen twee IT'ers over werkgerelateerde zaken voelen buitenstaanders zich ook nogal snel verloren.

AI moet transparanter zijn dan mensen

Maar wat we van mensen kunnen accepteren, wordt bij machines al snel als onwenselijk gezien. Iets vergelijkbaars doet zich voor bij de zelfsturende auto. Van een menselijke bestuurder vragen we niet vooraf te expliciteren hoe hij een keuze gaat maken, als er alleen te kiezen valt tussen twee kwaden. Maar als het om een autonoom rijdende auto gaat (zullen we die ooit auto-auto gaan noemen?) is het idee dat de kunstmatige bestuurder naar bevind van zaken handelt, niet acceptabel.

De vraag is natuurlijk wel, of de mensheid die reserves blijft houden, als er meer ervaring wordt opgedaan bij kunstmatig intelligente systemen. Voor nu hebben de onderzoekers bij Facebook in ieder geval besloten om een extra criterium op te leggen aan de werking van de chatbots: onderhandelingen tussen machines moeten in standaard Engels gevoerd worden. Het zou wel interessant zijn  als ze onderzochten, of dat verschillen oplevert met de situatie waarin chatbots zelf mogen beslissen over het gehanteerde idioom. Maar het is onduidelijk of dat op het onderzoeksprogramma staat.

Lees meer over
Lees meer over Innovatie & Strategie OP AG Intelligence
4
Reacties
Anoniem 24 juli 2017 22:50

Dat klinkt interessant, Jelle! Bedankt voor deze update. Heb je wellicht een bronvermelding? Dan is het wellicht mogelijk om meer details of context vergaren. Dat zou ik zeker waarderen!

Anoniem 23 juli 2017 17:46

Doe er een voor Gerrit Zalm en de formatieonderhandelingen

Anoniem 23 juli 2017 13:39

Salarisonderhandelingen is beschikbaar. Maak 3 bitcoin over naar de wallet van deze bot om het proces te starten.

;)

Anoniem 20 juli 2017 20:40

is er ook een ai onderhandelingsagent beschikbaar voor salarisonderhandelingen?

Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.