Kan een bibliotheekabonnement voorkomen dat robots je vermoorden?

Wetenschappers willen boeken en verhalen gebruiken om robots in te laten zien wat ‘wenselijk’ en ‘onwenselijk’ gedrag is.

robot1Het is niet zo’n gek idee. Ook kinderen leren door boeken te lezen of door voorgelezen te worden (vaak onbewust) wat wel en niet mag en wat geaccepteerd en ongewenst gedrag is. Waarom zou een robot dat ook niet op deze manier kunnen achterhalen? “Wij geloven dat we door robots verhalen te leren begrijpen kunnen voorkomen dat ze psychotisch-achtig gedrag vertonen,” stelt onderzoeker Mark Riedl.

Stappenplan

Riedl ontwikkelde enige tijd geleden het Scheherazade-systeem. Met dit systeem kunnen robots door online verhalen te lezen achterhalen welke acties ondernomen moeten worden om een bepaald doel na te kunnen streven. Met behulp van Scheherazade kan een robot dus een stappenplan uitstippelen.

robonaut

Beloning

Samen met zijn collega Brent Harrison ontwikkelde Riedl onlangs Quixote. Een soort aanvulling op Scheherazade. Zodra Scheherazade een stappenplan heeft uitgestippeld, stuurt het systeem dat door naar Quixote. En Quixote genereert een ‘beloningssignaal’ als het plan goed is en een ‘strafsignaal’ als het plan fout is. In feite leert Quixote de robot dus dat deze een beloning krijgt als deze zich gedraagt als de protagonist in een verhaal en gestraft wordt als deze zich gedraagt als de antagonist in een verhaal.

In de apotheek

Een voorbeeldje. Een robot krijgt de opdracht om een medicijn te halen bij de apotheek en dat moet zo snel mogelijk. De robot kan dan de apotheek overvallen, het medicijn grijpen en wegrennen. Of de robot kan netjes in de rij gaan staan wachten tot hij aan de beurt is. Zonder Quixote zou de robot voor het eerste gaan: zo bereikt hij zijn doel het snelst. Maar dankzij Quixote weet de robot dat hij netjes in de rij moet gaan staan en het medicijn netjes moet afrekenen.

robonaut

Het is een belangrijke stap richting een robot met moraal. Volgens de onderzoekers is de Quixote-techniek met name veelbelovend voor robots die een beperkt takenpakket hebben, maar bij het uitvoeren van die taken wel de interactie met mensen aan moeten gaan. “Wij geloven dat AI (kunstmatige intelligentie, red.) zich conform de waarden van een specifieke gemeenschap moet gedragen en zo ongewenst gedrag moet vermijden,” stelt Riedl. “Robots in staat stellen om onze verhalen te begrijpen kan wel eens de meest efficiënte manier zijn om dat – in afwezigheid van een gebruiksaanwijzing van mensen – te bereiken.”

Door: Caroline Kraayvanger – Scientias.nl – Bronmateriaal: “Using Stories to Teach Human Values to Artificial Agents” – Georgia Tech