Een goede robot is sociaal
Bastienne Wentzel

9 december 2013, Kijk

Vooral in de zorg zijn ze populair: robots die bijvoorbeeld hulp aan zieken en ouderen verlenen, schoonmaken of de bewaking doen. Hoewel de tientallen projecten voor het ontwikkelen van zorgrobots nog allemaal in de experimentele fase verkeren, lijkt het erop of we in de nabije toekomst steeds meer met robots samen gaan werken, vooral met de zogeheten sociale robots. Maar hoe moeten die zich gedragen willen we ze accepteren in onze nabijheid?

Midden in een zin springt het robotje, dat tot dan toe bewegingsloos op tafel zat, tot leven en kijkt me aan. Als ik mijn hoofd afwend, draait hij zijn hoofd mee. Til ik mijn hoofd op, dan kopieert het wezentje mijn gedrag. Knijp ik mijn ogen iets dicht, dan worden de zijne rood. Hij denkt dat ik boos kijk en probeert dat te mimicken, zeggen de onderzoekers. Ook al vertoont het robotje Nao perfect menselijk gedrag - namelijk een kopie van het mijne - toch voel ik me een beetje ongemakkelijk. Hoe komt dat? En hoe kom je ervan af? Dat is waar Vanessa Evers, hoogleraar Human Media Interaction zich mee bezig houdt. Ze bestudeert gedrag van mensen in de omgang met technologie, bijvoorbeeld sociale robots.
 
Griezelen
Evers heeft haar eigen, uitgebreide definitie van een sociale robot. 'Een sociale robot is een apparaat dat de echte wereld observeert en op basis daarvan beslissingen neemt en acties uitvoert die fysieke impact hebben op de echte wereld. Een sociale robot moet een bepaald begrip hebben van zijn omgeving. Ik onderzoek hoe die robots zich moeten gedragen wanneer ze een bepaalde taak uitvoeren.'
Een sociale robot heeft meestal een gelijkenis met een levend wezen. Met benen of wielen om hem voort te bewegen, armen om iets te pakken en ogen om te zien. Dat is niet alleen omdat wij vinden dat ze er zo uit moeten zien. Sterker nog, het kan onhandig zijn. Hoe meer een robot eruit ziet als een mens, hoe makkelijker we zijn nabijheid accepteren. Maar als een robot er bijna perfect menselijk uitziet, maar zich net even anders gedraagt dan wij verwachten, vinden we dat heel erg eng. Dat effect is beschreven als de uncanny valley, soms vertaald als 'de griezelvallei'. Deze hypothese van de Japanse professor Masahiro Mori stelt dat we steeds positiever en meelevender tegenover een robot staan naarmate die menselijker is. Totdat een punt is bereikt waarop we plotseling afkeer voelen. De reden van die negatieve reactie op té menselijke robots is nog onderwerp van speculatie.
Het menselijke uiterlijk van een sociale robot is dan ook niet per se gekozen om ons een plezier te doen,  legt Evers uit. 'Een sociale robot moet zijn werk doen in onze wereld. Bij ons thuis zal de robot dezelfde acties moeten verrichten als wij. Deuren openen, traplopen, in keukenkastjes kijken en met ons communiceren. Een robot die dat kan, heeft al gauw benen, armen, handen en ogen.'
 
Koelkast op wielen
Hoewel sociale robots allerlei taken kunnen verrichten, doen ze vaak dienst als hulprobot in de zorg, zij het voorlopig nog slechts als experiment. Jorge Gallego Pérez (UTwente) bestudeert de menselijke reactie op een hulprobot voor ouderen die is ontwikkeld door het Duitse Fraunhofer instituut. De robot ziet eruit als een rijdende koelkast met een robotarm. Er is bewust gekozen voor een niet-humanoide robot, zegt Gallego Pérez. De acceptatie bij ouderen van een robot die er te menselijk uitziet, ligt erg moeilijk, merkte hij tijdens zijn onderzoek. Hij ondervroeg ouderen en ontdekte dat zij de meeste problemen hebben met eenzaamheid en een laag gevoel van eigenwaarde. De robot zou hen daarmee kunnen helpen door ze te stimuleren eens iemand te bellen of iets buiten de deur te ondernemen. Gallego Pérez zou nog wel wat aan het ontwerp willen wijzigen: 'Ik zou hem liefst lichter en kleiner maken en meer spraakmogelijkheden geven. Ook de arm is nog te sterk en te gevaarlijk.'
 
Navigeren
Menselijk of niet, een sociale robot moet in ieder geval zelfstandig kunnen bewegen in onze wereld. Dat lijkt eenvoudiger dan het is. Er zijn bijvoorbeeld robots die op vliegvelden mensen de weg kunnen wijzen. Hoe moeilijk kan dat zijn? Je loopt of rijdt naar de locatie die je is opgedragen. Navigatie wil zeggen dat een robot weet waar hij is, waar hij heen gaat en waar hij heen moet. Maar zogeheten sociale navigatie waarbij de robot rekening houdt met zijn omgeving, blijkt naast communicatie een van de grote struikelblokken voor een sociale robot.
Op een luchthaven lopen ontzettend veel mensen. De robot moet die niet alleen ontwijken, maar ook op een acceptabele manier zich voortbewegen. Daar is onder andere gezichtsherkenning voor nodig. 'Het is erg onbeleefd als een robot midden tussen een groep mensen doorloopt die met elkaar staan te praten of die bij elkaar horen,' legt Evers uit. 'Maar hoe weet een robot of mensen bij elkaar horen? Je kunt hem leren dat twee grote en twee kleine mensen waarschijnlijk een gezin vormen, en dat hij daaromheen moet lopen. Maar twee volwassenen, of een groep mensen? Dat kun je onder andere zien aan hun houding en of ze met elkaar praten of niet.'
 
Een goed gesprek
Daarnaast moeten sociale robots een intelligent gesprek kunnen voeren met een mens. De juiste antwoorden geven is een ding, maar we verwachten van een menselijk uitziende robot ook dat de timing en de non-verbale communicatie klopt. Hij moet op het juiste moment knikken met zijn hoofd of 'hm, hm' zeggen. 'En het is een beetje raar als je tijdens een gesprek met een robot wegloopt en de robot ratelt gewoon door', lacht Evers. Ook moet hij uit bijvoorbeeld gelaatsuitdrukkingen kunnen opmaken wanneer de mens boos, opgewonden of teleurgesteld is. 'We moeten de robot sociale vaardigheden geven, zodat hij naadloos kan integreren in een menselijke omgeving', zegt Evers.
Hoe dat precies werkt, onderzoekt haar collega Mark ter Maat met het robotje Nao, dat wordt gemaakt door het Franse bedrijf Aldebaran. Nao kan stemmen en gezichten herkennen en zelf gaan staan en lopen. Ter Maat maakt software die op het juiste moment in een dialoog het juiste gedrag van Nao kan oproepen. 'Neem knikken, als in het bevestigen dat je iemand hebt gehoord,' zegt Ter Maat. 'In een experiment besturen wij Nao van achter de schermen. Nao's gesprekspartner ziet enkel een robot die precies gekopieerd menselijk gedrag vertoont en dus geen fouten maakt. Ook bijvoorbeeld het knikken. Vervolgens kunnen we het stukje 'knikken met je hoofd' door de software laten doen, en de rest doen we nog steeds zelf. Als de gesprekspartner iets geks waarneemt bij het knikken van Nao, bijvoorbeeld niet op het juiste moment, kunnen we die software aanpassen. Zo optimaliseren we stukje bij beetje de software voor alle gedragingen van de robot.'
 
Robot met gevoelens
Sociale vaardigheden zijn misschien wel de belangrijkste eigenschap van een sociale robot. Hij moet met mensen omgaan en wij moeten met de robot kunnen omgaan. Mensen kunnen niet anders dan technologie zoals een robot of zelfs een eenvoudige pc behandelen als mens. Dat onderzocht de Amerikaanse hoogleraar Clifford Nass (Stanford University). Hij schreef diverse boeken over dit onderwerp.
Onze hersenen kunnen geen verschil maken tussen de interactie met mensen of apparaten, ontdekte hij. We beschermen de gevoelens van een computer, zullen een gunst verlenen aan technologie die aardig tegen ons is geweest en worden boos als die technologie vals speelt. Ook behandelen we computers met een vrouwenstem anders dan die met een mannenstem.
Een voorbeeld daarvan geeft Nass in een van zijn boeken: de navigatie in je auto. Er zijn mannen die liever geen aanwijzingen van een vrouwenstem krijgen, ondanks het feit dat ze best weten dat het niet een vrouw is die de aanwijzingen geeft, maar een computer met vrouwenstem. Vrouwen kunnen nu eenmaal geen kaartlezen.
Evers heeft nog een voorbeeld: 'Er is een experiment gedaan met het spelletje papier-schaar-steen dat gespeeld werd door een mens tegen een computer. Wanneer de computer vals speelde, werd de mens veel fanatieker. Het vals spelen interpreteren wij alsof de robot graag wil winnen. Blijkbaar gaan we anders met een apparaat om als dat blijk geeft van zijn 'gevoelens'.'
 
Cultuurverschillen
Onze reactie op robots als ware het mensen heeft natuurlijk gevolgen voor hoe sociale robots moeten handelen. Ze mogen geen 'fouten' maken. Evers deed experimenten waarbij een robot naar een mens toe moest bewegen. 'Wanneer een robot je te snel nadert, of recht van voren, of in je persoonlijke ruimte gaat staan, vind je dat al snel eng.' Maar de manier waarop een mens moet worden benaderd door een robot is per cultuur anders en verschilt zelfs tussen mannen en vrouwen. Uit een onderzoek van Evers bleek bijvoorbeeld dat Chinezen anders reageren op advies van een robot dan Amerikanen. Chinezen luisteren beter wanneer de robot impliciet communiceert door middel van lichaamstaal of gebaren. Amerikanen houden meer van expliciete communicatie met woorden: doe dit of doe dat niet.
Uit het onderzoek blijkt ook dat mensen een karakter aan een robot toekennen. 'Je wilt dat je robot leert en zich ontwikkelt. Je zou je dood ergeren wanneer hij keer op keer dezelfde fout maakt. En wanneer iets zich ontwikkelt, ken je er al snel een persoolijkheid aan toe,' legt Evers uit. Maar de persoonlijkheid van de robot moet wel passen bij de mens die met hem omgaat, bij de taak die hij uitvoert en bij de cultuur waarin hij werkt.
 
Veeleisend
Een sociale robot moet dus nogal wat. Gezichten en stemmen herkennen en onthouden, relaties tussen mensen in een groep herkennen, zijn gedrag aanpassen aan mensen, zich ontwikkelen in sociale en fysieke vaardigheden. Bovendien moet zijn stem, gedrag en uiterlijk passen bij de situatie en zijn taak. Hoe maak je een robot die het altijd goed doet? Die vraag moet stukje bij beetje opgelost worden, zegt Evers. 'Om te beginnen moet een robot voor diverse taken andere eigenschappen bezitten. Een bewaker of inspectierobot moet een gezaghebbende stem hebben, een verzorgende robot juist een vriendelijke', aldus Evers. Een multifunctionele robot zal er niet komen, denkt zij. 'De schoonmaakrobot is een andere dan de gids in het museum.' Uiteindelijk zal elke nieuwe sociale robot moeten solliciteren voor zijn taak.
 


Fun Robotic Outdoor Guide - Moderne museumgids
 
In het Réal Alcazar museum in Sevilla (Spanje) werkt robotgids FROG (Fun Robotic Outdoor Guide). Vanessa Evers onderzoekt samen met Daphne Karreman hoe deze gids zich moet gedragen. Daarvoor onderzochten ze eerst hoe een menselijke gids zich gedraagt en hoe de groep bezoekers op hem reageert. Ook de FROG is een niet-menselijke robot, zij het deels om praktische redenen. 'De robot heeft wielen omdat dat veel makkelijker navigeert dan benen,' zegt Evers. FROG heeft wel ogen, niet alleen om mee te kijken maar ook als sociale functie. Uit het onderzoek blijkt dat bezoekers meekijken wanneer een menselijke gids naar een kunstwerk kijkt. De gids vestigt zo de aandacht op het onderwerp. 'De observaties uit dit onderzoek willen we nu gaan vertalen naar de robot. Het lijkt erop of ook de robot inderdaad ogen moet hebben die naar een kunstwerk kijken. Bezoekers volgen die blik.'

Dit artikel is gepubliceerd in KIJK nr 12 van 2013