email
mariskakret.com
|
Professor at Leiden University
email
linkedin

“Vanavond even niet, schat, hier neem mijn geminoid”

Wat zijn emoties en hoe verhouden deze zich tot empathie of moraliteit? De meeste mensen zullen een idee hebben van wat met deze termen wordt bedoeld en hoe ze tot stand komen. Biologen en psychologen proberen ze echt diep te doorgronden door ze te bestuderen in verschillende diersoorten waaronder de mens. Maar hoe weten ze wanneer ze een proces doorgrond hebben en wanneer niet? Als we het nu eens hebben over een relatief simpel proces zoals de werking van een auto. Wat moeten we doen om er precies achter te komen hoe het ding tot in het kleinste detail werkt? Precies, uit elkaar halen en weer in elkaar zetten. In het geval van emoties en gedrag gebeurd het uit elkaar halen o.a. aan de hand van gedragsobservaties, cognitieve tests en de analyse van hersenactiviteit. Voor de validatie wordt meer en meer samengewerkt met artificiele intelligentie en robotica. Laat ik verdriet als voorbeeld nemen. Net zoals wanneer we begrijpen hoe een auto werkt als we deze uit elkaar hebben gehaald en weer succesvol in elkaar hebben gezet, moeten we verdriet in theorie na kunnen maken, uit elkaar kunnen halen en weer  in elkaar kunnen zetten. Het empathiseren of meevoelen met het verdriet van een ander en het adequaat reageren daarop is nog een stap verder want daar zijn twee ‘agents’ of ‘entiteiten’ voor nodig.

Het programmeren van verdriet, het creeeren van een systeem of computermodel is daarbij niet afdoende. Verdriet zit immers in een lichaam, in een fysieke entiteit dat interacteert met de omgeving waar ook andere agents in bestaan. Juist die interacties maakt dat de agent zich ontwikkelt en leert. De Japanse Hiroshi Ishiguro is een van de bekendste robotbouwers ter wereld en razend populair in Japan. Hij is vooral beroemd om zijn super-realistische humanoids. Zo heeft hij een mooie vrouw, een Japanse heilige en ook Leonardo da Vinci gecreeerd. En hij heeft zichzelf gedupliceert, en noemt zijn duplicaat een ‘geminoid’, een soort real-size ‘mini-me’. Hij zou zijn kopie bijvoorbeerd de wereld over willen laten vliegen om lezingen te geven zodat hij zelf geen last hoeft te hebben van een jetlag. Hiroshi kan dan praten en bewegen via de geminoid die zijn gedragingen als een digitale poppenspeler overnemen. Dat klinkt ingewikkeld maar eigenlijk valt dat wel mee, programmeer technisch gezien dan.

Hiroshi

Interessanter is dat zijn humanoids ook gesprekken kunnen voeren zonder directe aansturing van Hiroshi. Daar komt een knap staaltje programmeerwerk bij kijken. Ik heb een gesprek met een humanoid bijgewoond en het liet mij vooral zien hoe moeilijk het is om een menselijk gesprek na te bootsen. Het was een onnatuurlijke ervaring en de robot werd op een bepaald moment zelfs onbeleefd en begon ongevraagd dieet-advies te geven aan een ietwat dikke interactiepartner. Ook al kun je deze humanoid op een foto niet van een echt mens onderscheiden en is er alles aan gedaan om hem menselijk te doen laten lijken, dan nog, als je er mee praat heb je in minder dan 10 seconden door dat je niet met een mens te maken hebt. Niet eens zozeer door de vorm van de stem, de traagheid in antwoorden of omdat het ongemakkelijk werd, dat zijn details die de techniek binnenkort ongetwijfeld op zal lossen. Deze humanoid spreekt vloeiend, ademt zelfs en kan emoties herkennen in interactiepartners en zelf ook verdrietig kijken. Maar er mist iets fundamenteels. Net als in de film ex-machina. De android genaamd A.I. hield de hoofdrolspeler voor de gek door te doen alsof ze gevoelens had. Of ze uberhaupt een bewustzijn had werd in het midden gelaten. Het leidde in ieder geval tot volstrekt immoreel gedrag. Maar goed, immorreel gedrag is de mens helaas ook niet vreemd. Kan een android of humanoid de Turing test[1] doorstaan zonder iets te voelen? Deze vraag staat nog ter discussie. Misschien. In de toekomst. Maar kan hij zich verdrietig voelen? Of geraakt worden door het verdriet van een ander? Waarschijnlijk niet. Waarom niet? Omdat A.I. niet over empathie beschikte.

Volgens Minoru Asada, een Japanse onderzoeker van de universiteit van Osaka, zijn er drie dingen nodig om robots empathisch te maken. Ten eerste is hij het met Hiroshi eens dat daar een lichaam voor nodig is. Of dat van vlees of metaal is gemaakt, maakt daarbij niet uit en of het de vorm heeft van een mens, ook niet. Dus daarin verschilt hij van Hiroshi. Belangrijk in zijn argument is dat echt gedrag niet kan bestaan zonder een lichaam. Ten tweede moet de robot kunnen interacteren met mensen en of andere robots en zodoende leren en leren omgaan met verdriet. En dat is het derde punt, leren, het lastigste. Een kind heeft nog enorm veel te leren. Hoe het zijn verdriet kan reguleren bijvoorbeeld. Tot tien kunnen tellen. De hersenen zijn volop in verandering en het lichaam groeit. Lang niet al ons emotionele gedrag en alle aspecten van empathie zijn aangeboren, velen zijn aangeleerd of ontwikkeld vanuit een bepaalde basis. Idealiter zou je dus een robot willen hebben die zich ontwikkelt en ook in de letterlijke zin groeit en een dynamisch lichaam heeft met verschillende behoeften en een even “rekbaar” “brein” dat deze behoeften deelt. Maar dit is te tijdrovend. Een mens doet er 18 jaar over om officieel als volwassen verklaard te worden. En dan nog staan lichaam en geest niet stil. Al zou het theoretisch gezien ooit misschien kunnen, zo’n project is niet te betalen. Als tussenoplossing ontwikkelt Minoru robots in verschillende ontwikkelingsstadia. Een embryo-robot, een peuter-robot die leert lopen, enzovoort. Op die manier hoopt hij meer inzicht te krijgen in de ontwikkeling van emoties en in de ontwikkeling van empathie.

Minoru_Asada

Maar stel dat het toch mogelijk is een robot te creeeren die zichzelf kan ontwikkelen. Waarschijnlijk is dat nooit mogelijk, maar stel, als… Als we een robot kunnen creeeren die zich als een embryo ontwikkelt tot een kind en uiteindelijk een volwassene en dat deze door interacties met anderen leert wat emoties zijn en empathisch gedrag begint te vertonen… Stel dat dat lukt. Hoe kunnen we ooit testen wat de robot voelt en hoe diep die gevoelens gaan? Nu geraken we in een interessante filosofische discussie die raakt aan het debat dat Thomas Nagel in de jaren ’70 ontlokte door zijn werk onder de titel “What is it like to be a bat?” Niemand die dat ooit zal weten, behalve de vleermuis zelf. Mensen zijn geen vleermuizen en hebben niet het lichaam om het gedrag te vertonen van een vleermuis, laat staan de gevoelens die daarmee gepaard gaan te ervaren. Maar je kunt de vraag ook verder door trekken. Hoe is het om je partner te zijn? Of: hoe voelde je moeder zich toen ze jou voor het eerst in de ogen keek? Het beste dat we kunnen doen is het ons proberen voor te stellen, onszelf zo goed en zo kwaad als het gaat te verplaatsen in de ander om diens gevoelens te kunnen benaderen. Nooit zullen we in staat zijn om volledig in de huid van de ander te kruipen, of de ander nu een vleermuis is, een ander mens, of een robot.

Ik heb nu twee toepassingen laten zien van een sociale robot. De eerste is vooral van praktische aard. Robots kunnen mensen in bepaalde situaties vervangen. Met behulp van geminoids bijvoorbeeld kun je op verschillende plekken tegelijk aanwezig zijn. En je kunt je geminoid dingen laten doen waar je zelf geen zin in hebt. “Vanavond even niet, schat, hier neem mijn geminoid”. Maar het kan ook écht waardevolle toepassingen hebben die verregaande consequenties hebben. Denk aan Stephen Hawking. Het zou toch fantastisch zijn om hem een nieuw en gezond lichaam te geven dat hij aanstuurt vanuit zijn bed en dat hij voelt en ervaart als ware het dat het zijn ziel belichaamde? Ooit kan dit. En dat zal niet al te lang meer duren. Ik hoop dat hij het nog meemaakt.

Stephen hawking

Ten tweede kunnen we met behulp van robots bepaalde processen simuleren zoals emoties. Ook hier zijn fantastische ontwikkelingen gaande. Het veld is zelfs al zo ver dat een robot emotioneel gedrag kan gaan vertonen dat niet is voorgeprogrammeerd, maar dat ontstaat doordat de robot interacteert met de omgeving. Ik heb Hiroshi’s geminoid geirriteerd zien reageren in een gesprek. Ook heb ik een videofragment gezien van Lola Canamero van de universiteit van Hertfordshire waarin ze twee robot-auto’s liet rondrijden in een ruimte die te klein was om de individuele behoeften te kunnen bevredigen. Er ontstond natuurlijke competitie waarin de ene auto de andere auto aanviel en wegduwde. Het interessante aan dit agressieve gedrag was dat het ontstond en niet voorgeprogrammeerd was. Deze twee toepassingen staan echt nog in de kinderschoenen en men is nog ver van het stadium verwijderd waar empathie als een verzameling auto-onderdelen uit elkaar en weer in elkaar gezet kan worden

Maar er is ook een derde toepassing waar ik meer directe mogelijkheden voor zie, ook in mijn eigen onderzoek. Het is erg waardevol om de reacties van mensen te onderzoeken tijdens interacties met robots die emoties uiten. Waarom? We kunnen dat toch ook bestuderen tijdens interacties tussen twee mensen? Dat is waar, en dat moet ook zeker gebeuren: het wetenschapsgebied dat zich bezighoudt met emoties en met empathie komt meer en meer tot het inzicht dat de bestudering van deze processen moet gebeuren in een sociale context en niet door interacties met een computerscherm, wat nog erg vaak gebeurt in de psychologie. Echter, het voordeel van een robot of humanoid is dat het de mogelijkheid geeft deze te bestuderen in een perfect gecontroleerde omgeving en dit kan ons enorm veel leren over sociaal gedrag. Je kunt de robot laten terug lachen of juist niet en onderzoeken wat er dan gebeurt in de waarnemer. Je kunt de interactie als het ware uit elkaar trekken en actie en reactie loskoppelen. Dit kan ook zinvolle toepassingen hebben voor trainingsdoeleinden, met name voor populaties die niet goed om kunnen gaan met eigen en andermans emoties zoals bijvoorbeeld het geval is bij autisme. In die zin kan de humanoid ingezet worden als een geduldige leraar die de patient voorziet van feedback en helpt bij de ontwikkeling van emoties en empathie.

 

[1] De Turingtest is een experiment, of eigenlijk een imitatiespel, bedacht door Alan Turing in 1936 waarin de vraag centraal staat of een machine (zoals bijvoorbeeld een humanoid) menselijke intelligentie kan vertonen. Kunnen machines denken?

 

Lees hier meer over robots.

Latest news
Latest blog