Hoe voelt het om een robot te mishandelen? ‘Mensen geloven graag dat ze ook pijn voelen’

Marieke Wieringa onderzocht reacties op het mishandelen van sociale robots. Mensen schrijven zulke robots sneller bewustzijn en emoties toe als ze tekens van pijn of verdriet kunnen tonen.

featured-image

Je kunt hem slaan, omver duwen of door elkaar schudden tot hij begint te huilen. Of, nog net wat gemener, op zijn zij leggen zodat hij niet meer overeind kan komen en hulpeloos begint te spartelen. Sociaal psycholoog Marieke Wieringa richtte voor haar proefschrift een ware wetenschappelijke martelkamer in voor Cozmo, de sociale robot.

Geen dierproef, maar een robotproef om te onderzoeken hoe mensen reageren op ‘emotionele’ robots. Wieringa (31) promoveerde aan de Radboud Universiteit op een studie naar respons op gesimuleerde robotemoties. Ze belandde in die robotwereld via haar bachelor communicatiewetenschappen aan de Vrije Universiteit.



„In communicatiewetenschap heb je heel veel onderzoek naar marketing en beïnvloeding, maar ik wilde iets anders, iets nieuws. Na een college over sociale robots dacht ik: aha, kennelijk is dit ook communicatiewetenschap.” Ze deed haar masterscriptie aan de Universiteit van Amsterdam – en dat smaakte naar een promotie.

„Het idee kreeg ik van een YouTube-filmpje van twee jongetjes die een Cozmo-robot door elkaar schudden. Hij maakt dan een heel zielig geluidje. Eén van die jongens vond dat heel grappig, maar de andere kreeg medelijden.

” Wieringa’s proefschrift gaat er niet om of robots ‘echt’ emoties kennen, maar onderzoekt hoe mensen reageren op gesimuleerde emoties van een robot. Dat heeft een cognitieve kant (schrijven mensen een vorm van bewustzijn toe aan de robot), een affectieve (hoe voelen mensen zich bij een robot die emoties toont) en een morele (is omgang met een robot onderhevig aan morele oordelen). „Er was al eens onderzocht hoe mensen reageren op een verhaal waarin een robot wordt mishandeld.

Ze blijken dan geneigd te denken dat de robot mentale capaciteiten heeft. Dat onderzoek heb ik uitgebreid, met robots die bij het mishandelen wel en geen emoties tonen. In beide gevallen bleven mensen geneigd te denken dat de robot pijn heeft.

Maar wat we ook zagen is dat mensen het eerder eens zijn met de stelling dat een robot pijn kan lijden als die emoties toont. Die overtuiging wordt niet nog eens versterkt door het gebruikte geweld.” Een volgend experiment gaf mensen ruimte voor reflectie achteraf.

„We lieten mensen filmpjes zien van een robot in de vorm van een baby-dinosaurus die wordt mishandeld. Als je die slaat of bij de staart oppakt begint hij te huilen. Als je hem bij de nek grijpt, maakt hij stikgeluiden, best realistisch.

” Mensen keken twee keer, de eerste keer moesten ze direct en intuïtief reageren, de tweede keer mochten ze het filmpje stilzetten, terugspoelen en er na afloop over nadenken. „Ook toen waren mensen na het filmpje meer geneigd het eens te zijn met de stelling dat robots pijn ervaren, ook al realiseren ze zich bij nadenken dat de robot gewoon een object is.” Een aantal affectieve tests deed ze in het laboratorium.

Proefpersonen kregen een saaie motorische taak – pinnetjes in een bord een kwart slag draaien, telkens tot ze nieuwe instructies kregen. „Ze wisten niet hoe lang ze bezig zouden zijn en na vijf minuten is het echt al tergend saai.” Daarna deden ze een spelletje met een Cozmo-robot die blij was bij winst en verdrietig bij verlies, en moesten ze die vervolgens door elkaar schudden.

„Toen kregen ze de keus: die intens saaie taak van daarnet weer doen, of de robot nog een keer door elkaar schudden. Hoe langer je schudt, hoe korter die taak. Toen bleek dat mensen zich schuldiger voelden en veel minder bereid waren de robot te schudden wanneer Cozmo emoties liet zien.

” Maar geloven mensen dan echt dat de robot pijn voelde? Of vinden ze het gehuil gewoon onprettig? „Er waren ook mensen die dat zeiden, maar de meesten voelden zich echt schuldig, ze voelden zich slecht en hadden medelijden. Er waren ook mensen die een compromis met zichzelf sloten en de robot heel kort gingen schudden om toch wat minder die saaie taak te hoeven doen. Achteraf zeiden die dan: ik dacht dat hij dit nog wel aan zou kunnen.

” Bij een laatste test kregen mensen een sociale robot vijf dagen in huis. Daarna werden ze ondervraagd en moesten ze ook de robot nog even pesten, bijvoorbeeld door hem te laten spartelen. „De meeste mensen vonden dat moreel verwerpelijk, ook als ze de robot als een object zeggen te zien.

Het hoort niet.” Zou dat dan niet ook kunnen opgaan voor de mishandeling van een boom, of een deur? „We hebben gevraagd: stel dat je dit had gedaan met een kartonnen doos, maakt dat uit? Dat de robot emotioneel reageert blijkt dan cruciaal, of mensen nou geloven dat die emoties ‘echt’ zijn of niet.” Een van haar conclusies is dat menselijke reacties op emotionele robots al met al niet zo recht door zee of rationeel zijn als we vaak denken.

„We geloven graag dat we heel rationeel zijn, maar ons gedrag baseren we toch voor een groot deel op emotionele hechting.” Lachend: „Dat is maar goed ook, anders zouden we robots zijn.” Wieringa ziet ook risico’s.

„Emotionele hechting kan natuurlijk ook misbruikt worden. Je kunt je zo voorstellen dat bedrijven een verdienmodel maken van sociale robots, om van alles te verkopen. Je zag het in de jaren negentig al bij de Tamagotchi, het digitale speeltje waaraan mensen zich gingen hechten.

Die moest je eten geven anders ging hij klagen. Dat was gratis. Maar stel dat ze je vragen voor dat eten te betalen, of iets anders te kopen?” Inmiddels is Wieringa de robots voorbij.

Ze heeft een aanstelling als postdoc-onderzoeker in Groningen. „Ik ga onderzoeken hoe we mensen spelenderwijs iets kunnen leren over micro-plastics. Ik kom ook uit Groningen en wilde altijd terug, dus nu is eindelijk de tijd daar.

”.