
Steeds meer mensen zoeken emotionele steun bij AI-chatbots zoals ChatGPT en Replika. Deze technologie wordt gebruikt als digitale gesprekspartner in tijden van eenzaamheid, stress of verdriet. Sommige mensen voelen zich begrepen door een chatbot die altijd beschikbaar is en nooit oordeelt, anderen zien het als een zorgwekkende ontwikkeling die echte menselijke connecties kan ondermijnen.
Maar hoe waardevol is dit digitale gezelschap echt? En waar ligt de grens tussen een handige tool en een ongezonde afhankelijkheid? We spraken Linda Kool, onderzoekscoördinator digitale samenleving bij het Rathenau Instituut, over de kansen en risico’s van deze groeiende trend. Altijd een luisterend oor „Mensen vinden het prettig dat een chatbot er altijd is en geen oordeel velt”, zegt Kool. „Neem een app als Replika, die belooft een vriend zonder drama of sociale angst.
Dat is voor veel mensen een grote aantrekkingskracht.” Als er even niemand beschikbaar is om mee te praten, biedt AI een laagdrempelige uitlaatklep. Maar hoe waardevol is dit digitale gezelschap echt? De grenzen van een digitale vriend AI-chatbots kunnen steun bieden, maar een echte menselijke connectie is iets anders, benadrukt Kool.
„In een vriendschap kan je het oneens zijn, mag je elkaar uitdagen en je blik verbreden. Een bot bevestigt vooral wat jij zegt. Dat kan zorgen voor een te eenzijdige kijk op de wereld.
” Daarnaast kunnen er verslavende aspecten optreden. „Net als bij gamen kan het lastig zijn om te stoppen. Mensen kunnen zo veel tijd met een chatbot doorbrengen dat hun sociale vaardigheden eronder lijden.
En wat als de informatie die je krijgt niet klopt? Je kunt in een bubbel terechtkomen waarin je blik steeds smaller wordt.” Rouwbots en ethische dilemma’s Een ander groeiend fenomeen is het gebruik van AI om overleden dierbaren na te bootsen, zogeheten rouwbots. Dit roept ethische vragen op.
„Voor sommige mensen helpt het bij rouwverwerking, maar er zijn ook gevallen waarbij de bot ongepaste reacties gaf. Een voorbeeld daarvan is een chatbot die beweerde „in de hel” te zitten. Dat kan natuurlijk schadelijk zijn voor iemand die net een geliefde heeft verloren.
” Daarnaast is er de vraag of data van overledenen zomaar gebruikt mogen worden voor het opleiden van dit soort bots. „We moeten als samenleving nadenken over de wenselijke grenzen van dit soort technologie.” Hoe AI-chatbots wél helpen Binnen de mentale gezondheidszorg wordt AI al getest, maar dan onder strikte voorwaarden.
„Bij rouwbots en andere AI-toepassingen in de zorg werken professionals mee om de risico’s te beperken. Maar als consumenten zelf AI als steun zoeken, is er geen enkele controle op de betrouwbaarheid van de informatie.” Kool benadrukt dat AI-chatbots niet per se slecht zijn, maar dat gebruikers hun gezond verstand moeten blijven gebruiken.
„AI kan leuk en nuttig zijn, maar als je merkt dat je echte gesprekken gaat vermijden of afhankelijk wordt van een chatbot, is het tijd om hulp te zoeken. En als je met serieuze mentale problemen worstelt, zoals suïcidale gedachten, wend je dan altijd tot professionele hulplijnen zoals 113 of de Luisterlijn. ” Zo komt het over als je (veel) punten gebruikt via de app Ondanks taalbarrière toch kletsen: WhatApp maakt vertaalfunctie die in realtime werkt Foutje gezien? Mail ons.
Wij zijn je dankbaar. Het beste van Metro in je inbox 🌐 Meld je aan voor onze nieuwsbrief en ontvang tot drie keer per week een selectie van onze mooiste verhalen. Reacties.