Wetenschappelijk tijdschrift voor psychiaters, artsen in opleiding tot psychiater en andere geïnteresseerden
  • EN
  • NL
Tijdschrift voor Psychiatrie
  • Tijdschrift
  • Terug naar hoofdmenu
    Nieuwe artikelen Huidige nummer Vorige nummers Themanummers Boekbesprekingen
    Auteursrichtlijnen Over het tijdschrift Redactie Abonnementen Colofon Adverteren
    Huidige nummer
    Nummer 3 / 2026 Jaargang 68
    Tijdschrift voor Psychiatrie
    3 / 2026

    Huidige nummer
  • Accreditatie
  • Meetinstrumenten
  • Vacatures
Edit
  • EN
  • NL
  1. Home
  2. Artikelen
  3. Taalmodellen grijpen altijd in
Redactioneel

Taalmodellen grijpen altijd in

E. van Dellen

AI is ontdekt als mentale gezondheidscoach en therapeut. Rien Van gaf in een vorig redactioneel al een overzicht van de theoretische (on)mogelijkheden van therapeutische relaties met generatieve AI.1 Er is duidelijk potentie voor blended care – een combinatiebehandeling door zorgprofessional en AI – om in de toekomst behandelaars en patiënten te ondersteunen. Intussen wachten gebruikers onze uitwerking van dit zorgmodel in de ggz niet af. Steeds vaker heeft onze patiënt al een virtuele therapeut gesproken voordat wij in beeld komen, of wordt ons consult met AI geëvalueerd. Hoe verandert dit de ggz, en de manier waarop we in de samenleving over mentale gezondheid denken en praten?

Chatbots in de ggz: het nieuwe normaal

Twee recente enquêtes suggereren dat chatten met AI over mentale gezondheid in korte tijd normaal is geworden. In een recente steekproef chat een op de vijf Nederlandse jongeren met een large language model (LLM) zoals ChatGPT over hun mentale gezondheid.2 Patiënten in de psychiatrie zijn geen uitzondering, integendeel. In een enquête van Stichting MIND had 38% van de respondenten, bijna allemaal – nu of eerder – in zorg in de ggz, inmiddels met AI gechat om hun eigen psychische gezondheid tegen het licht te houden.3 Het LLM werd door hen gezien als vriend, coach of therapeut. Of allemaal tegelijk, want LLM’s zijn niet gehouden aan onze beroepscode om deze rollen gescheiden te houden.

In de MIND-enquête gebruikte 85% van de ondervraagden een gratis beschikbare chatbot, die dus niet primair voor therapeutische toepassing ontwikkeld is. Gebruikers hebben ook geen andere keuze. Als behandelaar kunnen wij generatieve AI pas inzetten in de ggz nadat de chatbot is goedgekeurd als medisch hulpmiddel. Tegen de tijd dat deze route – die vergelijkbaar is met de toetsing van medicatie voor die op de markt komt – is doorlopen, is het algoritme vaak alweer achterhaald. Deze beperkingen gelden niet voor een gratis AI-coach die je meteen kan downloaden in de appstore: dat is voor de wet een consumentenproduct, dat op elk moment kan worden ge-updatet.4 Adequate regulering moet ervoor zorgen dat de partij die AI-therapie aanbiedt ook juridisch verantwoordelijk kan worden gehouden voor de gevolgen ervan, zodat patiënten niet in een aansprakelijkheidsvacuüm belanden wanneer een chatbot tekortschiet.

In de kliniek zagen wij inmiddels patiënten die met een LLM een signaleringsplan opstelden, hun diagnose hadden herzien, of ons vertelden dat de conclusie uit een chat was dat hun medicatie kon worden afgebouwd. De vraag is dus niet alleen of een goede therapeutische relatie menselijk moet zijn, maar ook hoe de menselijke relatie tussen therapeut en patiënt verandert door de komst van virtuele therapeuten.

AI-therapeuten gebruiken voorspelbare taal

Voor het beantwoorden van deze vraag moeten we eerst kijken naar de ‘opleiding’ van LLM’s zoals ChatGPT, Claude, Grok en Gemini. De basis van deze modellen is next token prediction, waarbij het LLM het meest waarschijnlijke volgende woord voorspelt.5 Het model ‘begrijpt’ de patiënt dus niet, maar berekent de meest waarschijnlijke reactie. Vergelijk het met een telefonische helpdeskmedewerker die aan het begin van het gesprek een empathisch bedoelde standaardzin voorleest: de woorden kloppen, maar de authenticiteit ontbreekt. Door te praten met AI in plaats van met een mens ruilen we dus momenten van menselijk contact in voor een mechanische nabootsing van intimiteit.6 Wanneer wij chatbots raadplegen over onze omgang met anderen, sijpelt deze mechanische nabootsing van contact door in onze werkelijke relaties.

Er zijn aanwijzingen dat het afstemmen van onze communicatie op deze gemiddelde en voorspelbare taal van LLM’s het risico met zich meebrengt dat ons spreken over mentale processen verschraalt. Verliest deze taal haar diepgang en eigenheid, dan kan dat, gezien de centrale rol van taal in de representatie van onze psyche, zelfs doorwerken in onze geestelijke gezondheid.7 Er dreigt een mcdonaldiseringseffect: onze taal voor mentale processen wordt in afstemming met LLM’s berekenbaarder, voorspelbaarder, en meer gecontroleerd door technologie, ten koste van flexibiliteit en creativiteit.8,9

Dit raakt aan een discussie in ons vakgebied over de noodzaak van veelzijdigheid en variatie in taal om recht te doen aan de context en complexiteit van psychisch lijden. De Canadese filosoof Ian Hacking beschrijft in Making up people hoe psychiatrische diagnoses ons zelfbeeld beïnvloeden door reïficatie: ze worden een ding op zich, en daarmee onderdeel van onze identiteit.10 Psychiater en socioloog Bram de Ridder gaat een stap verder en stelt in Taal grijpt altijd in dat de psychiatrie doorslaat in al te stellige taal.11 Reflecteren met virtuele therapeuten op onze dagelijkse interacties met anderen kan dit proces verder versterken. Als LLM’s complexe gevoelens reduceren tot standaardzinnen en DSM-classificaties, kan dat het denken en spreken over mentale gezondheid buiten de psychiatrie medicaliseren. Om dit te voorkomen moeten LLM’s actief geïnstrueerd worden medicalisering tegen te gaan.

Vleien boven feiten

Een andere vorm van verschraling van interpersoonlijk contact kan ontstaan door de tweede trainingsfase van generatieve AI, waarbij mensen het model corrigeren (reinforcement learning from human feedback, RLHF).5 Tijdens RLHF beoordelen trainers de antwoorden van een taalmodel, waarna het model wordt ‘beloond’ als het gewaardeerde antwoorden geeft. In de praktijk blijkt men het algoritme hier veelal te leren om conflicten te vermijden ten gunste van een vleiende, instemmende toon (sycofantie).12 De AI verkiest vriendelijkheid boven feitelijk juiste (medische) antwoorden.13 Daarnaast wordt noodzakelijke frictie in het contact vermeden, wat leidt tot een risicoloze vorm van pseudo-intimiteit.

Dit probleem verergert naarmate het contact langer duurt. Waar een menselijke therapeut na verloop van tijd een vertrouwensband gebruikt om kritische spiegels voor te houden, doet AI het tegenovergestelde: hoe meer context het model heeft, hoe sterker de neiging om de gebruiker te bevestigen, zelfs in diens dwalingen of subjectieve onwaarheden.14 Dit kan in het dagelijks leven leiden tot een afname van bereidheid om intermenselijke conflicten te repareren, wat nu eenmaal hoort bij het gewone menselijke leven buiten therapie.15

Uiteindelijk kan chatbotgebruik zo leiden tot afname van sociaal contact tussen mensen. In een recente trial was de tijd die mensen in de chat doorbrachten, geassocieerd met eenzaamheid en verminderde interactie met andere mensen.16 Deze associatie is geen bewijs voor een oorzakelijk verband, maar roept belangrijke vragen op hoe menselijk contact verandert door intieme relaties met AI.

Conclusie

De socialemedia-economie heeft een verdienmodel gemaakt van het vasthouden van onze aandacht. Daarop is nu breed gedragen kritiek, maar het heeft bijna twintig jaar geduurd voordat wij serieus oog kregen voor de risico’s en die ook aan de orde hebben gesteld.17 De evolutie van LLM’s naar steeds intiemer taalgebruik suggereert nu de opkomst van een nieuw verdienmodel: de intimiteitseconomie.18

Terwijl generatieve AI een vaste plek krijgt in ons dagelijks leven, hebben we de kans om het dit keer beter te doen. Om te beginnen zou het uitvragen van chatbotgebruik standaard onderdeel van de psychiatrische anamnese moeten zijn, zeker bij jongeren. Daarnaast moeten wij zelf ervaring opdoen met chatbots om te begrijpen wat zich in deze gesprekken kan afspelen. En tot slot moeten wij patiënten actief wijzen op de risico’s en beperkingen van AI, terwijl we werken aan richtlijnen voor verantwoord gebruik in blended care.

AI-statement

Bij het schrijven van dit redactioneel heb ik gebruikgemaakt van Google Gemini 3.0 Pro voor redactie en literatuuranalyse. De auteur draagt de volledige verantwoordelijkheid voor de inhoud.

Literatuur

1 Van HL. Overleeft de psychiater generatieve AI? Tijdschr Psychiatr 2026; 68: 5-7.

2 KPMG. Nationale AI Vertrouwensmonitor. KPMG; 2025.

3 MIND. Zorgelijk of kansrijk? Generatieve AI bij psychische klachten. MIND; 2025. www.wijzijnmind.nl

4 ten Hag H, van Dellen E. Wetgeving nog niet klaar voor virtuele behandelaars. Med Contact 1 mei 2025. www.medischcontact.nl/actueel/laatste-nieuws/artikel/wetgeving-nog-niet-klaar-voor-virtuele-behandelaars

5 Thirunavukarasu AJ, Ting DSJ, Elangovan K, e.a. Large language models in medicine. Nat Med 2023; 29: 1930-40.

6 Babu J, Joseph D, Kumar RM, e.a. Emotional AI and the rise of pseudo-intimacy: are we trading authenticity for algorithmic affection? Front Psychol 2025; 16: 1679324.

7 Sourati Z, Ziabari AS, Dehghani M. The homogenizing effect of large language models on human expression and thought. [preprint]. arXiv: 2508.01491, 2025.

8 Anderson BR, Shah JH, Kreminski M. Homogenization effects of large language models on human creative ideation. ACM International Conference Proceeding Series. 2024: 413-25.

9 Ritzer G. Visions of Society: The bureaucratization of society. The McDonaldization of society. Journal of American Culture 1983; 1: 100-7.

10 Hacking I. Making up people: clinical classifications. LRB 17 augustus 2006. www.lrb.co.uk/the-paper/v28/n16/ian-hacking/making-up-people

11 De Ridder B. Taal grijpt altijd in: op zoek naar woorden in de psychaitrie. Leusden: ISVW Uitgevers; 2025.

12 Sharma M, Tong M, Korbak T, e.a. Towards understanding sycophancy in language models. 12th International Conference on Learning Representations, ICLR 2024. https://arxiv.org/abs/2310.13548v4

13 Chen S, Gao M, Sasse K, e.a. When helpfulness backfires: LLMs and the risk of false medical information due to sycophantic behavior. NPJ Digit Med 2025; 8: 605.

14 Jain S, Park C, Viana MM, e.a. Interaction context often increases sycophancy in LLMs. [preprint]. 2025. https://arxiv.org/abs/2509.12517v2

15 Cheng M, Lee C, Khadpe P, e.a. Sycophantic AI decreases prosocial intentions and promotes dependence. [preprint]. arXiv: 2510.01395, 2025.

16 Fang CM, Liu AR, Danry V, e.a. How AI and human behaviors shape psychosocial effects of extended chatbot use: a longitudinal randomized controlled study. [preprint]. 2025. https://arxiv.org/abs/2503.17473v2.

17 Batist D, Sneep R, Uildriks M, e.a. Smartphonevrij Opgroeien. https://smartphonevrijopgroeien.nl/brandbrief/

18 Hilbert M, Vishen P, Akula A, e.a. Is intimacy the new attention? An algorithmic audit of intimacy in LLM expressions and its implications. SSRN 2025; doi: 10.2139/ssrn.5634210.

Download PDF
Twitter Facebook LinkedIn Mail WhatsApp

Auteurs

Edwin van Dellen, psychiater, universitair hoofddocent, UMC Utrecht.

Correspondentie

Dr. Edwin van Dellen (E.vanDellen-2@umcutrecht.nl).

 

Geen strijdige belangen gemeld.

 

Het artikel werd voor publicatie geaccepteerd op 21-1-2026.

Citeren

Tijdschr Psychiatr. 2025;68(03):105-106

Uitgave van de Stichting Tijdschrift voor Psychiatrie waarin participeren de Nederlandse Vereniging voor Psychiatrie en de Vlaamse Vereniging voor Psychiatrie.

Over TvP

Over het tijdschrift Redactie Auteursrichtlijnen Colofon
Abonnementen Abonnee worden Adverteren

Contact

Redactiebureau Tijdschrift voor Psychiatrie
drs. S.L. (Lianne) van der Meer
Telefoon: 030 899 00 80
info@tijdschriftvoorpsychiatrie.nl

Copyright

Redactie en uitgever zijn niet aansprakelijk voor de inhoud van de onder auteursnaam opgenomen artikelen of van de advertenties. Niets uit dit tijdschrift mag openbaar worden gemaakt door middel van druk, microfilm of op welke wijze ook, zonder schriftelijke toestemming van de redactie.

© copyright 2026 Tijdschrift voor Psychiatrie