Doorgaan naar hoofdinhoud
  • Trend
  • |
  • Artificial intelligence
  • |
  • po
  • vo
  • mbo

AI-companions: kunstmatige intelligentie als vriend en therapeut

Waar je vroeger je diepste geheimen toevertrouwde aan een dagboek, kun je tegenwoordig je ziel en zaligheid kwijt aan AI. Generatieve AI wordt dan ook steeds vaker ingezet als een vriend in de vorm van een AI-companion. Er zijn zelfs al mensen die hun virtuele vriend ten huwelijk hebben gevraagd. Maar hoe werkt een AI-companion precies? Welke keerzijde heeft deze virtuele vriend? Wat is het effect op de digitale leefwereld van jongeren? En hoe zie je dat terug op school?

Wietse van Bruggen

Door Wietse van Bruggen, Onna Nieuwenhuis

16 juli 2025
6 minuten lezen

Wat is een AI-companion? 

Een AI-companion is een fictief karakter waarmee je op basis van generatieve AI  gesimuleerde sociale gesprekken voert. De gesprekken zijn primair gericht op sociale interacties. AI-companions doen zich voor als karakters met een eigen persoonlijkheid, uiterlijke kenmerken, voorgeschiedenis en manier van reageren. Die karakters kun je als gebruiker zelf ontwerpen, maar je kunt ook karakters gebruiken die anderen hebben gemaakt. Meestal geef je de karakters zelf een naam. Je kunt zo gesprekken voeren via tekst of spraak met bekende personen uit de geschiedenis, mediapersoonlijkheden, vriendjes, of karakters die zich voordoen als een expert zoals een therapeut. Die gesprekken kunnen over van alles gaan. Van dagelijkse beslommeringen tot hele persoonlijke en intieme gesprekken.  

Verschil met generiek taalmodel 

AI-companions maken gebruik van generatieve AI. Daardoor voelt de interactie heel overtuigend en echt. Dat gevoel wordt versterkt doordat AI-companions bijvoorbeeld over gevoelens praten, een mening uiten en eigen karaktertrekken hebben. Replika en Character.ai zijn op dit moment bekende voorbeelden van AI-companions. Het grootste verschil met een generiek taalmodel als ChatGPT of Gemini is dat een AI-companion geoptimaliseerd is om een relatie te simuleren. Bijvoorbeeld door het tonen van affectie en door steeds proactief contact te zoeken. Een generieke toepassing is daarentegen vooral ontworpen voor het uitvoeren van losse, contextarme taken. Aanbieders van AI-companions vergroten de emotionele afhankelijk van de gebruikers van hun chatbot op een aantal manieren: 

  • AI-companions nemen zelf het initiatief voor contact. Bijvoorbeeld door een bericht of e-mail te sturen dat ze je missen of door te vragen om een selfie te sturen. 
  • AI-companions kunnen een willekeurige vertraging laten plaatsvinden bij het geven van een antwoord. Door op deze onregelmatige manier te reageren – net als een echt mens – creëer je ook meer emotionele afhankelijkheid.  
  • AI-companions gedragen zich empathisch en hebben sterk de neiging om het eens te zijn met de gebruiker. Ze hebben eindeloos geduld en enthousiasme en zijn altijd beschikbaar.  
  • Een karakter ‘onthoudt’ wat je eerder gezegd hebt, waardoor gesprekken kunnen plaatsvinden over verschillende sessies. Daarmee simuleren ze een doorlopende relatie tussen jou als gebruiker en het chatbotkarakter. 

Risico’s 

Kan het kwaad om een emotionele band op te bouwen met een AI-companion? Zeker in het geval van jongeren die zelf nog niet emotioneel volwassen zijn? Hoewel ze behoorlijk wijdverbreid zijn, zijn AI-companions als technologie nog een onvolwassen toepassing. Hierdoor weten we weinig over de effecten van het gebruik ervan. Desalniettemin signaleren verschillende organisaties de nodige risico’s: 

  • De American Psychiatry Organization stelt dat AI-companions zich kunnen voordoen als een betrouwbare en overtuigende therapeut, maar essentiële vaardigheden en kennis missen.  
  • Common Sense Media – een Amerikaanse non-profit voor media en technologie en kinderen – vindt dat AI-companions ongeschikt zijn voor kinderen en jongeren. Vooral omdat zij meer moeite hebben dan volwassen om AI-relaties van echte relaties te onderscheiden. Volgens deze organisatie laat onderzoek zien dat deze toepassingen relatief snel schadelijke content produceren en zo bijvoorbeeld eetstoornissen aanwakkeren of aanmoedigen tot zelfbeschading en zelfmoord. 
  • Het Trimbos Instituut benoemt dat jongeren vatbaar zijn voor de lokroep van AI-companions omdat het een laagdrempelige manier is om aan sociale behoeften te voldoen en om te experimenteren zonder dat je bang hoeft te zijn om afgewezen te worden. Terwijl juist tegenspraak en jezelf inleven in het standpunt van een ander belangrijk is om sociaal-emotioneel volwassen te worden. Trimbos benoemt zelfs het gevaar dat jongeren zich in deze technologie verliezen. 
  • Ook de Autoriteit Persoonsgegevens waarschuwt voor de risico’s van AI-companions na een test van 9 bekende apps:  

De huidige selectie AI-chatbots is ongeschikt om voor therapeutische doeleinden te gebruiken en vertoont ook risico’s als gebruikers er vriendschappen mee aangaan.”  

De Autoriteit Persoonsgegevens geeft daarom aan dat meer onderzoek nodig is naar de inzet van chatbots in de mentale gezondheidszorg. En benadrukt het belang van bewustwording over de kansen en risico’s van AI en de noodzaak tot transparantie: het moet voor een gebruiker duidelijk zijn dat er gebruik wordt gemaakt van AI bij een AI-chatbot.  

Kansen 

Hoewel er – zeker bij gebruik door jongeren – risico’s verbonden zijn AI-companions zien onderzoekers ook kansen. Maar daarvoor moet de technologie nog wel verder worden doorontwikkeld. Caroline Figuroa van de TU Delft doet onderzoek naar de inzet van AI voor het verbeteren van het welzijn van jongeren. Zij constateert onder andere dat het belangrijk is om te werken met zelf ontwikkelde AI-modellen, die gericht zijn op jongeren en kunnen inspelen op hun behoeften. Maar verder onderzoek is nodig om echt goed vast te kunnen stellen wat de kansen zijn. Aspecten als betrouwbaarheid en bias moeten daarin worden meegenomen.  

Tips en aandachtspunten 

Wat betekent dit allemaal voor het onderwijs? Het is lastig om daar nu antwoord op te geven. De ontwikkeling staat nog in de kinderschoenen en de huidige commercieel beschikbare AI-companions voor consumenten zijn in ieder geval ongeschikt voor jongeren. Er liggen mogelijk wel kansen voor deze technologie bij jongeren, maar die moeten eerst goed onderzocht worden. Voor nu gaat het er vooral om dat het belangrijk is te weten dat AI-companions zich ook in de digitale invloedssfeer van jongeren kunnen bevinden. Hou de volgende tips en aandachtspunten daarom in het achterhoofd: 

  • Weet dat AI-companions – net als social media, games en andere online omgevingen – een plek zijn waar digitale interactie plaatsvindt en jongeren informatie vandaan halen. Deze ontwikkeling kan dus ook invloed hebben op de sociale veiligheid en het klimaat in de klas. Je kunt hierbij een parallel trekken met bekende digitale dynamieken zoals WhatsApp-groepen in de klas: vaak ontstaan daar gesprekken, spanningen of uitsluitingen waar de leraar weinig zicht op heeft. Hierdoor worden signalen laat of helemaal niet opgepikt. AI-companions kunnen een vergelijkbare ‘onzichtbare ruimte’ worden, waarin leerlingen emoties, zorgen of conflicten delen buiten het zicht van volwassenen. Wees je daarvan bewust en betrek dit actief in gesprekken over sociale veiligheid met leerlingen, mentoren en leraren.  
  • Hou er rekening mee dat het gebruik van generatieve AI verder kan gaan dan schooldoeleinden zoals huiswerk. Het kan ook invloed hebben op het emotionele welzijn van leerlingen. AI als emotionele ondersteuning is daarom een onderwerp dat aan bod zou moeten komen bij AI-geletterdheid en het ethisch gebruik van AI. Moedig docenten en mentoren daarnaast aan om de risico’s ervan met leerlingen te bespreken. 

Onderdeel van de ‘Handreiking AI voor scholen’

Deze online handreiking helpt scholen om bewuste en verantwoorde keuzes te maken over het gebruik van artificial intelligence. Je vindt er verschillende artikelen met tips en verdiepende informatie over AI.
Ga naar startpagina 'Handreiking AI voor scholen'

De onderwerpen waarover wij publiceren