Doorgaan naar hoofdinhoud
  • Trend
  • |
  • Artificial intelligence
  • |
  • po
  • vo
  • mbo

Kunstmatige intelligentie als virtuele vriend

Voor steeds meer leerlingen is AI niet alleen een tool, maar ook een gesprekspartner. Een vraag aan een taalmodel als ChatGPT over een fitnesstrainingschema kan daardoor al snel uitmonden in een gesprek over onzekerheid over je lichaam. Maar wat is het effect hiervan op de digitale leefwereld van jongeren? Wat betekent dit voor het pedagogisch klimaat op school? En hoe kan je hiermee omgaan op school? Kennisnet, het Nederlands Jeugdinstituut en het Expertisecentrum Digitalisering en Welzijn zetten hier uiteen wat je moet weten over dit onderwerp.

Wietse van Bruggen

Door Wietse van Bruggen, Michel Cents, Onna Nieuwenhuis

Bijgewerkt op 20 april 2026
13 minuten lezen

Wat is AI-companionship?

Het gebruik van AI als virtuele vriend gaat over het hebben van een digitale gesprekspartner waarmee je op elk moment van de dag kunt praten over allerlei persoonlijke zaken. Je kunt er je dag, interesses of gevoelens mee bespreken, maar je kunt de chatbot ook vragen een personage na te spelen uit je favoriete serie, game of boek om daar vervolgens mee in gesprek te gaan. Anders dan AI-tools die vooral taken uitvoeren of vragen beantwoorden, draait het hier om gesprekken die persoonlijk en betekenisvol aanvoelen.  

Deze virtuele vriendschap, ook wel AI-companionship genoemd, kan ontstaan in de interactie die iemand heeft met een taalmodel. De digitale gesprekspartner zelf noemen we ook wel een AI-companion. Sommige AI-applicaties zijn ontworpen om verbondenheid tussen de gebruiker en de AI te creëren, zoals Replika en Character.AI. Met deze tools kun je een digitale gesprekspartner samenstellen met specifieke eigenschappen, interesses of een bepaalde persoonlijkheid. Uit onderzoek van de Universiteit van Hawaii gericht op deze gespecialiseerde AI-companions is gebleken dat – zeker wanneer gebruikers niet lekker in hun vel zitten – bepaalde ontwerpeigenschappen van AI-companions ervoor kunnen zorgen dat gebruikers gehecht raken. 

Leefwereld van jongeren 

Het gebruik van AI onder jongeren is wijdverspreid en voor veel jongeren een onderdeel van hun dagelijks leven. Het gebruik van generatieve AI gaat daarbij niet alleen over praktische vragen of hulp bij het maken van schoolwerk, maar ook over diep persoonlijke aspecten van iemands leven. Dit blijkt ook uit recent onderzoek. 

  • Volgens onderzoek van het Emotional AI Lab uit het Verenigd Koninkrijk maakt 31% van de jongeren in de leeftijd van 13 tot en met 18 jaar gebruik van AI als companion. 33% daarvan doet dit wekelijkse of maandelijks.  
  • Ruim een derde (36%) van de jongeren gaf aan slechts enkele keren gebruik te hebben gemaakt van AI voor companionship.  
  • De meeste jongeren gebruikt hiervoor generatieve AI-diensten als ChatGPT, Gemini, Copilot. 
  • Veel jongeren hebben vertrouwen in de antwoorden van AI-companions. Een aanzienlijk deel van hen denkt bovendien dat deze systemen kunnen nadenken. Tegelijkertijd gelooft een groot gedeelte van diezelfde jongeren niet dat AI echt kan voelen.  

Kenmerken van AI-companions

Generatieve AI-diensten hebben zowel technische als menselijke kenmerken waardoor ze zo verleidelijk zijn voor mensen om te gebruiken als companion. Ook maken de makers van de technologie ontwerpkeuzes die deze kenmerken versterken.  

Risico’s van AI-companions 

AI-companionship kan onschuldig lijken maar kent ook duidelijke risico’s. Deze gelden voor de brede samenleving, maar verdienen extra aandacht als het gaat om jongeren. Tijdens de puberteit bevinden jongeren zich in een ontwikkelingsfase die gekenmerkt is door een versterkte zoektocht naar de eigen identiteit, de behoefte om grenzen uit te testen en hun nieuwsgierigheid te volgen. Tegelijkertijd beschikken ze nog niet altijd over de capaciteit om risico’s goed in te schatten of de gevolgen te overzien.

Voorkeur voor machines 

Als kinderen gewend raken aan AI die altijd luistert, nooit ruzie maakt en altijd beschikbaar is, verliezen ze mogelijk het geduld voor de ‘rommelige’, complexe interacties met échte mensen. Daarmee ruilen ze diepe menselijke empathie in voor een goedkope, kunstmatige versie die ‘goed genoeg’ voelt. Terwijl het juist essentieel is voor kinderen om zich te leren verhouden tot de ander. Door zich te verplaatsen in de positie van een ander, verschillen te accepteren en te overbruggen om zo uiteindelijk het vermogen tot menselijk begrip te ontwikkelen.

Verslaving

In bepaalde gevallen – zoals bij eenzaamheid, stress of ingrijpende levensveranderingen – zijn kinderen (net als volwassenen) extra kwetsbaar voor AI-companionship. De onmiddellijke bevestiging of ontsnapping die AI-companions bieden kan leegtes op een dwangmatige, ongezonde manier opvullen. Hoewel AI in deze gevallen een directe emotionele behoefte lijkt te vervullen, bestaat er mogelijk het risico dat het juist schadelijke gedragspatronen en isolement versterkt. En dat is ook nog eens een dynamiek die vaak onzichtbaar is voor buitenstaanders. Dit kan leiden tot een gevaarlijke spiraal, met in sommige gevallen ernstige gevolgen.

Verslechtering van het pedagogisch klimaat op school 

Het gebruik van AI voor vriendschap kan mogelijk ook invloed hebben op de sociale veiligheid en het pedagogisch klimaat in de klas. Gesprekken die leerlingen met AI voeren vinden plaats in een digitale ruimte waar leraren en mentoren doorgaans geen zicht op hebben. Je kunt hierbij een parallel trekken met bekende digitale dynamieken zoals WhatsApp-groepen in de klas: vaak ontstaan daar gesprekken, spanningen of uitsluitingen waar de leraar weinig zicht op heeft. Hierdoor worden signalen laat of helemaal niet opgepikt. Het gebruik van AI als vriend kan voor een vergelijkbare ‘onzichtbare ruimte’ zorgen, waarin leerlingen emoties, zorgen of conflicten delen buiten het zicht van volwassenen.  

School is ook juist een plek waar leerlingen ruimte hebben om zich als persoon en in relatie tot anderen te ontwikkelen. Waar zij leren omgaan met emoties, relaties en conflicten. Wanneer een deel van die gesprekken en reflectie verschuift naar interacties met AI kan dat invloed hebben op die ontwikkeling.

Wet- en regelgeving

De wet- en regelgeving rond AI is op dit moment ontoereikend om kinderen en jongeren te beschermen tegen de schadelijke effecten ervan. De Europese AI-verordening en Digital Services Act houden onvoldoende rekening met AI-companionship en mogelijke gevolgen voor het welzijn en de ontwikkeling van kinderen. Wellicht biedt de aankomende Digital Fairness Act mogelijkheden, maar deze is nog niet van toepassing. Tot die tijd schiet de AI-verordening tekort om onderstaande redenen:

  • AI-companions niet altijd geclassificeerd als hoog risico. AI companions worden alleen gezien als hoog risico als zij worden ingezet binnen een van de in de AI-verordening genoemde risicogebieden, zoals onderwijs. Is dat niet het geval? Dan zijn de strengste verplichtingen van de AI-verordening niet van toepassing.
  • Bepalingen verboden AI-praktijken lastig toepasbaar. De AI-verordening verbiedt bepaalde praktijken, zoals het gebruik van manipulatieve technieken of het uitbuiten van kwetsbaarheden (bijvoorbeeld leeftijd). In de praktijk is het echter lastig om deze verboden toe te passen op AI-companionship, omdat moet worden aangetoond dat een systeem gedrag wezenlijk verstoort en dat daardoor aanzienlijke schade ontstaat of waarschijnlijk zal ontstaan. Effecten zoals emotionele afhankelijkheid of sociale isolatie zijn vaak subtieler en daardoor moeilijk juridisch onder deze verboden te scharen.
  • Transparantieverplichting biedt slechts beperkte bescherming. AI-systemen die direct met mensen communiceren moeten aangeven dat ze AI zijn en geen mens. Deze transparantieverplichting biedt echter onvoldoende bescherming tegen de hierboven beschreven risico’s van AI-companions.

Bovenstaande verplichtingen leiden inmiddels tot enige veiligheidsvoorzieningen. Zo wordt soms aangegeven dat je met een chatbot praat (de transparantieverplichting), al leidt dit niet per definitie tot gedragsverandering en dus een veiliger en verantwoorder gebruik. Ook verwijzen AI-chatbots nu vaker door naar (psychische) hulpvoorzieningen, maar zijn er ook signalen dat de verwijzing soms helemaal niet passend is en juist averechts kan werken. Bij langdurige gesprekken neemt de effectiviteit van deze guard rails vaak ook af. Daarnaast lijken keuzes van bedrijven achter AI-chatbots vooralsnog vooral ingegeven te zijn door het streven naar het maken van winst, in plaats van het prioriteren van het welzijn van (jonge) gebruikers. De noodzakelijke fundamentele aanpassingen aan het ontwerp blijven daarom vaak uit.

Tips en aanbevelingen 

AI-companions kunnen dus makkelijk, leuk en spannend zijn, maar brengen ook risico’s met zich mee. Het gebruik van generatieve AI voor AI-companionship onder kinderen raden we daarom af. Het is echter niet realistisch om te verwachten dat leerlingen het helemaal niet gebruiken of uitproberen. Zorg daarom dat iedereen zich bewust is van wat het is en van de gevolgen die het kan hebben voor de dynamiek op school en de ontwikkeling van jongeren in brede zin.  

1. Besteed aandacht aan de sociale, ethische en welzijnsaspecten van AI 

AI-companionship kan ontstaan in de interactie die iemand heeft met een taalmodel. Zorg daarom dat iedereen op school zich bewust is van wat AI-companionship is. Want AI-geletterdheid en digitale geletterdheid gaat niet alleen over vaardigheden, kennis en begrip van de technische werking van AI-systemen, maar ook over de sociale, ethische en praktische aspecten ervan. Besluit je voor alle leerlingen en medewerkers een generieke generatieve AI-dienst beschikbaar te stellen? Dan is het nog belangrijker dat je hiermee aan de slag gaat. 

Ga je bijvoorbeeld trainingen organiseren om AI-geletterdheid te bevorderen? Vraag dan of de trainer naast concepten als ‘hallucinaties’ en ‘bias’ ook aandacht wil besteden aan ‘sycophancy’ en ‘hyperpersonalisatie’. Richt je daarbij niet alleen op het aanleren van kennis en vaardigheden van de technologie, maar besteed ook aandacht aan die impact die het heeft op het proces van volwassenwording van leerlingen.

2. Sluit aan bij het kerndomein ‘De gedigitaliseerde wereld’  

Leerlingen komen in hun leefwereld in aanraking met AI en dus ook met AI-companionship. Wij adviseren daarom om AI-companionship expliciet onderdeel te maken van digitale geletterdheid door het direct aan te laten sluiten op het kerndomein ‘de gedigitaliseerde wereld’ en de bijbehorende kerndoelen. Volg daarbij bijvoorbeeld de volgende stappen: 

  • Start bij de leefwereld van de leerlingen. Laat ze bijvoorbeeld eerst zelf vertellen wat ze wél aan AI, maar niet aan mensen durven te vragen. Gebruik hun ervaring ook als input voor beleid.
  • Demystificeer de techniek. Koppel de eigen voorbeelden van leerlingen aan begrippen als ‘antropomorfisatie’ en ‘sycophancy’. Zo begrijpen ze waarom die ‘fijne’ bot eigenlijk een geprogrammeerde illusie is.
  • Maak probleemgevallen tastbaar. Praat bijvoorbeeld met elkaar over voorbeelden waarbij intensief gebruik van AI als vriend ernstige consequenties heeft gehad. Laat leerlingen zelf het moment aanwijzen waarop een functionele vraag over bijvoorbeeld een trainingsschema omslaat in een mogelijk onveilig gesprek over bijvoorbeeld lichamelijke onzekerheid.
  • Help leerlingen bij het maken van onderbouwde keuzes. Laat ze zelf de grens trekken, bijvoorbeeld door AI wel te gebruiken voor het oefenen van overhoringen, maar niet voor bevestiging van onzekerheden. Ook hier kunnen door de leerlingen zelf ingebrachte casussen een mooie basis vormen voor gesprekken. 
  • Blijf de afstemming zoeken met ouders. Geven leerlingen aan dat zij AI gebruiken omdat ze menselijke gesprekken missen of de druk te hoog vinden? Dan ligt daar een opdracht voor zowel de school als ouders om te onderzoeken wat een leerling nodig heeft om beter in zijn of haar vel te zitten. 

3. Heb aandacht voor het belang van menselijke interactie 

Het liefste zien we leerlingen die goed naar elkaar luisteren en die zich af en toe eens vervelen, ook omdat er creativiteit en zelfreflectie in momenten van rust ontstaat. Digitale technologieën zoals AI die ontworpen zijn om aandacht vast te houden dragen hier helaas niet altijd aan bij. Toch is de afgenomen ruimte voor verveling niet uitsluitend te wijten aan de opkomst van AI. Door het verdwijnen van fysieke sociale infrastructuur is er een vacuüm ontstaan waar AI de rol van menselijke interactie soms lijkt over te nemen. Heb hier ook op school aandacht voor. Dat kan al door eens door te vragen bij een mentorgesprek of door bijvoorbeeld AI of technologievrije zones op school in te richten.

Meer informatie 

Bekijk de website DigitaleBalans.nl of neem contact op met de Digitale Balans Infolijn via 0900-1996 voor meer informatie over het bewaren van een gezonde digitale balans rondom AI en andere digitale technologieën. 

De onderwerpen waarover wij publiceren