Meteen naar de content
  • Uitleg
  • |
  • Ethiek
  • |
  • po
  • vo
  • mbo

AI in het onderwijs: dit zijn de belangrijkste ethische aandachtspunten

Leren met digitale leermiddelen die zich direct aanpassen aan de persoonlijke ontwikkeling van de leerling: artificial intelligence (AI) maakt het in de toekomst waarschijnlijk mogelijk. Dit kan voor grote veranderingen in het onderwijs zorgen en de rol van de leraar aan het schuiven brengen. Welke ontwikkelingen vinden we wel en niet wenselijk? Het onderwijs kan hier actief in sturen en belangrijke onderwijswaarden voorop zetten. Een overzicht van de belangrijkste ethische aandachtspunten helpt je op weg.

Logo Kennisnet

Door de redactie

25 oktober 2021
8 minuten lezen

Dit artikel gaat over de ethische vragen die naar boven komen bij de inzet van artificial intelligence (AI) in het onderwijs. Daarbij stellen we de vraag: op welke manier heeft AI invloed op de waarden die voor het onderwijs van belang zijn? Door dit te onderzoeken, kunnen scholen en onderwijsteams beter bepalen of en hoe ze AI willen inzetten bij hun onderwijs.

Drie onderwijswaarden

We onderzoeken in dit artikel de drie hoofdwaarden bij onderwijs en digitalisering:

  • rechtvaardigheid
  • menselijkheid
  • autonomie

Het zijn de hoofdwaarden uit de WaardenWijzer voor onderwijs en onderzoek van Kennisnet en SURF.

Dit is AI

Meer weten over hoe AI precies werkt en hoe het in het onderwijs ingezet kan worden? Lees dan eerst de uitleg over AI.

Rechtvaardigheid

Of de inzet van AI in het onderwijs rechtvaardig is voor alle leerlingen en studenten, hangt af van verschillende factoren. AI kan het onderwijs rechtvaardiger maken, bijvoorbeeld wanneer een adaptief leermiddel een neutraler oordeel velt over het leerproces dan de leraar. Leraren kunnen onbewust met vooroordelen werken die AI zou kunnen corrigeren. Maar ook AI-systemen kunnen een onrechtvaardige bias in zich dragen.

Zit er geen onrechtvaardige bias in de gebruikte AI-systemen?

AI kan in het onderwijs worden ingezet om de leraar te ondersteunen. Bijvoorbeeld in de vorm van adaptieve leermaterialen voor taal en rekenen, die zich aanpassen aan het niveau van de leerling. Maar AI kan ook op andere niveaus in de schoolorganisatie worden ingezet. Door bijvoorbeeld op basis van verzamelde data voorspellingen te doen over de kans dat een student uitvalt tijdens zijn eerste jaar in het mbo, of om zijn studiesucces te voorspellen. De inzet van AI kan helpen om leerlingen en studenten passende begeleiding te bieden. Tegelijkertijd kunnen verkeerde voorspellingen leerlingen en studenten een stempel meegeven waar zij niet gemakkelijk vanaf komen.

Er zijn verschillende vormen van onrechtvaardige bias bij het gebruik van AI-systemen:

  • In het ontwerp van het systeem zelf. Bijvoorbeeld als het systeem zo geprogrammeerd is dat het onterechte conclusies trekt op basis van nationaliteit of etniciteit.
  • In de conclusies die het systeem trekt uit een dataset die ongelijkheden in de samenleving reproduceert. Bijvoorbeeld als wordt geconcludeerd dat kinderen van laagopgeleide ouders een lager schooladvies zouden moeten krijgen, omdat dat volgens de dataset vaak het geval is.
  • In een niet kloppende of onvolledige dataset. Het systeem heeft dan niet de juiste data tot zijn beschikking om goede conclusies te trekken. Denk aan een rekenprogramma dat voornamelijk door bovengemiddelde rekenaars wordt gebruikt. Dit systeem trekt misschien conclusies over leerstrategieën die niet voor alle leerlingen op zouden gaan.
  • In de interpretatie van het systeem door gebruikers. Als het systeem de juiste output levert, kan deze verkeerd geïnterpreteerd worden en ook dat kan nadelig zijn voor groepen en individuen.

Het is belangrijk om bij de inzet van AI in het onderwijsproces steeds na te gaan hoe het systeem werkt, hoe het beslissingen neemt, of dat op een rechtvaardige manier gebeurt en of de adviezen overeenkomen met de inschattingen van de leraar, schoolleider of bestuurder.

Menselijkheid

AI kan steeds meer taken overnemen van mensen. Dit vraagt om bewuste keuzes: wanneer is de mens aan zet en wanneer de computer?

Wat is een goede balans tussen mens en machine?

Betekenisvol contact, persoonlijke aandacht en sociale samenhang zijn van groot belang in het onderwijs. Mensen leren van elkaar, in sociaal verband en door anderen na te doen. Tegelijkertijd is AI in staat om veel taken over te nemen die eerst typisch mensenwerk waren. Denk in het onderwijs aan het nakijken van antwoorden, het geven van feedback op wat iemand schrijft of zegt, of op hoe iemand een presentatie geeft. De mogelijkheden worden steeds breder en kunnen voor steeds meer taken worden ingezet die eerst alleen tot het domein van de mensen behoorden. Het is belangrijk om bij de inzet van AI oog te houden voor de balans tussen mens en machine: krijgen menselijke waarden als betekenisvol contact en persoonlijke aandacht voldoende ruimte? En krijgt bij het toenemende lerarentekort in de toekomst elke leerling voldoende les van een mens, naast het leren van computers?

Nemen mensen de belangrijke beslissingen?

‘Human in the loop’ is een vakterm die vaak wordt genoemd bij discussies over AI. Het wil zeggen dat er bij het gebruik van AI geen beslissingen over personen genomen mogen worden, zonder dat er een menselijke blik aan te pas komt. Dit is wettelijk vastgelegd. Een leraar mag AI-systemen niet zelfstandig laten beslissen bij keuzes die belangrijke gevolgen hebben voor leerlingen, bijvoorbeeld bij een doorstroomadvies. Bij het gebruik van AI is het noodzakelijk om steeds na te gaan of het mensen zijn die de belangrijke beslissingen nemen.

Houden we oog voor de diversiteit van mensen en hun bijzonderheden?

Hoe een leerling zich ontwikkelt is niet zomaar in meetbare resultaten uit te drukken. De uitgebreide mogelijkheden van AI kunnen het echter verleidelijk maken om veel vast te leggen. Niet alleen de leerresultaten, maar ook de sociaal-emotionele ontwikkeling van leerlingen kan op bepaalde manieren worden gemeten en in digitale dashboards worden vastgelegd. Het is echter de vraag of leerlingen daarmee niet in één mal worden gegoten van verwacht sociaal gedrag, terwijl juist diversiteit de mens bijzonder maakt en leidt tot synergie in gemeenschappen en teams. Bovendien is het de vraag of onderwijs zou moeten voorschrijven hoe mensen zich moeten gedragen in plaats van hen te begeleiden in hun eigen unieke ontwikkeling. Dit vraagt om een gesprek in onderwijsteams.

Autonomie

Als onderwijsprofessionals meer gaan vertrouwen op digitale systemen die gegevens analyseren en op basis daarvan afwegingen maken, dan doet dat iets met hun autonomie. En ook over de autonomie van leerlingen zijn vragen te stellen: hebben zij (of hun ouders) nog voldoende controle over welke informatie over hen gedeeld en opgeslagen wordt? En blijft er bij toegenomen monitoring door systemen voldoende ruimte om te oefenen en te falen?

Wat is de invloed op de professionele autonomie van de leraar?

Adaptieve leermiddelen maken net als de leraar afwegingen over het niveau van een leerling, of over de aan te bieden opdrachten. Dit roept vragen op over de verhouding tussen de leraar en de technologie. Welk oordeel weegt zwaarder in verschillende contexten? Dat van de mens of van het systeem? In hoeverre heeft de leraar ruimte om af te wijken van de adviezen van AI? En hoe wordt hier op het niveau van schoolleiding of het bestuur over gedacht?

Bij het gebruik van AI moeten uitlegbaarheid en transparantie voorop staan, zodat een leraar kan begrijpen op welke manier het systeem afwegingen maakt en tot conclusies komt. Dit geeft de leraar meer autonomie bij het werken met systemen op basis van AI, omdat hij de waarde van de adviezen beter kan inschatten en in staat is zijn handelen daarop te baseren. Ook is het belangrijk dat iedereen die met AI te maken krijgt in de schoolcontext, zich hier altijd van bewust is en geïnformeerd is over de vermogens en beperkingen van het middel.

Lees meer over uitlegbaarheid van AI in het artikel ‘Verantwoord inzetten van artificial intelligence’.

Blijft er ruimte voor leerlingen om te oefenen en te falen?

Oefenen met adaptieve software werkt heel anders dan krassen in de kantlijn van je schrift. De antwoorden die een leerling invult worden direct gebruikt om het niveau van die leerling te bepalen. Dit kan invloed hebben op een vrij gevoel om te oefenen en te falen in het onderwijs, om zomaar iets te proberen zonder dat het direct gevolgen heeft. Ook dit vraagt om een gesprek in onderwijsteams: wanneer is het wenselijk dat leerlingen met adaptieve systemen werken en wanneer is het tijd voor een meer vrije oefenomgeving?

Is de privacy van leerlingen gewaarborgd?

Meer gebruik van digitale systemen leidt tot meer gegevensuitwisseling en -opslag. Dat levert meer privacyrisico’s op. Als digitale gegevens niet zorgvuldig worden gedeeld en opgeslagen, kan informatie over het leerproces van leerlingen voor lange tijd inzichtelijk blijven. Dit vraagt om aandacht voor informatiebeveiliging en privacy. Het verwerken van gegevens over personen moet volgens de Algemene Verordening Gegevensbescherming gebeuren. Het is wettelijk vastgelegd dat er niet meer informatie over personen gedeeld mag worden dan wat nodig is voor het beoogde doel. Dit noemen we dataminimalisatie. Het is belangrijk dat er steeds wordt nagegaan of gegevens gedeeld en opgeslagen moeten en mogen worden en in gesprek te gaan over de manier waarop privacy geborgd is bij de gebruikte systemen.

Waarden wegen: samen voorwaarden bepalen

AI inzetten in het onderwijs: is dat wel of niet goed? Dit artikel laat zien dat op die vraag geen eenduidig antwoord is te geven. Soms kan het goed zijn om een bepaalde technologie bewust niet of nog niet in te zetten, bijvoorbeeld als er vragen zijn over de rechtvaardigheid voor bepaalde groepen leerlingen. Maar scholen kunnen er ook voor kiezen om te experimenteren met nieuwe mogelijkheden voor het onderwijs. Het is in ieder geval van belang dat scholen bij de aanschaf van digitale producten nagaan of het product werkt op basis van AI, wat voor beslissingen het systeem neemt en of de school daarachter staat.

Scholen kunnen de ontwikkeling en de inzet van AI in het onderwijs sturen en begeleiden. Bijvoorbeeld door voorwaarden te bepalen waaraan leermiddelen die op basis van AI werken moeten voldoen. Maar ook door de uitingsvormen van AI die we nu al in adaptieve leermiddelen vinden beter te doorgronden en samen de impact op de dagelijkse onderwijspraktijk te bespreken.

Naast het onderwijsveld zelf, hebben ontwikkelaars van leermiddelen die AI inzetten een grote verantwoordelijkheid om technologie te maken die bijdraagt aan rechtvaardigheid, menselijkheid en autonomie. Bij de ontwikkeling van producten dienen ze altijd, in dialoog met het onderwijs, te kijken naar de impact die hun product kan hebben op die waarden.

Lees verder

Waardenwijzer: in gesprek over onderwijswaarden en digitalisering

Waardenwijzer

Ethical guidelines

Een expertgroep van de Europese Commissie schreef het rapport ‘Ethical guidelines on the use of artificial intelligence (AI) and data in teaching and learning for educators’. Het rapport helpt schoolteams om vanuit ethisch oogpunt te kijken naar vragen rond de inzet van artificiële intelligentie en data in het onderwijs.
Ethical guidelines on the use of AI

Samen met je team een ethisch gesprek voeren? Dat kan aan de hand van het stappenplan Ethiekkompas.

De onderwerpen waarover wij publiceren