Het vertrek én de terugkeer van Sam Altman bij OpenAI was groot nieuws in de techwereld. Het onderliggende conflict tussen hem en het (inmiddels vetrokken) bestuur was een richtingenstrijd, zo begrijp ik uit de berichtgeving. Binnen het bedrijf was de vraag enerzijds of de ontwikkeling van AI veilig en zorgvuldig genoeg gebeurt. Anderzijds moet er ook verdiend worden aan innovaties - in dit soort bedrijven zal er altijd een spanning zijn tussen commercieel succes en ethische vraagstukken. Het evenwicht was hier zoekgeraakt.  

Pauzeknop  

Zelfs voor techbedrijven gaat innovatie weleens te snel. Soms zou je even de pauzeknop willen indrukken als het gaat om nieuwe ontwikkelingen waar we de gevolgen nog niet van overzien. In de onderwijssector is dit nu duidelijk aan de orde. Daar maak ik mij grote zorgen over. Waar het in de medische sector of bijvoorbeeld bij cybersecurity-ontwikkelingen heel normaal is om zorgvuldige en grondige procedures te doorlopen voordat een apparaat of medicijn op de markt komt, lijkt dat in de onderwijssector allemaal wat losser te verlopen.

Illustratie ontwikkeling AI op pauze zetten
© ISTOCK

In de zorgsector worden AI en algoritmen al vrij veel gebruikt om grote datasets te analyseren en te achterhalen waardoor sommige mensen een bepaalde ziekte krijgen en andere niet. Dat is een heel mooie kans die deze nieuwe technologie biedt. Maar tevens is de zorg een sector die duidelijke procedures heeft ingesteld om beslissingen te nemen bij complexe of ethische vraagstukken. Wat doen we wel en wat niet? Wat laten we toe en wat niet? Hoe gaan we met al die ethische vraagstukken om?

In de onderwijssector zijn dergelijke procedures minder aanwezig als het gaat over nieuwe technologische ontwikkelingen.

Publieke regie vanuit onderwijs is een must

Daarom stel ik een open vraag aan de onderwijssector: hoe willen we hiermee omgaan? Het is natuurlijk niet zo dat er helemaal geen procedures zijn in het onderwijs. Maar dat betreft dan toch vooral het klassieke onderwijssysteem. Voor nieuwe ontwikkelingen hebben we nog een weg te gaan.

Op het gebied van informatiebeveiliging hebben we al het Normenkader IBP waar onderwijsorganisaties aan moeten voldoen. Als we meer en meer gebruikmaken van intelligente systemen, dan moeten we niet alleen kijken naar cyberveiligheid en privacy maar ook naar de impact die deze systemen verder hebben op het onderwijs. Denk daarbij aan de ethische kanten, de effectiviteit van het onderwijs en de gevolgen voor de professionele ruimte van de leraar. Een klein voorbeeld op het gebied van examinering: mogen scholieren en studenten gebruikmaken van deze chatbot en welke randvoorwaarden stellen we daarbij? 

Er komen steeds meer adaptieve toepassingen en AI-systemen. Het belang van kaders met een blik op toekomstige ontwikkelingen wordt daarmee steeds groter. Welke stappen moeten worden doorlopen voordat we nieuwe apps toelaten tot het onderwijs? Mogen techbedrijven als OpenAI zonder restricties doorgaan met ontwikkelen, of stellen we vanuit de onderwijssector gezamenlijk kaders waarbinnen deze (Ed)Tech-bedrijven opereren?

AI Act

Op 8 december 2023 werd een akkoord bereikt in Brussel over een Europese AI Act, dat is een goede stap vooruit. Met deze wet worden de inzet en ontwikkeling van AI (met name juridisch) gereguleerd. Dat zal ook impact hebben op het onderwijs. Mijn vraag aan de onderwijssector is: hoe moeten we kijken naar de pedagogische impact van dit soort systemen? Wat betekent het bijvoorbeeld als Microsoft en andere bedrijven hun eigen leerplatformen gaan ontwikkelen – op nationaal niveau en in Europees verband? 

Ik begin alvast met een antwoord en hoor graag je suggesties en aanvullingen. Als we kaders willen stellen en nieuwe procedures willen ontwikkelen waar (Ed)Tech-bedrijven zich aan houden, dan moeten we hierin collectief optrekken. Samen de regie pakken. De richtlijnen die we als sector opstellen zijn dan leidend en sturend; techbedrijven hebben zich eraan te houden. Helemaal mooi zou het zijn als dat gebeurt in een breder Europees perspectief, maar we hoeven hier echt niet op Europa te wachten. Medicijnen – om de zorgsector er nog weer even bij te pakken – voldoen aan allerlei internationale voorschriften, maar de toetsing daarvan verschilt óók per land. We kunnen onze eigen afwegingen maken en zelf het voortouw nemen om de inrichting van digitale leermiddelen en leerplatforms te sturen.  

Deze blog verscheen eerder op ibestuur.nl

  

Deel deze pagina: Hoeveel invloed geven we techbedrijven nog op het onderwijs? 

Delen
  • LinkedIn
  • Facebook
  • Twitter
  • E-mail