AI duikt inmiddels op in van alles en nog wat binnen scholen, van digitaal lesmateriaal tot administratiesystemen. Dat levert beslist iets op, denk aan meer ruimte voor maatwerk, minder handmatig uitzoekwerk en soms ook gewoon slimmer georganiseerde processen. Tegelijk levert dit vragen op. Wat gebeurt er met leerlinggegevens? Hoe veilig zijn die systemen eigenlijk? En hoe weet je of een school of een toepassing juridisch binnen de lijntjes kleurt? Juist omdat de praktijk snel verandert, werkt SIVON nu aan een toetsingskader AI dat scholen en leveranciers meer grip moet geven.
Praktisch houvast in een veld dat alle kanten op schiet
Het nieuwe toetsingskader wordt ontwikkeld in opdracht van het ministerie van OCW, samen met Kennisnet en Edu-V. Met het toetsingskader moeten scholen en leveranciers beter kunnen vaststellen wanneer een toepassing onder de Europese AI-verordening valt. Binnen het onderwijs belanden AI-toepassingen namelijk geregeld in de categorie hoog risico, vooral wanneer ze invloed hebben op beoordeling, selectie of advisering van leerlingen. Dan heb je het over systemen die daadwerkelijk meewegen in onderwijskansen.
Waarom scholen en leveranciers hier mee worstelen
Op de werkvloer leeft nogal wat verwarring. Wanneer is iets nu echt AI? En wanneer is het vooral slimme software met een hip etiket erop? Die vraag klinkt simpel, maar blijkt in de praktijk verrassend taai. Daar komt bij dat scholen vaak beperkt zicht hebben op wat zich onder de motorkap afspeelt. Een systeem kan analyses maken van leerresultaten of aanbevelingen doen, terwijl het voor gebruikers nauwelijks zichtbaar is hoe die uitkomsten tot stand komen. Precies daar beginnen de zorgen over privacy, dataveiligheid, transparantie en juridische verantwoordelijkheid. Zeker bij zelflerende of deels autonome toepassingen is het risico lastig op voorhand in te schatten.
Wat het toetsingskader moet opleveren
Volgens SIVON moet het nieuwe toetsingskader vooral bruikbaar zijn in de praktijk. Het moet inzicht geven in de vraag wanneer een toepassing onder de AI-verordening valt, hoe verschillende AI-toepassingen in risicocategorieën kunnen worden geplaatst en welke juridische criteria dan relevant zijn. Ook praktijkvoorbeelden krijgen een plek, zodat scholen en leveranciers niet blijven hangen in abstracte termen, maar kunnen zien hoe AI feitelijk in onderwijssoftware wordt toegepast.
Meer duidelijkheid voor scholen
Voor scholen betekent dit vooral meer houvast bij de keuze voor software en leermiddelen. Als een toepassing invloed heeft op leeranalyses of onderwijsniveau, dan wil je als bestuur of schoolleider niet gokken. Leveranciers krijgen op hun beurt scherper in beeld of hun product onder de AI-verordening valt en met welke verplichtingen zij rekening moeten houden. Denk aan eisen rond transparantie, documentatie, dataminimalisatie, beveiliging en verantwoording.
Er zijn bij dit artikel nog geen reacties geplaatst