Diploma daalt niet in waarde

Door manipulatie met de schoolexamens daalt de waarde van de school- diploma’s. Onzin, zeggen Huub van den Bergh en Michel Couzijn....

In de Volkskrant van zaterdag 10 juni stond een bericht over de relatie tussen cijfers voor schoolexamen (SE) en centraal examen (CE). Daarin werd gesuggereerd dat veel scholen te hoge cijfers geven vergeleken met het centraal examen. Hierdoor zouden ‘elk jaar honderden leerlingen’ ten onrechte slagen. Onderwijssocioloog Jaap Dronkers concludeerde dat het SE -cijfer gemiddeld 0.3 punt boven het CE-cijfer ligt. Op sommige scholen ligt het echter aanmerkelijk hoger, tot soms meer dan een heel punt boven het gemiddelde CE-cijfer. Op deze scholen slagen leerlingen dus gemakkelijker, omdat het schoolexamen relatief hoog beoordeeld is. De school kan daarmee betere slagingspercentages voorspiegelen, maar ‘de intrinsieke waarde van het diploma neemt af’, aldus Dronkers. Kortom, de kwaliteit van het onderwijs is in het geding.

Dronkers geeft echter geen valide interpretatie van het verschil tussen SE- en CE-cijfers. Als eindcijfer voor een schoolvak krijgt een leerling het gemiddelde van zijn SE- en CE-cijfer. Voor het SE geeft elke school daar (deels) een eigen invulling aan, maakt eigen toetsen ervoor, stelt eigen normen op en maakt zelf uit wanneer en hoe de toetsen worden afgenomen. De consequentie is dat SE-cijfers van scholen onderling niet zomaar te vergelijken zijn.

Kortom, de inhoud van het schoolexamen en de wijze waarop dit wordt getoetst verschillen van school tot school. De verdenking is dat scholen te hoge cijfers geven, zodat meer leerlingen slagen. De hoge slagingspercentages van sommige scholen brengen ouders van adspirant-leerlingen mogelijk ertoe voor de school te kiezen.

Toch leren de grafieken dat het gemiddelde SE-cijfer voor een vak van jaar tot jaar nauwelijks verschilt. Dat is geen toeval. Docenten zorgen bewust ervoor dat ze elk jaar op ongeveer hetzelfde gemiddelde uitkomen; men wordt niet zomaar strenger of coulanter. Ook blijken er kleine, maar consistente verschillen tussen schoolvakken te zijn. Voor Engels en Nederlands worden relatief hogere cijfers gegeven, voor wiskunde, handel en economie gemiddeld wat lagere (het gaat om tienden).

Op zichzelf is dat merkwaardig, want er is niets inherents aan wiskunde dat het vak moeilijker maakt dan Engels. Het is maar net welk niveau de docent eist voor een voldoende. Wellicht spelen statusverschillen tussen vakken een rol, maar dit terzijde.

Opvallend is dat de gegevens voor de centrale examens wel fluctueren van jaar tot jaar. Voor wiskunde-A bijvoorbeeld varieert het gemiddelde CE-cijfer van 6.4 in 1995 tot 7.2 in 2000. Bij economie van 5.6 in 1998 tot 6.2 in 2000.

Waar komen deze verschillen in CE-cijfers vandaan? Twee verklaringen vragen aandacht. Ten eerste: havo-examinandi in 2000 zijn veel beter in wiskunde-A dan havo-examinandi in 1995. Dit is geen sterke verklaring, want zo snel gaat de evolutie niet dat de homo sapiens in vijf jaar een stuk slimmer wordt. Als de verschillen in cijfers echt verschillen in kennis aangeven, dan heeft de minister van OC & W in ‘slechte jaren’ iets uit te leggen: waar komen al die ‘zwakke’ leerlingen ineens vandaan? Of is dat jaar opeens op wonderlijke wijze algemeen beroerd lesgegeven? En als de niveaus echt zo wisselen, waarom slaan de docenten dan geen alarm?

Een logischer verklaring is dat de moeilijkheidsgraad van centrale examens van jaar tot jaar fluctueert. Die verklaring klinkt sneu voor leerlingen die het slachtoffer zijn van ‘een moeilijk jaar’, maar is wel plausibel. Het is namelijk uitermate lastig jaar in jaar uit examens te maken die exact even moeilijk zijn. Ook de normering, die voorafgaand aan de afname van het examen wordt opgesteld, kan in een jaar ‘toevallig’ aan de hoge of lage kant zijn.

Opmerkelijk is dat de SE-cijfers, gebaseerd op een groot aantal toetsen binnen schoolverband, wél stabiel zijn over de jaren en de centrale examens (met één toetsmoment) niet. De conclusie ligt voor de hand: het verschil tussen SE- en CE-cijfers in een bepaald jaar wordt sterk meebepaald door de instabiliteit van het CE.

Om direct naar de scholen of docenten te wijzen die opzettelijk te hoge cijfers voor het SE zouden rekenen, geeft dus geen pas. Kortom, Als er al verschillen worden geconstateerd tussen SO- en CE-cijfers dan zijn die afhankelijk van het jaar en het vak.

Het idee dat het centraal examen een ‘rots in de branding’ is, wordt alom gedeeld. Van dat idee gaat echter de onjuiste suggestie uit dat we eindexamencijfers uit verschillende jaren zomaar kunnen vergelijken om iets te leren over de kennis waarmee leerlingen de school verlaten. Hoewel het Cito probeert het niveau van de centrale examens elk jaar zo gelijkwaardig mogelijk te houden, kunnen we er niet zonder meer van uitgaan dat dit lukt; daarvoor fluctueren de cijfers teveel over de jaren heen. Die fluctuaties kunnen niet worden verklaard door razendsnelle veranderingen in bekwaamheid van de opeenvolgende cohorten. Ze zijn het gevolg van (kleine) verschillen in moeilijkheidsgraad van de examens. Zelfs het CE is daarmee geen betrouwbaar ijkpunt om voor- dan wel achteruitgang van leerlingprestaties te signaleren.

Examengegevens moeten worden gebruikt voor het doel waarvoor de examens zijn ontwikkeld: de kwalificatie van leerlingen, en eventueel vergelijking van scholen in één en hetzelfde examenjaar.

Meer over