Auteurs : Bruno
Trosseille et Thierry Rocher
Éducation et formations,
n° 86-87, pp 15-35
05-2015
Présentation :
Depuis une quarantaine
d’années, le ministère de l’Éducation nationale a mis en œuvre des évaluations
tantôt « de masse », tantôt sur échantillons. Ces évaluations peuvent avoir
deux fonctions principales : de diagnostic lorsqu’elles sont élaborées pour
fournir aux enseignants des outils professionnels qui leur sont nécessaires
pour adapter leur enseignement en fonction des acquis de leurs élèves ; de
bilan lorsque l’objectif est d’observer les acquis des élèves et leur évolution
pour le pilotage d’ensemble du système éducatif. La confusion, dans une même
évaluation, de ces deux fonctions est potentiellement source d’erreurs et de
troubles, tant sur le plan scientifique que sociétal. Après avoir décrit
l’histoire entrelacée de ces deux types d’évaluations au sein du Ministère, nous
envisageons l’avenir du paysage évaluatif et la façon dont il peut se
réorganiser en fonction des différentes finalités qui lui sont aujourd’hui assignées
et des défis qu’il devra affronter à l'avenir.
Extrait :
« En termes de fiabilité, une étude interne, réalisée par la DEPP lors de la première évaluation de janvier 2009, fait apparaître des distorsions dans les résultats selon que les écoles ont ou non été suivies par les inspecteurs du contrôle qualité, ainsi qu’en fonction des secteurs de scolarisation. Ainsi, on observe une surestimation des élèves par leurs enseignants, et ce de façon plus particulièrement marquée dans le secteur privé, en l’absence de contrôle des procédures de passation et de correction [souligné par moi]. Dès la deuxième année d’utilisation, les limites de l’exercice, en termes de comparabilité, sont atteintes : les résultats des élèves de CM2 affichent une forte baisse en mathématiques. Cette baisse est en fait due à la plus grande difficulté du protocole élaboré pour cette deuxième itération, mais elle est interprétée comme une perte de compétence moyenne des élèves de CM2. La DEPP, sollicitée pour donner une mesure de l’impact de cette absence de contrôle de l’élaboration des protocoles, utilise une procédure d’equating (mise à niveau des métriques) pour permettre la comparabilité entre les deux années [Rocher, 2012]. Mais la suspicion à l’égard de ces évaluations est telle que l’ajustement des résultats de cette deuxième évaluation est dénoncé par beaucoup comme un « bidouillage » destiné à masquer l’impéritie du Ministère. » (p 24)
Aucun commentaire:
Enregistrer un commentaire
Les commentaires reçus n’ont pas tous vocation à être publiés.
Étant directeur de publication de ce blog, seuls les textes qui présentent un intérêt à mes yeux seront retenus.