Translate

Affichage des articles dont le libellé est TIMSS. Afficher tous les articles
Affichage des articles dont le libellé est TIMSS. Afficher tous les articles

jeudi 29 août 2019

Visible Learning : la Lune et le doigt



Le travail réalisé par John Hattie et son équipe a suscité, lors de sa parution, beaucoup d’enthousiasme par l’ampleur des données récoltées et par le fait qu’il s’agissait d’une tentative de déterminer les meilleures pratiques d’enseignement en se basant sur des données en grand nombre (plus de 900 méta-analyses).

Les constructivistes, qui tiennent plus à leurs croyances fondées sur l’idéologie que sur les données probantes fondées sur la réalité, ont partout rejeté le travail de Hattie parce qu’il démontrait l’inefficacité de leurs pratiques pédagogiques. Leurs critiques ne sont, par conséquent, que des réactions défensives sans valeur. Inutile qu’on s’y attarde…

En revanche, lorsque Robert Slavin, qui est un chercheur sérieux prônant un enseignement du type instructionniste avec Success for All, dit “John Hattie is wrong” dans un article de son blog, il faut écouter ses arguments et les prendre en considération.

Sa critique pointe le fait que, dans la masse des analyses que Hattie et son équipe ont utilisées, certaines avaient des biais importants. Ces défauts se sont logiquement reportés sur les méta-analyses qui les recensaient malgré tout et, à un niveau supérieur, sur les méga-analyses, pour les mêmes raisons.



Il pointe également le seuil de 0,40 du célèbre cadran qui sert de limite entre les pratiques qui ont un effet tangible et celles qui n’en ont pas. Les effets compris entre 0,15 et 0,40 correspondent à ce que tout enseignant pourrait produire quelle que soit sa méthode. Et ceux compris entre 0,00 et 0,15 équivalent à ce que n’importe quel enfant peut apprendre tout seul, sans le secours de l’école. Or, selon Robert Slavin, ce cadran et les zones qu’il détermine ne tient pas compte de la taille de l’effet. En statistique, c’est la force de l'effet observé d'une variable sur une autre (voir l’article de Wikipédia pour en apprendre davantage).

Le point de vue de Franck Ramus doit également être pris en compte : « Quand on pousse la synthèse à l’extrême il existe évidemment un risque de simplification, de passer à la trappe des détails importants ou de se livrer à des comparaisons qui n’ont pas lieu d’être. Il ne faut ainsi pas lire les tableaux de Hattie de façon littérale. Et s’il s’agit de convertir ces données en recommandations pratiques pour les enseignants alors oui il est nécessaire de revoir chaque étude retenue dans le détail. Il me semble que les travaux de Hattie constituent davantage un outil pour les chercheurs parce qu’ils sont un point d’entrée systématique et exhaustif vers une littérature scientifique immense et difficile à dominer ».

Quant à Steve Bissonnette, il écrit : « Les travaux menés par l’équipe de John Hattie font l’objet de plusieurs critiques et plusieurs de ces critiques sont valables et recevables. En effet, réaliser une méga-analyse en comparant les résultats provenant de diverses méta-analyses ayant utilisé parfois différentes méthodologies crée le danger de comparer des pommes avec des oranges ! » 

Le “Saint-Graal de l’éducation” – comme le Visible Learning a été très vite qualifié par les médias – n’est donc pas vraiment la relique miraculeuse que tout le monde enseignant espère.

Incontestablement, les instruments de mesure utilisés par les chercheurs ne sont pas parfaits. On retrouve les mêmes limites – et les mêmes critiques – dans les mesures effectuées pour les comparaisons internationales (PISA, TIMSS, PIRLS) ou pour les évaluations standardisées des acquis des élèves. Mais malgré leurs défauts, ces instruments de mesure révèlent un certain nombre d’indications massivement convergentes, dont il serait stupide de rejeter l’évidence au nom d’une perfection qui ne sera jamais de ce monde.

Lorsque le sage montre la Lune, il n’est pas idiot de regarder le doigt. Mais à condition de ne pas oublier, en même temps, de regarder aussi la Lune…




vendredi 7 juin 2019

Évaluation des élèves français à l'échelle internationale


Les dossiers de la DEPP, n° web-dossier 2019.01
05.2019



La France participe à plusieurs comparaisons internationales de performances des élèves :
- PIRLS (Progress in International Reading Literacy Study) pilotée par l’IEA (Association internationale pour l'évaluation de l'efficacité dans le domaine scolaire) ;
- TIMSS (Trends International in Mathematics and Science Study) pilotée par l’IEA ;
- PISA (Program for International Student Assessment) pilotée par l’OCDE ;
- ICCS (International Civic and Citizenship Education Study), pilotée par l’IEA ;
- ICILS (International Computer and Information Literacy Study) pilotée par l’IEA.


Cliquer sur l'image pour l'agrandir.


PIRLS
Tous les cinq ans depuis 2001, PIRLS évalue les compétences des élèves de quatrième année d’école obligatoire (CM1, en France) en compréhension de l’écrit, dans près de 50 pays. Outre les comparaisons des performances entre pays, le dernier cycle de l’étude (2016) permet de comparer les évolutions temporelles sur une période de 15 années, ce qui au niveau de l’école élémentaire correspond à une suite de données exceptionnelle.

TIMSS4
À l’école élémentaire, tous les quatre ans, TIMSS4 évalue les compétences des élèves en fin de quatrième année des enseignements systématiques (CM1, en France), tant en mathématiques qu’en sciences. L’étude existe depuis 1995, mais la France s’y est jointe pour la première fois lors du dernier cycle (2015). Les résultats de 2015 ont permis des comparaisons des performances entre pays. Ces résultats constituent en outre une base, un temps T0, et permettront lors du prochain cycle (2019) de comparer les évolutions temporelles sur une période de 4 années.

TIMSS8
Tous les quatre ans, l’évaluation TIMSS8 évalue les compétences des élèves de classe de quatrième en mathématiques et en sciences. Jusqu’à présent, la France n’avait participé qu’à la première édition de l’enquête, en 1995. La France réintègre le dispositif en 2019. Les élèves français de quatrième qui participent à cette étude appartiennent à la même génération que celle qui avait participé en CM1 en 2015. Les résultats qui en seront issus constitueront une base, un temps T0, et permettront lors du prochain cycle (2023) de comparer les évolutions temporelles sur une période de 4 années.

TIMSS Advanced
TIMSS Advanced est une évaluation des compétences en mathématiques et en physique des élèves de terminale S. Elle comprend aussi un échantillon complémentaire d’élèves de classes préparatoires aux grandes écoles scientifiques. Cette évaluation a été réalisée en mai 2015 dans 9 pays.

PISA
Tous les trois ans depuis 2000, PISA évalue les compétences des élèves de 15 ans dans trois domaines clés : la compréhension de l’écrit, la culture mathématique et la culture scientifique. À chaque cycle PISA, un de ces domaines est privilégié par rapport aux autres, ce qui permet une étude approfondie des résultats et des évolutions le concernant. En 2015, tout comme en 2006, la culture scientifique était au centre de l’évaluation menée dans 72 pays ou « économies partenaires », dont les 35 pays de l’OCDE.

ICCS
L’étude ICCS s’intéresse à la façon dont les jeunes sont préparés à leur rôle de citoyen. Pour cela, l’étude aborde les connaissances, les attitudes et l’engagement civiques et citoyens des élèves scolarisés au grade 8 (équivalent de la classe de quatrième en France). La France participera pour la première fois à l’étude en 2022. Lors de la précédente édition, en 2016, 24 pays étaient représentés.

ICILS
ICILS (International Computer and Information Literacy Study) est un projet international de recherche conduit par l’IEA (International Association for the Evaluation of Educational Achievement). Il concerne les connaissances et les compétences des élèves de quatrième en termes d’utilisation des outils numériques et de maîtrise de l’information. L’étude existe depuis 2013, mais la France s’y est jointe pour la première fois lors du dernier cycle (2018).

jeudi 22 décembre 2016

TIMSS 2015 mathématiques et sciences : Évaluation internationale des élèves de CM1 (MEN-DEPP)

Note d'information, n° 33
11.2016
Auteurs : Marc Colmant et Marion Le Cam



L’étude internationale TIMSS 2015 mesure les performances en mathématiques et en sciences des élèves à la fin de la quatrième année de scolarité obligatoire (cours moyen 1ère année pour la France). Ces élèves sont entrés en cours préparatoire en 2011.

Avec un score de 488 points en mathématiques et de 487 points en sciences, la France se situe en deçà de la moyenne internationale (500 points en mathématiques et en sciences), et de la moyenne européenne (527 points en mathématiques ; 525 points en sciences), globalement et quel que soit le domaine de contenus ou le domaine cognitif considéré.

En sciences, filles et garçons obtiennent le même score. En mathématiques en revanche, les garçons font mieux que les filles, de manière significative, bien que peu marquée. Interrogés sur leurs pratiques d’enseignement, les enseignants français expriment plus fréquemment que leurs collègues européens un certain malaise face à ces deux disciplines.

En avril-mai 2015, 49 pays ou provinces ont participé à l’enquête internationale TIMSS (Trends in International Mathematics and Science Study) organisée par l’IEA pour évaluer les performances en mathématiques et en sciences des élèves de cours moyen 1ère année (CM1).

La classe cible de l’enquête est celle qui représente quatre années d’enseignement après le début des apprentissages systématiques de la lecture, de l’écriture et des mathématiques. TIMSS s’intéresse à l’ensemble des élèves présents à ce niveau de la scolarité, quels que soient leur âge, leur parcours et l’organisation du système éducatif (proportion d’élèves en retard, etc.).
Au moment de la passation, la moyenne d’âge internationale est de 10,2 ans, la moyenne européenne de 10,3 ans ; les élèves français ont 9,9 ans.  Les plus jeunes sont les Italiens (9,7 ans) et les plus âgés les Danois (10,9 ans). Les politiques de chaque pays en matière d’âge de scolarisation, de promotion et de rétention de classe ne permettent pas d’établir un lien direct entre résultats et âge moyen des élèves.

En France, les élèves évalués dans TIMSS 2015 ont effectué leur cours préparatoire (CP) pendant l’année scolaire 2011-2012, voire 2010-2011 s’ils ont pris du retard. Ils ont donc suivi toute leur scolarité élémentaire avec les programmes mis en place en juin 2008.  Les nouveaux programmes d’enseignement de l’école élémentaire sont entrés en vigueur après l’évaluation TIMSS, à la rentrée scolaire 2016.

Pour les mathématiques, le préambule des programmes de 2008 indique qu’à cette étape de la scolarité, « les élèves enrichissent leurs connaissances, acquièrent de nouveaux outils, et continuent d’apprendre à résoudre des problèmes. Ils renforcent leurs compétences et acquièrent de nouveaux automatismes toujours associés à une intelligence de leur signification. »
Pour les sciences, les programmes indiquent qu’il « s’agit de comprendre et de décrire le monde réel, celui de la nature et celui construit par l’Homme, d’agir sur lui, et de maîtriser les changements induits par l’activité humaine. L’étude des sciences contribue à faire saisir aux élèves la distinction entre faits et hypothèses vérifiables d’une part, opinions et croyances d’autre part. »

Des résultats inférieurs à la moyenne internationale

Les élèves français obtiennent un score moyen de 488 en mathématiques et de 487 en sciences. Ces scores sont significativement inférieurs aux moyennes internationales des deux échelles TIMSS fixées à 500. Pour chaque discipline, le score moyen de la France est différent de manière statistiquement significative de celui de chacun des pays de l’étude, excepté de ceux de la Nouvelle-Zélande (491) et de la Turquie (483) pour les mathématiques et de ceux de la Turquie (483) et de Chypre (481) pour les sciences.

En mathématiques, cinq pays d’Asie orientale se partagent les meilleurs résultats : Singapour (618), Hong Kong (614), la Corée du Sud (608), Taïwan (596) et le Japon (593). Le premier pays de l’Union européenne (UE), l’Irlande du Nord (570), est 6e.

En sciences, les mêmes cinq pays occupent les   premières places (avec des scores compris entre 555 et 590), rejoints toutefois par la Fédération de Russie (567).  Le premier pays de l’UE, la Finlande (554), occupe le 7e rang.

Dans les deux disciplines, environ 6 pays sur 10 obtiennent des scores moyens globaux significativement supérieurs à la moyenne internationale. En revanche, 3 pays sur 10 (dont la France) ont des performances globales significativement inférieures.