Translate

vendredi 30 décembre 2016

La critique des travaux de John Hattie

Steve Bissonnette



Les travaux menés par l’équipe de John Hattie font l’objet de plusieurs critiques et plusieurs de ces critiques sont valables et recevables. En effet, réaliser une méga-analyse en comparant les résultats provenant de diverses méta-analyses ayant utilisé parfois différentes méthodologies crée le danger de comparer des pommes avec des oranges ! Toutefois, est-ce que pour cela, il faille en conclure que les recommandations formulées par ce chercheur sont totalement erronées ?

À ce sujet je vous invite à lire la citation suivante provenant de trois des plus grands chercheurs en sciences de la cognition du XXe siècle, John Anderson, Lyne Reder et Herbert Simon, détenteur d’un prix Nobel, de Carnegie Mellon (1998) sur le controversé Projet Follow Through :
« Une part importante des résistances que les constructivistes radicaux, ainsi que de nombreux intervenants du milieu de l’éducation en général, éprouvent face au domaine de la mesure et évaluation provient du fait qu’aucun instrument de mesure n’est parfait. Or, cette tendance à focaliser sur les limites des instruments de mesure en amènent plusieurs à rejeter les données provenant des recherches empiriques. Le jugement négatif qu’on a porté sur le Projet Follow Through, qui a démontré que les méthodes d’enseignement direct étaient plus efficaces que les pédagogies ouvertes avec des élèves du niveau primaire issus de milieux défavorisés, en constitue un exemple classique. Cette étude a été immédiatement accablée de critiques de toutes sortes, ce qui a eu pour effet de détourner complètement l’attention des informations importantes qu’elle contenait. Les scientifiques savent qu’ils doivent tenir compte des limites inhérentes à leurs instruments de mesure, mais qu’ils ne doivent pas pour autant ignorer ce que leurs instruments révèlent »
(Anderson, J.R., Reder, L.M., Simon, H.A. (1998). Radical Constructivism and Cognitive Psychology. In D. Ravitch (Ed.) Brookings Papers on Education Policy 1998. Washington, DC: Brookings Institute Press, p 253)
De plus, comme nous l’avons montré dans le chapitre 1 de l’ouvrage intitulé Enseignement explicite publié en 2013 chez ERPI (Gauthier, Bissonnette et Richard, 2013) l’effet enseignant identifié par Hattie est corroboré par les recherches réalisées sur la valeur ajoutée des enseignants de William Sanders, un statisticien de formation, et sur les études menées sur les écoles efficaces. Cette triangulation de recherches montre une convergence de résultats indiquant l’effet déterminant de l’enseignant sur le rendement des élèves. L’extrait suivant provenant de l’ouvrage de Dylan (2016) montre également l’effet important de l’enseignant sur le rendement des élèves qui lui sont confiés.


Finalement, il suffit simplement d’avoir soi-même des enfants à l’école pour constater comme parents les effets d’un enseignant efficace sur le rendement de ceux-ci !

lundi 26 décembre 2016

Vidéo : Réapprendre à lire, un jeu d'enfant ? (Sandrine Garcia et A.Claudine Oller)


jeudi 22 décembre 2016

TIMSS 2015 mathématiques et sciences : Évaluation internationale des élèves de CM1 (MEN-DEPP)

Note d'information, n° 33
11.2016
Auteurs : Marc Colmant et Marion Le Cam



L’étude internationale TIMSS 2015 mesure les performances en mathématiques et en sciences des élèves à la fin de la quatrième année de scolarité obligatoire (cours moyen 1ère année pour la France). Ces élèves sont entrés en cours préparatoire en 2011.

Avec un score de 488 points en mathématiques et de 487 points en sciences, la France se situe en deçà de la moyenne internationale (500 points en mathématiques et en sciences), et de la moyenne européenne (527 points en mathématiques ; 525 points en sciences), globalement et quel que soit le domaine de contenus ou le domaine cognitif considéré.

En sciences, filles et garçons obtiennent le même score. En mathématiques en revanche, les garçons font mieux que les filles, de manière significative, bien que peu marquée. Interrogés sur leurs pratiques d’enseignement, les enseignants français expriment plus fréquemment que leurs collègues européens un certain malaise face à ces deux disciplines.

En avril-mai 2015, 49 pays ou provinces ont participé à l’enquête internationale TIMSS (Trends in International Mathematics and Science Study) organisée par l’IEA pour évaluer les performances en mathématiques et en sciences des élèves de cours moyen 1ère année (CM1).

La classe cible de l’enquête est celle qui représente quatre années d’enseignement après le début des apprentissages systématiques de la lecture, de l’écriture et des mathématiques. TIMSS s’intéresse à l’ensemble des élèves présents à ce niveau de la scolarité, quels que soient leur âge, leur parcours et l’organisation du système éducatif (proportion d’élèves en retard, etc.).
Au moment de la passation, la moyenne d’âge internationale est de 10,2 ans, la moyenne européenne de 10,3 ans ; les élèves français ont 9,9 ans.  Les plus jeunes sont les Italiens (9,7 ans) et les plus âgés les Danois (10,9 ans). Les politiques de chaque pays en matière d’âge de scolarisation, de promotion et de rétention de classe ne permettent pas d’établir un lien direct entre résultats et âge moyen des élèves.

En France, les élèves évalués dans TIMSS 2015 ont effectué leur cours préparatoire (CP) pendant l’année scolaire 2011-2012, voire 2010-2011 s’ils ont pris du retard. Ils ont donc suivi toute leur scolarité élémentaire avec les programmes mis en place en juin 2008.  Les nouveaux programmes d’enseignement de l’école élémentaire sont entrés en vigueur après l’évaluation TIMSS, à la rentrée scolaire 2016.

Pour les mathématiques, le préambule des programmes de 2008 indique qu’à cette étape de la scolarité, « les élèves enrichissent leurs connaissances, acquièrent de nouveaux outils, et continuent d’apprendre à résoudre des problèmes. Ils renforcent leurs compétences et acquièrent de nouveaux automatismes toujours associés à une intelligence de leur signification. »
Pour les sciences, les programmes indiquent qu’il « s’agit de comprendre et de décrire le monde réel, celui de la nature et celui construit par l’Homme, d’agir sur lui, et de maîtriser les changements induits par l’activité humaine. L’étude des sciences contribue à faire saisir aux élèves la distinction entre faits et hypothèses vérifiables d’une part, opinions et croyances d’autre part. »

Des résultats inférieurs à la moyenne internationale

Les élèves français obtiennent un score moyen de 488 en mathématiques et de 487 en sciences. Ces scores sont significativement inférieurs aux moyennes internationales des deux échelles TIMSS fixées à 500. Pour chaque discipline, le score moyen de la France est différent de manière statistiquement significative de celui de chacun des pays de l’étude, excepté de ceux de la Nouvelle-Zélande (491) et de la Turquie (483) pour les mathématiques et de ceux de la Turquie (483) et de Chypre (481) pour les sciences.

En mathématiques, cinq pays d’Asie orientale se partagent les meilleurs résultats : Singapour (618), Hong Kong (614), la Corée du Sud (608), Taïwan (596) et le Japon (593). Le premier pays de l’Union européenne (UE), l’Irlande du Nord (570), est 6e.

En sciences, les mêmes cinq pays occupent les   premières places (avec des scores compris entre 555 et 590), rejoints toutefois par la Fédération de Russie (567).  Le premier pays de l’UE, la Finlande (554), occupe le 7e rang.

Dans les deux disciplines, environ 6 pays sur 10 obtiennent des scores moyens globaux significativement supérieurs à la moyenne internationale. En revanche, 3 pays sur 10 (dont la France) ont des performances globales significativement inférieures.





vendredi 16 décembre 2016

La différenciation pédagogique en classe

Annie Feyfant

Dossier de veille de l'IFÉ, n° 113
11.2016





Extrait :
« Bien que plus « passif », l’enseignement explicite ne doit pas s’entendre comme un enseignement magistral, frontal mais comme un enseignement reposant sur une explicitation des objectifs, savoirs et compétences en jeu, de même que sur les procédures, stratégies et connaissances à mobiliser (phase de modelage). Viennent ensuite des phases de pratique guidée et de pratique autonome. Cette démarche, qui met l’accent sur la compréhension plutôt que sur la simple transmission fait partie des pratiques efficaces mises en avant par Bissonnette et al. (2005), même si la traduction du mot explicite en actes d’enseignement reste discutée. La pratique d’un enseignement explicite n’est pas explicitement associée aux problématiques d’hétérogénéité mais indéniablement aux différences, puisque présentée comme plus efficace dans la gestion des élèves en difficultés. »
Comme on le voit dans cet extrait, Annie Feyfant connaît bien ce qu’est l’Enseignement Explicite que nous proposons. Elle met des guillemets à “passif”, parce qu’elle a compris que l’élève ne peut progresser dans ses apprentissages qu’en étant actif. Ce qui est un des fondements de la pratique explicite (et c’est aussi un des éléments qui la distingue de l’enseignement traditionnel).

Pour vous éviter de faire la recherche, la référence citée dans ce passage est celle-ci : Bissonnette Steve et al. (2005). “Interventions pédagogiques efficaces et réussite scolaire des élèves provenant de milieux défavorisés”. Revue française de pédagogie, n° 150, p. 87–141.

Quant à la discussion qu’Annie Feyfant évoque à propos de la traduction du mot “explicite” en actes d’enseignement, cela renvoie à l’OPA constructiviste récente sur le mot “explicite” qui aboutit à une démarche pédagogique n’ayant aucun rapport avec celle présentée ci-dessus par l'auteur elle-même. Je renvoie les curieux à cette rubrique du site Form@PEx qui indique les articles relatant ce “hold-up sémantique”.

dimanche 4 décembre 2016

Les performances en orthographe des élèves en fin d'école primaire (1987-2007-2015) (MEN-DEPP)

 Auteurs : Sandra Andreu et Claire Steinmetz
Note d'information, n° 28
11.2016
Évalués en cours moyen deuxième année (CM2) en 2015, les élèves, entrés en cours préparatoire (CP) en 2010 pour la plupart, ont de moins bons résultats en orthographe que les élèves évalués en 1987 et 2007. La baisse des résultats constatée entre 1987 et 2007 n’a ainsi pas été enrayée. C’est l’orthographe grammaticale (règles d’accord entre le sujet et le verbe, accords dans le groupe nominal, accords du participe passé) qui demeure la source principale de difficultés pour les écoliers français.


L’infographie

Nombre total d'erreurs total obtenues à la dictée selon le secteur
  

Confirmant les observations de l’étude de 2015 sur la compréhension de l’écrit, l’écart de performances entre l’éducation prioritaire (EP) et le public hors éducation prioritaire tend à se réduire en 2015. En 2007, cette différence était de 5,8 erreurs ; en 2015 elle n’est plus que de 3,3. Le nombre moyen d’erreurs effectuées par les élèves scolarisés en EP augmente de 1,3 en huit ans.

Tout en restant supérieur à celui du secteur public hors EP, il progresse moins que dans ce dernier (augmentation de 3,8 erreurs). Par ailleurs, comme en 2007, nous observons des performances moyennes similaires du secteur privé et du secteur public hors EP, mais une dispersion plus importante apparaît désormais dans le secteur privé.


L’essentiel

La diminution des performances en orthographe est un phénomène général ; elle concerne l’ensemble des élèves, quel que soit leur sexe, leur âge ou leur environnement social. Elle touche aussi tous les secteurs de scolarisation (public, privé et éducation prioritaire). Toutefois, en éducation prioritaire, l’augmentation du nombre d’erreurs sur la dernière période est moins importante que dans les autres secteurs.

Les erreurs lexicales, bien qu’en augmentation sur la période, restent les moins fréquentes. L’essentiel des difficultés relève de la non-application des règles grammaticales, notamment celle de l’accord entre le sujet et le verbe (qui passe de 87,1 % de taux de réussite en 1987 à 55,8 % en 2015 pour le mot « tombait »), mais surtout celle des accords de l’adjectif (par exemple, « inquiets » passe d’un taux de réussite de 46,3 % en 1987 à 25,7 % en 2015), et du participe passé (« rentrés » passe d’un taux de réussite de 66,8 % en 1987 à seulement 35,1 % en 2015).


Repères

L’épreuve de maîtrise de l’orthographe
Celle de 1987 consistait à vérifier par la dictée le degré de maîtrise de l’orthographe de mots usuels et de règles orthographiques grammaticales (accords entre le sujet et le verbe, accords dans le groupe nominal, accords du participe passé). La même dictée a été proposée aux élèves sur les trois moments de mesure : 1987, 2007, 2015. Il s’agit d’un texte d’une dizaine de lignes comprenant 67 mots et 16 signes de ponctuation, soit 83 items. Le texte ne présente pas de difficultés linguistiques particulières, en revanche il met l’accent sur la gestion des chaînes d’accords, et nécessite d’en assurer la continuité tout au long de la dictée.


Le texte de la dictée
« Le soir tombait. Papa et maman, inquiets, se demandaient pourquoi leurs quatre garçons n’étaient pas rentrés.
- Les gamins se sont certainement perdus, dit maman. S’ils n’ont pas encore retrouvé leur chemin, nous les verrons arriver très fatigués à la maison.
- Pourquoi ne pas téléphoner à Martine ? Elle les a peut-être vus !
Aussitôt dit, aussitôt fait ! À ce moment, le chien se mit à aboyer. »


Les limites de l’étude
La principale limite pouvant conduire à relativiser la comparabilité des résultats entre 1997, 2007 et 2015 concerne la correction des réponses des élèves. En 2007 et en 2015, les consignes de passation et de correction des épreuves ont été reprises à l’identique de celles de 1987. Mais, à la différence des évaluations de 1987 où la correction avait été assurée par les professeurs des élèves de l’échantillon, en 2007 et 2015, cette correction a été réalisée de manière centralisée et standardisée, selon les procédures en vigueur à la DEPP. Concrètement, les réponses des élèves ont été scannées et corrigées via un serveur Internet par une équipe de correcteurs recrutés par la DEPP. Ce système permet de fiabiliser les corrections et d’en mesurer la qualité. Il n’est pas directement possible d’estimer le biais potentiellement induit par ces différentes modalités de correction.