Translate

Affichage des articles dont le libellé est enseignement efficace. Afficher tous les articles
Affichage des articles dont le libellé est enseignement efficace. Afficher tous les articles

vendredi 24 août 2018

La science peut-elle définir l’école idéale ?


Source : Québec Science

Jean-Benoît Nadeau




Une école où les enfants réussissent et où les taux de décrochage sont négligeables, ça existe ! Et ce, grâce aux « données probantes», une approche qui fonctionne, mais qui est chaudement débattue.


En 2005, la Commission scolaire de la Rivière-du-Nord (CSRDN) à Saint-Jérôme est frappée de plein fouet par des statistiques affligeantes : le taux de décrochage grimpe à 43 %. Chez les garçons, 52 % ! «Ça nous a fait très mal», se rappelle Katia Lavallée, directrice à l’école primaire Sainte-Anne, à Mirabel.

Douze ans plus tard, la commission scolaire a mis fin à l’hémorragie. Mieux, ses élèves réussissent maintenant de façon éclatante. « En 2016, le taux de réussite en lecture en sixième année est passé de 79 % à 93 %, dit Sébastien Tardif, directeur général adjoint à la réussite scolaire à la CSRDN. On s’attend même à une forte hausse du taux de diplomation.»

Sébastien Tardif ne le dit pas tout haut, mais il se pourrait que la CSRDN réussisse le coup de l’Ontario qui a augmenté le taux de diplomation de 68 % à 85 % depuis 2003 et jusqu’à 91 % dans les conseils scolaires francophones alors que la moyenne québécoise, elle, est passée de 69 % à 74 %. «Une différence inacceptable, juge Égide Royer, professeur associé au département d’études sur lenseignement et l’apprentissage de l’Université Laval, à Québec. Un jeune né à l’ouest de la rivière des Outaouais a entre 10 % et 20 % plus de chances dobtenir son diplôme secondaire juste parce que le Québec a opté pour des approches trop souvent fondées sur des croyances plutôt que sur des données empiriques.»

Le secret de la CSRDN, comme celui de l’Ontario (et aussi de l’Iowa et du Massachusetts, qui obtiennent des résultats comparables), se résume à deux expressions qui créent une polémique dans le milieu de la recherche et dans les couloirs du ministère de l’Éducation du Québec : les « données probantes » et « lenseignement efficace ».

Les données probantes, c’est l’idée qu’on peut soumettre la pédagogie à une analyse empirique et statistique pour établir ce qui marche et ce qui ne marche pas, à quel degré, et dans quelles conditions. L’enseignement efficace, lui, est une approche pédagogique qui implique une rétroaction constante entre l’enseignant et les élèves, ainsi que la collaboration entre les enseignants entre eux, et avec l’institution.

Bref, le but est de fonder les pratiques éducatives sur des « preuves », ou du moins sur des données scientifiques. Et de rester attentif aux signaux quenvoient les élèves. «Le message principal, cest quil faut arrêter d’improviser», résume Égide Royer.

Le concept paraît simple. Mais, au Québec, on commence tout juste à le mettre en application.

Selon Monique Brodeur, doyenne de la faculté d’éducation de l’UQAM, le retard québécois s’expliquerait par une posture en éducation qui est plus romantique que scientifique. « Par exemple, le Ministère a implanté une approche de l’enseignement de la lecture – appelée méthode globale – qui ne correspond pas à l’état des connaissances scientifiques. » Et qui, de toute évidence, n’a rien fait pour améliorer la compétence en lecture des enfants québécois.

Pourtant, depuis le milieu des années 1990, de plus en plus de chercheurs introduisent les données probantes en éducation, comme ils l’ont fait en médecine, il y a 50 ans, puis en service social et en psychologie. En fait, les données probantes ont tellement pénétré le champ médical que tout le travail clinique en dépend désormais ; on ne conçoit plus la médecine clinique autrement. « Pourquoi est-ce que l’éducation serait le seul domaine où on ne se fonderait pas sur des données empiriques ? » demande Éric Dion qui dirige le Laboratoire sur les pratiques d’enseignement appuyées par la recherche à l’UQAM.

Le mouvement pour le recours aux données probantes en éducation s’est toutefois accéléré avec la publication en 2008 de l’ouvrage Visible Learning, aujourd’hui considéré comme la référence. Son auteur est John Hattie, professeur et directeur de l’Institut de recherche en éducation à l’université de Melbourne en Australie.

Pendant 15 ans, son équipe a recoupé les résultats de 800 méta-analyses, lesquelles faisaient elles-mêmes des recoupements de 52 000 articles portant sur 146 000 analyses auprès de 240 millions d’élèves. Cette méga-analyse a recensé 138 « facteurs d’influence », tant sur le plan des méthodes pédagogiques que des conditions socioculturelles (ethnicité, famille, sexe, etc.), de la technologie et de l’organisation (taille des classes, de l’école, etc.).

Le premier constat qui en ressort ? Presque tout ce qu’on essaie en enseignement produit un effet positif, même modeste. Moins de 5 % des actions, comme le redoublement, produisent un effet négatif. Mais pour John Hattie, dont l’étude hiérarchise les facteurs d’influence selon leur efficacité, se contenter d’« avoir de l’effet » est insuffisant. Les enseignants, mais également les fonctionnaires qui pensent les politiques éducatives, devraient faire mieux que la moitié inférieure des études répertoriées.

Joint par Skype à Melbourne, John Hattie explique que son classement peut se résumer à une démonstration statistique de ce que les pédagogues savent depuis Aristote : l’« enseignement efficace », c’est tout simplement l’art de remettre en question son propre enseignement, et donc de chercher à approfondir la rétroaction avec les élèves. « On fait fausse route en pensant qu’un enseignement efficace, cela consiste essentiellement à évaluer l’élève, dit-il. Au contraire, ça consiste pour le professeur à évaluer son propre enseignement. »

Et l’enseignement efficace a des effets très largement supérieurs aux facteurs technologiques, organisationnels ou socioéconomiques. En d’autres termes, les bons enseignants sont capables de faire mentir tous les autres facteurs d’influence négatifs comme la pauvreté ou la classe sociale. Surtout, les enseignants efficaces sont capables d’obtenir d’excellents résultats, même quand les autorités leur imposent des programmes médiocres.

C’est l’étude de John Hattie, et quelques autres encore, qui a inspiré les réformes à la CSRDN. « On savait où commencer, dit Marc Saint-Pierre qui était le prédécesseur de Sébastien Tardif et qui a implanté les premières mesures avant de prendre sa retraite en 2012. On savait que les principaux marqueurs du décrochage sont des problèmes de lecture à sept ans, des troubles de comportement à neuf ans et des retards d’apprentissage au début du secondaire. Un enfant qui a des retards de lecture à sept ans court quatre fois plus de risques de devenir décrocheur. »

Voilà pourquoi Marc Saint-Pierre a choisi d’introduire dans les classes de maternelle un petit programme conçu par léquipe de la professeure Monique Brodeur, de lUQAM. La forêt de l’alphabet, un programme dispensé à raison de 25 minutes par jour pendant 26 semaines, met l’accent sur l’apprentissage du nom et du son des lettres, et vise le développement du vocabulaire et de la conscience phonémique. La méthode globale, celle choisie par le Ministère, met plutôt l’accent sur la recherche de sens et la capacité d’analyse – ce qui équivaudrait à mettre la charrue devant les bœufs, selon les données probantes. « Cette dernière méthode s’avère particulièrement dommageable pour les élèves en situation de vulnérabilité, qui viennent par exemple d’un milieu défavorisé ou qui présentent des troubles d’apprentissage », indique Monique Brodeur.

Dans sa classe de première année de l’école du Joli-Bois, à Sainte-Sophie, Isabelle Jean voit clairement l’effet des changements introduits en maternelle. « Les enfants qui m’arrivent en première année sont nettement plus avancés, raconte-t-elle en montrant divers tableaux. Auparavant, ils pouvaient effectuer la fusion des sons, comme “p” et “a” égale “pa”, vers le mois de février ou mars. Maintenant, c’est acquis en novembre ! Et à la fin de l’année, j’empiète sur le programme de deuxième année. »

En plus de former tous les enseignants de maternelle à La forêt de l’alphabet, la CSRDN ajoute en cascade d’autres programmes de lecture jusqu’à la deuxième année, dont notamment Apprendre à lire à deux, de l’équipe du laboratoire dirigé par le chercheur Éric Dion. À partir de la troisième année, la CSRDN oriente plutôt son action sur les troubles de comportement et le suivi intensif des cas problématiques. « On a mis en place un programme de soutien aux comportements positifs, parce que les études démontrent que la punition, ça ne marche pas », dit Marc Saint-Pierre.

« La CSRDN a planifié son affaire soigneusement : un bon déploiement, un soutien adéquat des enseignants et des écoles, un leadership partagé, commente Monique Brodeur qui a préfacé le dernier livre de John Hattie (L’apprentissage visible pour les enseignants, PUQ, 2017). Mais, pour commencer, ils ont fait les bons choix en recourant à des approches dont l’efficacité avait été démontrée avec rigueur. »

« Depuis 2010, on parle du programme entre nous comme du “tsunami de la réussite”, souligne Katia Lavallée, de l’école primaire Sainte-Anne, à Mirabel. Les enseignants sont plus ouverts à réfléchir à leur pratique. Ils n’ont plus le réflexe de voir ça comme une menace, mais comme un levier. »

Chose certaine, le tsunami de Saint-Jérôme fait des vagues. Les Commissions scolaires des Laurentides et de Marguerite-Bourgeoys, à Montréal, ont commencé à implanter les méthodes développées à Saint-Jérôme, incluant son système de monitorage. Elles ont aussi influencé la nouvelle politique de réussite scolaire annoncée en juin par le ministère de l’Éducation.

Au sein même de la CSRDN, les données probantes et l’enseignement efficace créent un effet d’entraînement au-delà du niveau primaire, constate Sébastien Tardif.

[…]

John Hattie n’a pas que des adeptes. Dans les officines des ministères, dans les milieux de recherche et dans les syndicats, certains critiquent âprement ses travaux.

Car les méta-analyses ont des limites évidentes, puisqu’elles sont strictement statistiques, explique Égide Royer. « Elles sont valides pour de grands groupes, dit-il, mais pas nécessairement pour des cas individuels. » Les élèves ne sont pas des souris de laboratoire uniformes. Cas type, il est prouvé que le redoublement scolaire, appliqué en masse, a un effet globalement négatif. Mais il peut être approprié dans certains cas particuliers.

Une autre réserve, les données probantes sont souvent la généralisation de petites études locales qui peuvent avoir un biais culturel. Une objection qui irrite profondément John Hattie: « Les données démontrent que les uniformes, l’écriture cursive, par exemple, ça nest pas très efficace. Mais si vous y tenez, faites-le et après quoi, occupons-nous plutôt de ce qui produit vraiment une différence. »

Mais il faut aussi admettre que les détracteurs de John Hattie lui font souvent dire des choses qu’il ne dit pas. Ainsi, bien des gens affirment que les données probantes ouvriront la porte à l’uniformisation des programmes et à la mainmise de l’État sur le travail des enseignants. Au contraire, rétorque John Hattie. La notion d’enseignement efficace suppose justement que l’enseignant conserve toute sa latitude et qu’il exerce son jugement professionnel, en rétroaction avec ses élèves. « Voilà l’erreur à ne pas commettre : croire qu’il n’y a qu’une seule méthode qui fonctionne », insiste-t-il.

Même son de cloche du côté de Frédéric Saussez, professeur agrégé de la faculté d’éducation à l’Université de Sherbrooke : « Il existe un risque de dérapage si l’on présente les données probantes comme la vérité, au mépris des variantes locales. La science ne doit pas dire quoi faire au politique, mais quoi ne pas faire. La science, ce n’est pas la vérité ; c’est un projet de connaissance. Sinon, on réintroduit la foi. » Il insiste toutefois : « On ne peut pas être contre les données probantes. Si c’est le cas, on est contre la science. »

Malheureusement, à l’heure actuelle, « chacun protège sa chapelle épistémologique », déplore Marc Saint-Pierre, retraité de la CSRDN. Il est le plus féroce critique de ceux qui sont réticents face aux données probantes. « Ça va faire, les études datmosphère du type on se sent bien ! Pour régler nos problèmes, on a besoin dapproches dont lefficacité a été démontrée empiriquement. Quand on a voulu introduire La forêt de l’alphabet, des fonctionnaires du Ministère ont protesté en disant que notre approche était trop “scolarisante”, qu’on “volait l’enfance des enfants”. » La CSRDN proposait une approche ludique et joyeuse, avec des jeunes assis en rond autour d’une marionnette. Les fonctionnaires voyaient plutôt des « petits assis en rangées », se rappelle Marc Saint-Pierre. « Il y a encore des fonctionnaires qui disent : “C’est pas vrai” quand on leur montre nos données de recherche. Les gens ne reconnaissent même pas les faits. »

Résultat, les politiques font parfois fausse route. « On ne peut pas déployer des mesures sur la base de non-études », dit Égide Royer en citant le bilan controversé des tableaux blancs interactifs introduits dans les écoles en 2011, un programme qui a coûté 240 millions de dollars pour peu de résultats (ce que les données existantes prévoyaient, d’ailleurs).

Cela étant dit, les données probantes peuvent être utilisées de façon abusive par des fonctionnaires obnubilés par la quête des résultats. Cest justement ce qui sest passé avec le programme américain No Child Left Behind (« Pas d’enfant oublié »), voté en 2002 aux États-Unis. Le gouvernement fédéral souhaitait augmenter la performance de l’enseignement par un système de récompense-punition. La carotte : les écoles qui voyaient leurs résultats s’améliorer recevaient de généreuses subventions. Le bâton : les écoles qui plafonnaient ou qui reculaient voyaient diminuer leurs subventions. La caricature de ce qu’il ne faut surtout pas faire ! En raison de mauvais résultats, des écoles ont fermé et des enseignants ont été congédiés. Si bien que les directions d’école, pour se prémunir, ont eu tendance à imposer un enseignement axé sur la réussite de tests dès la première année, ce qui est l’une des pires méthodes pédagogiques. « Mais la mauvaise utilisation des données probantes, ça na pas de rapport avec les données probantes, soupire Marc Saint-Pierre. C’est de la politique. »

À Saint-Jérôme, l’esprit est tout autre. Les résultats des élèves, des classes et de l’école servent plutôt au dépistage précoce des futurs décrocheurs et à une meilleure allocation des ressources. « Les écoles qui ont des difficultés reçoivent plus de ressources selon les matières, dit Sébastien Tardif. Et les directions décole sont formées à ne pas prendre ombrage de perdre des ressources au bénéfice des écoles qui ont davantage de problèmes à régler. On pense pour le bien de tous. »

vendredi 30 décembre 2016

La critique des travaux de John Hattie

Steve Bissonnette



Les travaux menés par l’équipe de John Hattie font l’objet de plusieurs critiques et plusieurs de ces critiques sont valables et recevables. En effet, réaliser une méga-analyse en comparant les résultats provenant de diverses méta-analyses ayant utilisé parfois différentes méthodologies crée le danger de comparer des pommes avec des oranges ! Toutefois, est-ce que pour cela, il faille en conclure que les recommandations formulées par ce chercheur sont totalement erronées ?

À ce sujet je vous invite à lire la citation suivante provenant de trois des plus grands chercheurs en sciences de la cognition du XXe siècle, John Anderson, Lyne Reder et Herbert Simon, détenteur d’un prix Nobel, de Carnegie Mellon (1998) sur le controversé Projet Follow Through :
« Une part importante des résistances que les constructivistes radicaux, ainsi que de nombreux intervenants du milieu de l’éducation en général, éprouvent face au domaine de la mesure et évaluation provient du fait qu’aucun instrument de mesure n’est parfait. Or, cette tendance à focaliser sur les limites des instruments de mesure en amènent plusieurs à rejeter les données provenant des recherches empiriques. Le jugement négatif qu’on a porté sur le Projet Follow Through, qui a démontré que les méthodes d’enseignement direct étaient plus efficaces que les pédagogies ouvertes avec des élèves du niveau primaire issus de milieux défavorisés, en constitue un exemple classique. Cette étude a été immédiatement accablée de critiques de toutes sortes, ce qui a eu pour effet de détourner complètement l’attention des informations importantes qu’elle contenait. Les scientifiques savent qu’ils doivent tenir compte des limites inhérentes à leurs instruments de mesure, mais qu’ils ne doivent pas pour autant ignorer ce que leurs instruments révèlent »
(Anderson, J.R., Reder, L.M., Simon, H.A. (1998). Radical Constructivism and Cognitive Psychology. In D. Ravitch (Ed.) Brookings Papers on Education Policy 1998. Washington, DC: Brookings Institute Press, p 253)
De plus, comme nous l’avons montré dans le chapitre 1 de l’ouvrage intitulé Enseignement explicite publié en 2013 chez ERPI (Gauthier, Bissonnette et Richard, 2013) l’effet enseignant identifié par Hattie est corroboré par les recherches réalisées sur la valeur ajoutée des enseignants de William Sanders, un statisticien de formation, et sur les études menées sur les écoles efficaces. Cette triangulation de recherches montre une convergence de résultats indiquant l’effet déterminant de l’enseignant sur le rendement des élèves. L’extrait suivant provenant de l’ouvrage de Dylan (2016) montre également l’effet important de l’enseignant sur le rendement des élèves qui lui sont confiés.


Finalement, il suffit simplement d’avoir soi-même des enfants à l’école pour constater comme parents les effets d’un enseignant efficace sur le rendement de ceux-ci !

lundi 30 décembre 2013

Quand les constructivistes parlent d’enseignement efficace


 

Dans Questions vives – Recherches en éducation (vol. 6, n° 18 – 2012), Laurent Talbot, un maître de conférence en sciences de l’éducation à Toulouse, a écrit un article intitulé “Les recherches sur les pratiques d’enseignement efficaces – Synthèse, limites et perspectives”.

En voici un extrait :

« Premièrement et de manière assez surprenante, certaines études tendraient à démontrer que les enseignants efficaces et équitables mettraient en place des activités d’enseignement “directes”, “explicites ”, “systématiques ” ou “instructionnistes” (Dubé et al., 2011 ; Feyfant, 2011 ; Bissonnette et al., 2005 ; Swanson, 1999 cité par Briquet-Duhazé dans ce numéro). Ces recherches de type “processus-produits” (les performances scolaires des élèves sont envisagées comme étant directement le produit du processus d’enseignement élaboré par le professeur) déterminent les caractéristiques de l’activité efficace des enseignants à travers leur structuration en quatre phases essentielles :
- un premier temps de démonstration relativement long de la part de l’enseignant qui peut être magistral ou frontal, cette activité est généralement peu différenciée, une mise en situation est opérée (rappel des connaissances antérieures signifiantes par rapport aux apprentissages nouveaux envisagés), les objectifs de l’activité et le niveau de performances attendues sont clairement définis et les notions de bases nécessaires sont rappelées, quelques exemples sont présentés et une démonstration est effectuée ;
- une deuxième phase durant laquelle le professeur donne un (des) exercice(s) d’illustration à réaliser généralement au sein du grand groupe classe collectivement, l’enseignant pose des questions et guide l’activité d’apprentissage ;
- le troisième temps est consacré à des exercices d’application réalisés pour le coup individuellement, l’enseignant pourra alors évaluer les performances des élèves et leur proposer des feedbacks sur les réponses données et les stratégies utilisées ;
- et enfin, dans un dernier temps, le professeur organise des révisions régulières et répétitives en insistant sur les apprentissages de base et leur évaluation.
Ces quatre phases sont parfois détaillées en sept temps essentiels :
1) Mise en situation : rappel des connaissances antérieures signifiantes par rapport aux apprentissages nouveaux.
2) Présentation des objectifs d’apprentissage.
3) Présentation des nouveaux éléments de connaissance de façon magistro-centrée généralement.
4) Pratique guidée avec le groupe classe.
5) Correction et rétroaction (objectivation) toujours avec l’ensemble du grand groupe d’élèves.
6) Pratique indépendante (exercices autonomes et individuels), entraînements.
7) Révision régulière (synthèse périodique de ce qui a été appris), évaluations sommatives, contrôles. »

Manifestement, c’est à contrecœur que l’auteur reconnaît l’efficacité des pratiques explicites et instructionnistes. Il ajoute même que cela lui apparaît « de manière surprenante » ! La surprise n’existant que pour un partisan avéré du constructivisme. Le ton est donné…

Nous avons donc affaire à quelqu’un qui n’aime pas ce que la recherche démontre au sujet de l’enseignement efficace. Dès lors, tout va être bon pour mettre en doute, dénigrer, dénaturer les résultats de cette recherche.

Premier (et habituel) recours : présenter l’enseignement explicite comme « les nouveaux habits de la pédagogie traditionnelle » (selon l'expression de P. Watrelot sur le site des Cahiers pédagogiques, 09.2013). Quitte à tordre la réalité et à faire des amalgames douteux. Ainsi Laurent Talbot présente le modelage comme un temps « relativement long ». Première erreur (ou mensonge), en pédagogie explicite le rythme de la leçon est primordial, donc le modelage est bref. D’une part pour ne pas saturer la mémoire de travail et d’autre part pour ne pas excéder la capacité d’attention des élèves. Par ailleurs, notre auteur parle d’enseignement  « magistral ou frontal » ou de présentation « magistro-centrée », ce qui est la caractéristique même d’un enseignement traditionnel. Comme les exercices d’illustration et les exercices d’application en lieu et place de pratique guidée et de pratique autonome. En corollaire, aucune mention sur ce qui distingue nettement l'enseignement explicite du traditionnel : l’accent mis sur la métacognition et la nécessité d’un maintien solide et durable en mémoire en long terme. D'ailleurs, les mots “métacognition” ou “mémoire” ne figurent même pas dans cet article !

Plus fort encore : Laurent Talbot parle de huit autres mystérieuses « macro-variables » concernant l’enseignement efficace qui « sont plus proches des théories socio-constructivistes de l’apprentissage et de l’enseignement ». Quelles sont ces “macro-variables” ? On ne sait pas. Tout ce qu'on sait, c'est qu'elles sont huit...

On l’aura compris, le ton général de cet article, et plus largement de ce numéro de Questions vives, est particulièrement défavorable aux pratiques instructionnistes. On tient à nous faire savoir que le constructivisme n’est pas mort : peu importe ce qu’assènent les données probantes en matière d’enseignement efficace.

Nous arrivons ainsi au « limites de ce type de recherche », qui est le cœur de l’article de Laurent Talbot, le reste n’étant qu’une entrée en matière. On nous prévient d’emblée : « Nous avons distingué huit éléments qui nous semblent poser problème. » Décidément, la démonstration par huit semble être sans appel.

En fait, nous avons droit à un florilège d’arguments, dont certains sont des resucées déjà entendues à l’IFÉ ou sur d’autres sites éminemment constructivistes. Voyons donc ce qu’il en est :  
1/ Reproche : Les recherches sont centrées sur l’élémentaire et le secondaire. Disons que cela représente quand même au moins dix années dans la scolarité d’un élève. Ce qui n’est pas rien.
2/ Pinaillage : Quelle définition donner au mot « efficacité » ? Selon moi, il suffit d’ouvrir un dictionnaire pour avoir la réponse.
3/ Ergotage : Est-ce l’enseignant qui est efficace ou l’enseignement ? Rappelons que les pratiques d’enseignement efficaces ont été établies en observant les pratiques des enseignants efficaces. L’un n’allant pas sans l’autre.
4/ Scepticisme : Les études processus-produits ne rendent pas compte « de certains phénomènes ». Comme si les chercheurs en enseignement efficace étaient des novices qui n’avaient pas pesé chaque terme de leur enquête afin de retenir l’essentiel sans s’encombrer du dérisoire ou du hors-sujet.
5/ Relativisation : Les élèves apprennent aussi en dehors de l’activité du maître. Surtout dans un contexte constructiviste où les familles sont bien obligées de prendre en charge ce qui n’est plus appris en classe.
6/ Suspicion : Comment évaluer les performances des élèves ? Pourquoi pas en prenant des classes témoins et en les comparant aux classes testées, comme le font tous les chercheurs sérieux. Il est remarquable de ne trouver dans cet article aucune mention du Projet Follow Through.
7/ Dénigrement : Pratiques déclarées ou pratiques effectives ? Les chercheurs sont allés dans les classes pour observer les enseignants dans l’exercice leur métier, ils ne se sont pas contentés de les écouter décrire leurs pratiques.
8/ Défiance : Les résultats des recherches seraient contradictoires. Hélas pour l’auteur, toutes les données probantes sur l’efficacité en enseignement sont étonnamment convergentes et ce, quels que soient les pays où les études ont été réalisées.

Parions que ces “arguments” vont refleurir sous la plume de tel ou tel. Les partisans du constructivisme sont bien embêtés face aux données probantes sur l’enseignement efficace. D’une part, celles-ci montrent l’inefficience des pédagogies de découverte. D’autre part, ces études récentes renvoient les pratiques constructivistes – qui datent du début du XXe siècle – au musée de la pédagogie, avec l’enseignement traditionnel. Un comble !

Après un rapide survol des autres articles de ce dossier thématique de Questions vives, il apparaît que tout le reste est du même tonneau. On ne s’étonnera donc pas que le site Form@PEx n’ait rien publié à ce sujet, tant est grand le parti-pris clairement affiché.

La revue est sous-titrée Recherches en éducation. Il me semble que, pour ce numéro, Procès en éducation aurait mieux convenu…

jeudi 8 août 2013

L’enseignement efficace… donc explicite




À la page 25, le rapport de l’IGEN sur L’évaluation des enseignants pose la question : Qu’est-ce qu’une séquence d’enseignement efficace ?

Et voici la réponse qui nous est livrée :

« Le consensus qui se dessine débouche en effet sur les conclusions suivantes, peut-être temporaires, mais du moins partagées, et pas nécessairement faciles à mettre en œuvre.
Une séquence d’enseignement efficace doit :
- reposer sur des objectifs clairs : avant chaque séquence, les élèves doivent savoir le plus clairement possible ce qu’on attend d’eux et ce qu’ils devront être capables de faire à son issue ;
- s’appuyer sur une structure explicite qui rende visible le cœur de l’apprentissage : les élèves doivent connaître à l’avance le déroulement de la séquence, les étapes qu’ils auront à franchir, les outils qu’ils utiliseront, voire les difficultés auxquelles ils seront confrontés… Ces deux premières conditions semblent s’imposer tout particulièrement pour des élèves issus de milieux dits défavorisés ;
- débuter par une récapitulation des acquis antérieurs et une justification de leur utilité, permettant l’ancrage des connaissances nouvelles ;
- se poursuivre par une contextualisation : concrètement, c’est à travers une situation-problème qu’une notion nouvelle sera introduite, lorsque la discipline enseignée le permet ;
- comporter un temps d’entraînement et de répétition suffisant : la recherche conduit à souligner l’utilité, voire la nécessité, du “sur-apprentissage”, l’automatisation de “routines cognitives” libérant l’esprit pour des tâches plus complexes. Cette dimension quantitative apparaît essentielle aux yeux de chercheurs, par ailleurs de sensibilités différentes ;
- intégrer de nombreuses phases de régulation : l’enseignant doit constamment s’assurer, par des rétroactions, des questionnements, des exemples et des  contre-exemples, que les élèves valident, ajustent, consolident et approfondissent leurs connaissances ;
- comporter le temps de travail utile le plus élevé possible : il appartient à l’enseignant de préparer et d’organiser la classe de manière que les activités et les démarches qui ne contribuent pas directement aux apprentissages soient le plus réduites possibles. »

Hormis le recours à la “situation-problème” – dont on se demande ce qu’elle vient faire à la place de l’exemple sur lequel repose le modelage – tout le reste s’inspire directement et étroitement de la démarche d’enseignement explicite !

Et les rapporteurs de conclure que ces recommandations « constituent une aide importante à la détermination des critères de l’évaluation. » 

Si c'est le cas, il se confirme donc que la page constructiviste est bel et bien en train d’être tournée…

lundi 26 septembre 2011

Effets des pratiques pédagogiques sur les apprentissages (IFÉ)

Auteur : Annie Feyfant
Veille et analyse - IFÉ, Dossier d'actualité n° 65
09.2011




L’enseignement explicite est décrit comme un enseignement efficace par quantités d’études, de recherches, d’analyses, de méta-analyses, de méga-analyses.

Dès lors, comment peut-on s’en sortir lorsqu’on veut porter secours aux « tenants de la pédagogie Freinet, du constructivisme ou du socioconstructivisme », c’est-à-dire ceux pour qui s’est toujours battu l’INRP devenu aujourd’hui l’IFÉ ?

Annie Feyfant nous propose dans cet article plusieurs solutions :
- d’abord tenter d’ergoter sur la définition d’une pratique pédagogique en se demandant si c’est la pratique d’un enseignant ou bien la pratique d’enseignement afin d’enfumer le lecteur d’emblée ;
- ensuite se poser la question de savoir ce qu’on entend par “efficace”, comme si on ne disposait pas de dictionnaire ;
- après essayer de distinguer une pratique efficace d’une bonne pratique, comme si on ne pouvait pas avoir les deux en même temps ;
- il convient alors d'estimer que les indicateurs permettant de qualifier un enseignement d’efficace ne sont pas bons, ne sont pas justes, ne sont pas adéquats, ne sont pas si, ne sont pas mi ;
- et, si tout cela ne suffit pas, parler des “effets de contexte” (effet-maître, effet-classe, effet-école, effet-socioculturel, effet-socioéconomique, etc.) pour relativiser les résultats en les imputant à des causes extérieures à la pratique d’enseignement… comme si la preuve d’efficacité de l’enseignement explicite n’avait pas été d’abord apportée dans les quartiers défavorisés.

Nous avons là tout l’arsenal habituel de ceux dont les croyances constructivistes sont extrêmement perturbées par les résultats récents et massifs de la recherche. Normalement, quand une chose nous dérange, notre avis change. Eh bien, pas là : comme l’avis ne change pas, c’est la chose en question qu’il faut nier ou atténuer ou dénigrer ou disqualifier.

Franchement, ressortir l’étude d’Yves Reuter sur la pédagogie Freinet dans le cadre d’un article sur l’enseignement efficace, il fallait le faire !

Très sincèrement, je plains beaucoup nos amis chercheurs canadiens engagés dans ce travail sur les pratiques d’enseignement efficace. Non seulement ils ont à faire un travail sérieux pour sortir les données probantes de dessous le boisseau où on les maintient, mais en plus ils doivent essayer de convaincre des gens qui ne veulent rien voir, rien entendre et rien comprendre.

Et malgré tous ces obstacles, pièges, freins, guet-apens, entraves, traquenards, oppositions, obstructions, écueils, embûches et chausse-trapes, l’enseignement explicite progresse…

Quelle ironie !