Translate

vendredi 24 août 2018

La science peut-elle définir l’école idéale ?


Source : Québec Science

Jean-Benoît Nadeau




Une école où les enfants réussissent et où les taux de décrochage sont négligeables, ça existe ! Et ce, grâce aux « données probantes», une approche qui fonctionne, mais qui est chaudement débattue.


En 2005, la Commission scolaire de la Rivière-du-Nord (CSRDN) à Saint-Jérôme est frappée de plein fouet par des statistiques affligeantes : le taux de décrochage grimpe à 43 %. Chez les garçons, 52 % ! «Ça nous a fait très mal», se rappelle Katia Lavallée, directrice à l’école primaire Sainte-Anne, à Mirabel.

Douze ans plus tard, la commission scolaire a mis fin à l’hémorragie. Mieux, ses élèves réussissent maintenant de façon éclatante. « En 2016, le taux de réussite en lecture en sixième année est passé de 79 % à 93 %, dit Sébastien Tardif, directeur général adjoint à la réussite scolaire à la CSRDN. On s’attend même à une forte hausse du taux de diplomation.»

Sébastien Tardif ne le dit pas tout haut, mais il se pourrait que la CSRDN réussisse le coup de l’Ontario qui a augmenté le taux de diplomation de 68 % à 85 % depuis 2003 et jusqu’à 91 % dans les conseils scolaires francophones alors que la moyenne québécoise, elle, est passée de 69 % à 74 %. «Une différence inacceptable, juge Égide Royer, professeur associé au département d’études sur lenseignement et l’apprentissage de l’Université Laval, à Québec. Un jeune né à l’ouest de la rivière des Outaouais a entre 10 % et 20 % plus de chances dobtenir son diplôme secondaire juste parce que le Québec a opté pour des approches trop souvent fondées sur des croyances plutôt que sur des données empiriques.»

Le secret de la CSRDN, comme celui de l’Ontario (et aussi de l’Iowa et du Massachusetts, qui obtiennent des résultats comparables), se résume à deux expressions qui créent une polémique dans le milieu de la recherche et dans les couloirs du ministère de l’Éducation du Québec : les « données probantes » et « lenseignement efficace ».

Les données probantes, c’est l’idée qu’on peut soumettre la pédagogie à une analyse empirique et statistique pour établir ce qui marche et ce qui ne marche pas, à quel degré, et dans quelles conditions. L’enseignement efficace, lui, est une approche pédagogique qui implique une rétroaction constante entre l’enseignant et les élèves, ainsi que la collaboration entre les enseignants entre eux, et avec l’institution.

Bref, le but est de fonder les pratiques éducatives sur des « preuves », ou du moins sur des données scientifiques. Et de rester attentif aux signaux quenvoient les élèves. «Le message principal, cest quil faut arrêter d’improviser», résume Égide Royer.

Le concept paraît simple. Mais, au Québec, on commence tout juste à le mettre en application.

Selon Monique Brodeur, doyenne de la faculté d’éducation de l’UQAM, le retard québécois s’expliquerait par une posture en éducation qui est plus romantique que scientifique. « Par exemple, le Ministère a implanté une approche de l’enseignement de la lecture – appelée méthode globale – qui ne correspond pas à l’état des connaissances scientifiques. » Et qui, de toute évidence, n’a rien fait pour améliorer la compétence en lecture des enfants québécois.

Pourtant, depuis le milieu des années 1990, de plus en plus de chercheurs introduisent les données probantes en éducation, comme ils l’ont fait en médecine, il y a 50 ans, puis en service social et en psychologie. En fait, les données probantes ont tellement pénétré le champ médical que tout le travail clinique en dépend désormais ; on ne conçoit plus la médecine clinique autrement. « Pourquoi est-ce que l’éducation serait le seul domaine où on ne se fonderait pas sur des données empiriques ? » demande Éric Dion qui dirige le Laboratoire sur les pratiques d’enseignement appuyées par la recherche à l’UQAM.

Le mouvement pour le recours aux données probantes en éducation s’est toutefois accéléré avec la publication en 2008 de l’ouvrage Visible Learning, aujourd’hui considéré comme la référence. Son auteur est John Hattie, professeur et directeur de l’Institut de recherche en éducation à l’université de Melbourne en Australie.

Pendant 15 ans, son équipe a recoupé les résultats de 800 méta-analyses, lesquelles faisaient elles-mêmes des recoupements de 52 000 articles portant sur 146 000 analyses auprès de 240 millions d’élèves. Cette méga-analyse a recensé 138 « facteurs d’influence », tant sur le plan des méthodes pédagogiques que des conditions socioculturelles (ethnicité, famille, sexe, etc.), de la technologie et de l’organisation (taille des classes, de l’école, etc.).

Le premier constat qui en ressort ? Presque tout ce qu’on essaie en enseignement produit un effet positif, même modeste. Moins de 5 % des actions, comme le redoublement, produisent un effet négatif. Mais pour John Hattie, dont l’étude hiérarchise les facteurs d’influence selon leur efficacité, se contenter d’« avoir de l’effet » est insuffisant. Les enseignants, mais également les fonctionnaires qui pensent les politiques éducatives, devraient faire mieux que la moitié inférieure des études répertoriées.

Joint par Skype à Melbourne, John Hattie explique que son classement peut se résumer à une démonstration statistique de ce que les pédagogues savent depuis Aristote : l’« enseignement efficace », c’est tout simplement l’art de remettre en question son propre enseignement, et donc de chercher à approfondir la rétroaction avec les élèves. « On fait fausse route en pensant qu’un enseignement efficace, cela consiste essentiellement à évaluer l’élève, dit-il. Au contraire, ça consiste pour le professeur à évaluer son propre enseignement. »

Et l’enseignement efficace a des effets très largement supérieurs aux facteurs technologiques, organisationnels ou socioéconomiques. En d’autres termes, les bons enseignants sont capables de faire mentir tous les autres facteurs d’influence négatifs comme la pauvreté ou la classe sociale. Surtout, les enseignants efficaces sont capables d’obtenir d’excellents résultats, même quand les autorités leur imposent des programmes médiocres.

C’est l’étude de John Hattie, et quelques autres encore, qui a inspiré les réformes à la CSRDN. « On savait où commencer, dit Marc Saint-Pierre qui était le prédécesseur de Sébastien Tardif et qui a implanté les premières mesures avant de prendre sa retraite en 2012. On savait que les principaux marqueurs du décrochage sont des problèmes de lecture à sept ans, des troubles de comportement à neuf ans et des retards d’apprentissage au début du secondaire. Un enfant qui a des retards de lecture à sept ans court quatre fois plus de risques de devenir décrocheur. »

Voilà pourquoi Marc Saint-Pierre a choisi d’introduire dans les classes de maternelle un petit programme conçu par léquipe de la professeure Monique Brodeur, de lUQAM. La forêt de l’alphabet, un programme dispensé à raison de 25 minutes par jour pendant 26 semaines, met l’accent sur l’apprentissage du nom et du son des lettres, et vise le développement du vocabulaire et de la conscience phonémique. La méthode globale, celle choisie par le Ministère, met plutôt l’accent sur la recherche de sens et la capacité d’analyse – ce qui équivaudrait à mettre la charrue devant les bœufs, selon les données probantes. « Cette dernière méthode s’avère particulièrement dommageable pour les élèves en situation de vulnérabilité, qui viennent par exemple d’un milieu défavorisé ou qui présentent des troubles d’apprentissage », indique Monique Brodeur.

Dans sa classe de première année de l’école du Joli-Bois, à Sainte-Sophie, Isabelle Jean voit clairement l’effet des changements introduits en maternelle. « Les enfants qui m’arrivent en première année sont nettement plus avancés, raconte-t-elle en montrant divers tableaux. Auparavant, ils pouvaient effectuer la fusion des sons, comme “p” et “a” égale “pa”, vers le mois de février ou mars. Maintenant, c’est acquis en novembre ! Et à la fin de l’année, j’empiète sur le programme de deuxième année. »

En plus de former tous les enseignants de maternelle à La forêt de l’alphabet, la CSRDN ajoute en cascade d’autres programmes de lecture jusqu’à la deuxième année, dont notamment Apprendre à lire à deux, de l’équipe du laboratoire dirigé par le chercheur Éric Dion. À partir de la troisième année, la CSRDN oriente plutôt son action sur les troubles de comportement et le suivi intensif des cas problématiques. « On a mis en place un programme de soutien aux comportements positifs, parce que les études démontrent que la punition, ça ne marche pas », dit Marc Saint-Pierre.

« La CSRDN a planifié son affaire soigneusement : un bon déploiement, un soutien adéquat des enseignants et des écoles, un leadership partagé, commente Monique Brodeur qui a préfacé le dernier livre de John Hattie (L’apprentissage visible pour les enseignants, PUQ, 2017). Mais, pour commencer, ils ont fait les bons choix en recourant à des approches dont l’efficacité avait été démontrée avec rigueur. »

« Depuis 2010, on parle du programme entre nous comme du “tsunami de la réussite”, souligne Katia Lavallée, de l’école primaire Sainte-Anne, à Mirabel. Les enseignants sont plus ouverts à réfléchir à leur pratique. Ils n’ont plus le réflexe de voir ça comme une menace, mais comme un levier. »

Chose certaine, le tsunami de Saint-Jérôme fait des vagues. Les Commissions scolaires des Laurentides et de Marguerite-Bourgeoys, à Montréal, ont commencé à implanter les méthodes développées à Saint-Jérôme, incluant son système de monitorage. Elles ont aussi influencé la nouvelle politique de réussite scolaire annoncée en juin par le ministère de l’Éducation.

Au sein même de la CSRDN, les données probantes et l’enseignement efficace créent un effet d’entraînement au-delà du niveau primaire, constate Sébastien Tardif.

[…]

John Hattie n’a pas que des adeptes. Dans les officines des ministères, dans les milieux de recherche et dans les syndicats, certains critiquent âprement ses travaux.

Car les méta-analyses ont des limites évidentes, puisqu’elles sont strictement statistiques, explique Égide Royer. « Elles sont valides pour de grands groupes, dit-il, mais pas nécessairement pour des cas individuels. » Les élèves ne sont pas des souris de laboratoire uniformes. Cas type, il est prouvé que le redoublement scolaire, appliqué en masse, a un effet globalement négatif. Mais il peut être approprié dans certains cas particuliers.

Une autre réserve, les données probantes sont souvent la généralisation de petites études locales qui peuvent avoir un biais culturel. Une objection qui irrite profondément John Hattie: « Les données démontrent que les uniformes, l’écriture cursive, par exemple, ça nest pas très efficace. Mais si vous y tenez, faites-le et après quoi, occupons-nous plutôt de ce qui produit vraiment une différence. »

Mais il faut aussi admettre que les détracteurs de John Hattie lui font souvent dire des choses qu’il ne dit pas. Ainsi, bien des gens affirment que les données probantes ouvriront la porte à l’uniformisation des programmes et à la mainmise de l’État sur le travail des enseignants. Au contraire, rétorque John Hattie. La notion d’enseignement efficace suppose justement que l’enseignant conserve toute sa latitude et qu’il exerce son jugement professionnel, en rétroaction avec ses élèves. « Voilà l’erreur à ne pas commettre : croire qu’il n’y a qu’une seule méthode qui fonctionne », insiste-t-il.

Même son de cloche du côté de Frédéric Saussez, professeur agrégé de la faculté d’éducation à l’Université de Sherbrooke : « Il existe un risque de dérapage si l’on présente les données probantes comme la vérité, au mépris des variantes locales. La science ne doit pas dire quoi faire au politique, mais quoi ne pas faire. La science, ce n’est pas la vérité ; c’est un projet de connaissance. Sinon, on réintroduit la foi. » Il insiste toutefois : « On ne peut pas être contre les données probantes. Si c’est le cas, on est contre la science. »

Malheureusement, à l’heure actuelle, « chacun protège sa chapelle épistémologique », déplore Marc Saint-Pierre, retraité de la CSRDN. Il est le plus féroce critique de ceux qui sont réticents face aux données probantes. « Ça va faire, les études datmosphère du type on se sent bien ! Pour régler nos problèmes, on a besoin dapproches dont lefficacité a été démontrée empiriquement. Quand on a voulu introduire La forêt de l’alphabet, des fonctionnaires du Ministère ont protesté en disant que notre approche était trop “scolarisante”, qu’on “volait l’enfance des enfants”. » La CSRDN proposait une approche ludique et joyeuse, avec des jeunes assis en rond autour d’une marionnette. Les fonctionnaires voyaient plutôt des « petits assis en rangées », se rappelle Marc Saint-Pierre. « Il y a encore des fonctionnaires qui disent : “C’est pas vrai” quand on leur montre nos données de recherche. Les gens ne reconnaissent même pas les faits. »

Résultat, les politiques font parfois fausse route. « On ne peut pas déployer des mesures sur la base de non-études », dit Égide Royer en citant le bilan controversé des tableaux blancs interactifs introduits dans les écoles en 2011, un programme qui a coûté 240 millions de dollars pour peu de résultats (ce que les données existantes prévoyaient, d’ailleurs).

Cela étant dit, les données probantes peuvent être utilisées de façon abusive par des fonctionnaires obnubilés par la quête des résultats. Cest justement ce qui sest passé avec le programme américain No Child Left Behind (« Pas d’enfant oublié »), voté en 2002 aux États-Unis. Le gouvernement fédéral souhaitait augmenter la performance de l’enseignement par un système de récompense-punition. La carotte : les écoles qui voyaient leurs résultats s’améliorer recevaient de généreuses subventions. Le bâton : les écoles qui plafonnaient ou qui reculaient voyaient diminuer leurs subventions. La caricature de ce qu’il ne faut surtout pas faire ! En raison de mauvais résultats, des écoles ont fermé et des enseignants ont été congédiés. Si bien que les directions d’école, pour se prémunir, ont eu tendance à imposer un enseignement axé sur la réussite de tests dès la première année, ce qui est l’une des pires méthodes pédagogiques. « Mais la mauvaise utilisation des données probantes, ça na pas de rapport avec les données probantes, soupire Marc Saint-Pierre. C’est de la politique. »

À Saint-Jérôme, l’esprit est tout autre. Les résultats des élèves, des classes et de l’école servent plutôt au dépistage précoce des futurs décrocheurs et à une meilleure allocation des ressources. « Les écoles qui ont des difficultés reçoivent plus de ressources selon les matières, dit Sébastien Tardif. Et les directions décole sont formées à ne pas prendre ombrage de perdre des ressources au bénéfice des écoles qui ont davantage de problèmes à régler. On pense pour le bien de tous. »

Aucun commentaire:

Enregistrer un commentaire

Les commentaires reçus n’ont pas tous vocation à être publiés.
Étant directeur de publication de ce blog, seuls les textes qui présentent un intérêt à mes yeux seront retenus.