Source : Québec Science
Jean-Benoît Nadeau
Une école où les enfants réussissent et où les taux de
décrochage sont négligeables, ça existe !
Et ce, grâce aux « données
probantes », une approche qui fonctionne,
mais qui est chaudement débattue.
En 2005, la Commission scolaire de la Rivière-du-Nord
(CSRDN) à Saint-Jérôme est frappée de plein fouet par des statistiques
affligeantes : le taux de décrochage grimpe à 43 %.
Chez les garçons, 52 % !
« Ça nous a fait très
mal », se rappelle Katia Lavallée, directrice à l’école primaire Sainte-Anne, à Mirabel.
Douze ans plus tard, la commission scolaire a mis fin à
l’hémorragie. Mieux, ses élèves réussissent maintenant de façon éclatante. « En 2016, le taux de réussite en lecture en sixième
année est passé de 79 % à
93 %,
dit Sébastien Tardif,
directeur général adjoint à la réussite scolaire à la CSRDN. On s’attend même à une forte hausse du taux
de diplomation. »
Sébastien Tardif ne le dit pas tout haut, mais il se
pourrait que la CSRDN réussisse le coup de l’Ontario qui a augmenté le taux de
diplomation de 68 % à 85 %
depuis 2003 – et jusqu’à 91 %
dans les conseils scolaires francophones – alors que la moyenne québécoise,
elle, est passée de 69 % à 74 %. « Une différence inacceptable,
juge Égide Royer, professeur
associé au département d’études sur l’enseignement
et l’apprentissage de l’Université Laval, à Québec. Un jeune né à l’ouest de la rivière des Outaouais a entre 10 %
et 20 %
plus de chances d’obtenir son diplôme
secondaire juste parce que le Québec a opté pour des approches
trop souvent fondées sur des croyances plutôt que
sur des données empiriques. »
Le secret de la CSRDN, comme celui de l’Ontario (et aussi de
l’Iowa et du Massachusetts, qui obtiennent des résultats comparables), se
résume à deux expressions qui créent une polémique dans le milieu de la
recherche et dans les couloirs du ministère de l’Éducation du Québec : les « données probantes » et « l’enseignement efficace ».
Les données probantes, c’est l’idée qu’on peut soumettre la
pédagogie à une analyse empirique et statistique pour établir ce qui marche et
ce qui ne marche pas, à quel degré, et dans quelles conditions. L’enseignement
efficace, lui, est une approche pédagogique qui implique une rétroaction
constante entre l’enseignant et les élèves, ainsi que la collaboration entre
les enseignants entre eux, et avec l’institution.
Bref, le but est de fonder les pratiques éducatives sur des « preuves », ou du moins sur des données scientifiques. Et de rester attentif aux signaux qu’envoient les élèves. « Le message principal, c’est qu’il faut arrêter d’improviser », résume Égide Royer.
Le concept paraît simple. Mais, au Québec, on commence tout juste à le mettre en application.
Selon Monique Brodeur, doyenne de la faculté d’éducation
de l’UQAM, le retard québécois s’expliquerait par une posture en éducation
qui est plus romantique que scientifique. « Par
exemple, le Ministère a implanté une approche de l’enseignement de la lecture
– appelée méthode globale – qui ne correspond pas à l’état des
connaissances scientifiques. » Et qui, de toute évidence, n’a rien fait
pour améliorer la compétence en lecture des enfants québécois.
Pourtant, depuis le milieu des années 1990, de plus en plus
de chercheurs introduisent les données probantes en éducation, comme ils
l’ont fait en médecine, il y a 50 ans, puis en service social et en
psychologie. En fait, les données probantes ont tellement pénétré le champ
médical que tout le travail clinique en dépend désormais ; on ne conçoit plus la médecine clinique
autrement. « Pourquoi est-ce que l’éducation serait le
seul domaine où on ne se fonderait pas sur des données empiriques ? »
demande Éric Dion qui dirige le Laboratoire sur les pratiques
d’enseignement appuyées par la recherche à l’UQAM.
Le mouvement pour le recours aux données probantes en éducation s’est toutefois accéléré avec la publication en 2008 de l’ouvrage Visible Learning, aujourd’hui considéré comme la référence. Son auteur est John Hattie, professeur et directeur de l’Institut de recherche en éducation à l’université de Melbourne en Australie.
Pendant 15 ans, son équipe a recoupé les résultats de 800
méta-analyses, lesquelles faisaient elles-mêmes des recoupements de 52 000
articles portant sur 146 000 analyses auprès de 240 millions d’élèves. Cette
méga-analyse a recensé 138 « facteurs d’influence », tant sur le plan des
méthodes pédagogiques que des conditions socioculturelles (ethnicité,
famille, sexe, etc.), de la technologie et de l’organisation (taille des
classes, de l’école, etc.).
Le premier constat qui en ressort ? Presque tout ce qu’on
essaie en enseignement produit un effet positif, même modeste. Moins de 5 %
des actions, comme le redoublement, produisent un effet négatif. Mais pour
John Hattie, dont l’étude hiérarchise les facteurs d’influence selon leur
efficacité, se contenter d’« avoir de l’effet » est insuffisant. Les
enseignants, mais également les fonctionnaires qui pensent les politiques
éducatives, devraient faire mieux que la moitié inférieure des études
répertoriées.
Joint par Skype à Melbourne, John Hattie explique que son
classement peut se résumer à une démonstration statistique de ce que les
pédagogues savent depuis Aristote : l’« enseignement efficace », c’est tout
simplement l’art de remettre en question son propre enseignement, et donc de
chercher à approfondir la rétroaction avec les élèves. « On fait fausse route en pensant qu’un
enseignement efficace, cela consiste essentiellement à évaluer l’élève,
dit-il. Au contraire, ça
consiste pour le professeur à évaluer son propre enseignement. »
Et l’enseignement efficace a des effets très largement
supérieurs aux facteurs technologiques, organisationnels ou socioéconomiques.
En d’autres termes, les bons enseignants sont capables de faire mentir tous les
autres facteurs d’influence négatifs comme la pauvreté ou la classe sociale.
Surtout, les enseignants efficaces sont capables d’obtenir d’excellents
résultats, même quand les autorités leur imposent des programmes médiocres.
C’est l’étude de John Hattie, et quelques autres encore,
qui a inspiré les réformes à la CSRDN. « On
savait où commencer, dit Marc Saint-Pierre qui était le prédécesseur de
Sébastien Tardif et qui a implanté les premières mesures avant de prendre sa
retraite en 2012. On savait que les
principaux marqueurs du décrochage sont des problèmes de lecture à sept ans,
des troubles de comportement à neuf ans et des retards d’apprentissage au
début du secondaire. Un enfant qui a des retards de lecture à sept ans court
quatre fois plus de risques de devenir décrocheur. »
Voilà pourquoi Marc Saint-Pierre a choisi d’introduire dans
les classes de maternelle un petit programme conçu
par l’équipe de la
professeure Monique Brodeur, de l’UQAM. La forêt de l’alphabet,
un programme dispensé à raison de 25 minutes par jour pendant 26 semaines,
met l’accent sur l’apprentissage du nom et du son des lettres, et vise le
développement du vocabulaire et de la conscience phonémique. La méthode
globale, celle choisie par le Ministère, met plutôt l’accent sur la recherche
de sens et la capacité d’analyse – ce qui équivaudrait à mettre la charrue
devant les bœufs, selon les données probantes. « Cette dernière méthode s’avère particulièrement dommageable pour
les élèves en situation de vulnérabilité, qui viennent par exemple d’un
milieu défavorisé ou qui présentent des troubles d’apprentissage »,
indique Monique Brodeur.
Dans sa classe de première année de l’école du Joli-Bois,
à Sainte-Sophie, Isabelle Jean voit clairement l’effet des changements
introduits en maternelle. « Les enfants
qui m’arrivent en première année sont nettement plus avancés,
raconte-t-elle en montrant divers tableaux. Auparavant,
ils pouvaient effectuer la fusion des sons, comme “p” et “a” égale “pa”, vers
le mois de février ou mars. Maintenant, c’est acquis en novembre ! Et à la
fin de l’année, j’empiète sur le programme de deuxième année. »
En plus de former tous les enseignants de maternelle
à La forêt de l’alphabet, la CSRDN ajoute en cascade d’autres
programmes de lecture jusqu’à la deuxième année, dont notamment Apprendre
à lire à deux, de l’équipe du laboratoire dirigé par le chercheur Éric
Dion. À partir de la troisième année, la CSRDN oriente plutôt son action
sur les troubles de comportement et le suivi intensif des cas problématiques.
« On a mis en place un programme de
soutien aux comportements positifs, parce que les études démontrent que la
punition, ça ne marche pas », dit Marc Saint-Pierre.
« La CSRDN a planifié
son affaire soigneusement : un bon déploiement, un soutien adéquat des
enseignants et des écoles, un leadership partagé, commente Monique
Brodeur qui a préfacé le dernier livre de John Hattie (L’apprentissage visible pour les enseignants, PUQ, 2017). Mais, pour commencer, ils ont fait les bons choix en recourant à
des approches dont l’efficacité avait été démontrée avec rigueur. »
« Depuis 2010, on
parle du programme entre nous comme du “tsunami de la réussite”, souligne
Katia Lavallée, de l’école primaire Sainte-Anne, à Mirabel. Les enseignants sont plus ouverts à
réfléchir à leur pratique. Ils n’ont plus le réflexe de voir ça
comme une menace, mais comme un levier. »
Chose certaine, le tsunami de Saint-Jérôme fait des vagues.
Les Commissions scolaires des Laurentides et de Marguerite-Bourgeoys, à
Montréal, ont commencé à implanter les méthodes développées à
Saint-Jérôme, incluant son système de monitorage. Elles ont aussi influencé
la nouvelle politique de réussite scolaire annoncée en juin par le ministère
de l’Éducation.
Au sein même de la CSRDN, les données probantes et
l’enseignement efficace créent un effet d’entraînement au-delà du niveau
primaire, constate Sébastien Tardif.
[…]
John Hattie n’a pas que des adeptes. Dans les officines des
ministères, dans les milieux de recherche et dans les syndicats, certains
critiquent âprement ses travaux.
Car les méta-analyses ont des limites évidentes,
puisqu’elles sont strictement statistiques, explique Égide Royer. « Elles sont valides pour de grands groupes,
dit-il, mais pas nécessairement pour des
cas individuels. » Les élèves ne sont pas des souris de laboratoire
uniformes. Cas type, il est prouvé que le redoublement scolaire,
appliqué en masse, a un effet globalement négatif. Mais il peut être
approprié dans certains cas particuliers.
Une autre réserve, les données probantes sont souvent la
généralisation de petites études locales qui peuvent avoir un biais
culturel. Une objection qui irrite profondément John Hattie: « Les données démontrent que les uniformes,
l’écriture cursive, par exemple, ça n’est pas très
efficace. Mais si vous y tenez, faites-le et après quoi, occupons-nous plutôt
de ce qui produit vraiment une différence. »
Mais il faut aussi admettre que les détracteurs de John
Hattie lui font souvent dire des choses qu’il ne dit pas. Ainsi, bien des gens
affirment que les données probantes ouvriront la porte à l’uniformisation des
programmes et à la mainmise de l’État sur le travail des enseignants. Au
contraire, rétorque John Hattie. La notion d’enseignement efficace suppose
justement que l’enseignant conserve toute sa latitude et qu’il exerce son
jugement professionnel, en rétroaction avec ses élèves. « Voilà l’erreur à ne pas commettre : croire
qu’il n’y a qu’une seule méthode qui fonctionne », insiste-t-il.
Même son de cloche du côté de Frédéric Saussez,
professeur agrégé de la faculté d’éducation à l’Université de Sherbrooke
: « Il existe un risque de dérapage si
l’on présente les données probantes comme la vérité, au mépris des
variantes locales. La science ne doit pas dire quoi faire au politique, mais
quoi ne pas faire. La science, ce n’est pas la vérité ; c’est un projet de
connaissance. Sinon, on réintroduit la foi. » Il insiste toutefois : « On ne peut pas être contre les données
probantes. Si c’est le cas, on est contre la science. »
Malheureusement, à l’heure actuelle, « chacun protège sa chapelle épistémologique », déplore Marc
Saint-Pierre, retraité de la CSRDN. Il est le plus féroce critique de ceux
qui sont réticents face aux données probantes. « Ça va faire, les études d’atmosphère du type “on
se sent bien” ! Pour régler nos problèmes, on a besoin d’approches
dont l’efficacité a été démontrée empiriquement. Quand on a
voulu introduire La forêt de
l’alphabet, des fonctionnaires du
Ministère ont protesté en disant que notre approche était trop
“scolarisante”, qu’on “volait l’enfance des enfants”. » La CSRDN proposait
une approche ludique et joyeuse, avec des jeunes assis en rond autour d’une
marionnette. Les fonctionnaires voyaient plutôt des « petits assis en rangées », se rappelle Marc Saint-Pierre. « Il y a encore des fonctionnaires qui disent
: “C’est pas vrai” quand on leur montre nos données de recherche. Les gens ne
reconnaissent même pas les faits. »
Résultat, les politiques font parfois fausse route. « On ne peut pas déployer des mesures sur la
base de non-études », dit Égide Royer en citant le bilan controversé des
tableaux blancs interactifs introduits dans les écoles en 2011, un programme
qui a coûté 240 millions de dollars pour peu de résultats (ce que les
données existantes prévoyaient, d’ailleurs).
Cela étant dit, les données probantes peuvent être
utilisées de façon
abusive par des fonctionnaires obnubilés par la quête des résultats. C’est
justement ce qui s’est passé
avec le programme américain No
Child Left Behind (« Pas d’enfant oublié »), voté en 2002 aux
États-Unis. Le gouvernement fédéral souhaitait augmenter la performance de
l’enseignement par un système de récompense-punition. La carotte : les
écoles qui voyaient leurs résultats s’améliorer recevaient de généreuses
subventions. Le bâton : les écoles qui plafonnaient ou qui reculaient
voyaient diminuer leurs subventions. La caricature de ce qu’il ne faut surtout
pas faire ! En raison de mauvais résultats, des écoles ont fermé et des
enseignants ont été congédiés. Si bien que les directions d’école, pour se
prémunir, ont eu tendance à imposer un enseignement axé sur la réussite de
tests dès la première année, ce qui est l’une des pires méthodes
pédagogiques. « Mais la mauvaise
utilisation des données probantes, ça n’a pas de rapport
avec les données probantes, soupire Marc Saint-Pierre. C’est de la politique. »
À Saint-Jérôme, l’esprit est tout autre. Les résultats
des élèves, des classes et de l’école servent plutôt au dépistage précoce
des futurs décrocheurs et à une meilleure allocation des ressources. « Les écoles qui ont des difficultés reçoivent
plus de ressources selon les matières, dit Sébastien Tardif. Et les directions d’école sont formées
à ne pas prendre ombrage de “perdre des ressources”
au bénéfice des écoles qui ont davantage de problèmes à régler. On pense
pour le bien de tous. »
Aucun commentaire:
Enregistrer un commentaire
Les commentaires reçus n’ont pas tous vocation à être publiés.
Étant directeur de publication de ce blog, seuls les textes qui présentent un intérêt à mes yeux seront retenus.