Translate

Affichage des articles dont le libellé est données probantes. Afficher tous les articles
Affichage des articles dont le libellé est données probantes. Afficher tous les articles

jeudi 29 août 2019

Visible Learning : la Lune et le doigt



Le travail réalisé par John Hattie et son équipe a suscité, lors de sa parution, beaucoup d’enthousiasme par l’ampleur des données récoltées et par le fait qu’il s’agissait d’une tentative de déterminer les meilleures pratiques d’enseignement en se basant sur des données en grand nombre (plus de 900 méta-analyses).

Les constructivistes, qui tiennent plus à leurs croyances fondées sur l’idéologie que sur les données probantes fondées sur la réalité, ont partout rejeté le travail de Hattie parce qu’il démontrait l’inefficacité de leurs pratiques pédagogiques. Leurs critiques ne sont, par conséquent, que des réactions défensives sans valeur. Inutile qu’on s’y attarde…

En revanche, lorsque Robert Slavin, qui est un chercheur sérieux prônant un enseignement du type instructionniste avec Success for All, dit “John Hattie is wrong” dans un article de son blog, il faut écouter ses arguments et les prendre en considération.

Sa critique pointe le fait que, dans la masse des analyses que Hattie et son équipe ont utilisées, certaines avaient des biais importants. Ces défauts se sont logiquement reportés sur les méta-analyses qui les recensaient malgré tout et, à un niveau supérieur, sur les méga-analyses, pour les mêmes raisons.



Il pointe également le seuil de 0,40 du célèbre cadran qui sert de limite entre les pratiques qui ont un effet tangible et celles qui n’en ont pas. Les effets compris entre 0,15 et 0,40 correspondent à ce que tout enseignant pourrait produire quelle que soit sa méthode. Et ceux compris entre 0,00 et 0,15 équivalent à ce que n’importe quel enfant peut apprendre tout seul, sans le secours de l’école. Or, selon Robert Slavin, ce cadran et les zones qu’il détermine ne tient pas compte de la taille de l’effet. En statistique, c’est la force de l'effet observé d'une variable sur une autre (voir l’article de Wikipédia pour en apprendre davantage).

Le point de vue de Franck Ramus doit également être pris en compte : « Quand on pousse la synthèse à l’extrême il existe évidemment un risque de simplification, de passer à la trappe des détails importants ou de se livrer à des comparaisons qui n’ont pas lieu d’être. Il ne faut ainsi pas lire les tableaux de Hattie de façon littérale. Et s’il s’agit de convertir ces données en recommandations pratiques pour les enseignants alors oui il est nécessaire de revoir chaque étude retenue dans le détail. Il me semble que les travaux de Hattie constituent davantage un outil pour les chercheurs parce qu’ils sont un point d’entrée systématique et exhaustif vers une littérature scientifique immense et difficile à dominer ».

Quant à Steve Bissonnette, il écrit : « Les travaux menés par l’équipe de John Hattie font l’objet de plusieurs critiques et plusieurs de ces critiques sont valables et recevables. En effet, réaliser une méga-analyse en comparant les résultats provenant de diverses méta-analyses ayant utilisé parfois différentes méthodologies crée le danger de comparer des pommes avec des oranges ! » 

Le “Saint-Graal de l’éducation” – comme le Visible Learning a été très vite qualifié par les médias – n’est donc pas vraiment la relique miraculeuse que tout le monde enseignant espère.

Incontestablement, les instruments de mesure utilisés par les chercheurs ne sont pas parfaits. On retrouve les mêmes limites – et les mêmes critiques – dans les mesures effectuées pour les comparaisons internationales (PISA, TIMSS, PIRLS) ou pour les évaluations standardisées des acquis des élèves. Mais malgré leurs défauts, ces instruments de mesure révèlent un certain nombre d’indications massivement convergentes, dont il serait stupide de rejeter l’évidence au nom d’une perfection qui ne sera jamais de ce monde.

Lorsque le sage montre la Lune, il n’est pas idiot de regarder le doigt. Mais à condition de ne pas oublier, en même temps, de regarder aussi la Lune…




dimanche 23 septembre 2018

Franck Ramus : Qu'est-ce que la recherche scientifique peut apporter aux enseignants ?

Conférence de rentrée
ESPÉ d'Auvergne
09.2018

vendredi 24 août 2018

La science peut-elle définir l’école idéale ?


Source : Québec Science

Jean-Benoît Nadeau




Une école où les enfants réussissent et où les taux de décrochage sont négligeables, ça existe ! Et ce, grâce aux « données probantes», une approche qui fonctionne, mais qui est chaudement débattue.


En 2005, la Commission scolaire de la Rivière-du-Nord (CSRDN) à Saint-Jérôme est frappée de plein fouet par des statistiques affligeantes : le taux de décrochage grimpe à 43 %. Chez les garçons, 52 % ! «Ça nous a fait très mal», se rappelle Katia Lavallée, directrice à l’école primaire Sainte-Anne, à Mirabel.

Douze ans plus tard, la commission scolaire a mis fin à l’hémorragie. Mieux, ses élèves réussissent maintenant de façon éclatante. « En 2016, le taux de réussite en lecture en sixième année est passé de 79 % à 93 %, dit Sébastien Tardif, directeur général adjoint à la réussite scolaire à la CSRDN. On s’attend même à une forte hausse du taux de diplomation.»

Sébastien Tardif ne le dit pas tout haut, mais il se pourrait que la CSRDN réussisse le coup de l’Ontario qui a augmenté le taux de diplomation de 68 % à 85 % depuis 2003 et jusqu’à 91 % dans les conseils scolaires francophones alors que la moyenne québécoise, elle, est passée de 69 % à 74 %. «Une différence inacceptable, juge Égide Royer, professeur associé au département d’études sur lenseignement et l’apprentissage de l’Université Laval, à Québec. Un jeune né à l’ouest de la rivière des Outaouais a entre 10 % et 20 % plus de chances dobtenir son diplôme secondaire juste parce que le Québec a opté pour des approches trop souvent fondées sur des croyances plutôt que sur des données empiriques.»

Le secret de la CSRDN, comme celui de l’Ontario (et aussi de l’Iowa et du Massachusetts, qui obtiennent des résultats comparables), se résume à deux expressions qui créent une polémique dans le milieu de la recherche et dans les couloirs du ministère de l’Éducation du Québec : les « données probantes » et « lenseignement efficace ».

Les données probantes, c’est l’idée qu’on peut soumettre la pédagogie à une analyse empirique et statistique pour établir ce qui marche et ce qui ne marche pas, à quel degré, et dans quelles conditions. L’enseignement efficace, lui, est une approche pédagogique qui implique une rétroaction constante entre l’enseignant et les élèves, ainsi que la collaboration entre les enseignants entre eux, et avec l’institution.

Bref, le but est de fonder les pratiques éducatives sur des « preuves », ou du moins sur des données scientifiques. Et de rester attentif aux signaux quenvoient les élèves. «Le message principal, cest quil faut arrêter d’improviser», résume Égide Royer.

Le concept paraît simple. Mais, au Québec, on commence tout juste à le mettre en application.

Selon Monique Brodeur, doyenne de la faculté d’éducation de l’UQAM, le retard québécois s’expliquerait par une posture en éducation qui est plus romantique que scientifique. « Par exemple, le Ministère a implanté une approche de l’enseignement de la lecture – appelée méthode globale – qui ne correspond pas à l’état des connaissances scientifiques. » Et qui, de toute évidence, n’a rien fait pour améliorer la compétence en lecture des enfants québécois.

Pourtant, depuis le milieu des années 1990, de plus en plus de chercheurs introduisent les données probantes en éducation, comme ils l’ont fait en médecine, il y a 50 ans, puis en service social et en psychologie. En fait, les données probantes ont tellement pénétré le champ médical que tout le travail clinique en dépend désormais ; on ne conçoit plus la médecine clinique autrement. « Pourquoi est-ce que l’éducation serait le seul domaine où on ne se fonderait pas sur des données empiriques ? » demande Éric Dion qui dirige le Laboratoire sur les pratiques d’enseignement appuyées par la recherche à l’UQAM.

Le mouvement pour le recours aux données probantes en éducation s’est toutefois accéléré avec la publication en 2008 de l’ouvrage Visible Learning, aujourd’hui considéré comme la référence. Son auteur est John Hattie, professeur et directeur de l’Institut de recherche en éducation à l’université de Melbourne en Australie.

Pendant 15 ans, son équipe a recoupé les résultats de 800 méta-analyses, lesquelles faisaient elles-mêmes des recoupements de 52 000 articles portant sur 146 000 analyses auprès de 240 millions d’élèves. Cette méga-analyse a recensé 138 « facteurs d’influence », tant sur le plan des méthodes pédagogiques que des conditions socioculturelles (ethnicité, famille, sexe, etc.), de la technologie et de l’organisation (taille des classes, de l’école, etc.).

Le premier constat qui en ressort ? Presque tout ce qu’on essaie en enseignement produit un effet positif, même modeste. Moins de 5 % des actions, comme le redoublement, produisent un effet négatif. Mais pour John Hattie, dont l’étude hiérarchise les facteurs d’influence selon leur efficacité, se contenter d’« avoir de l’effet » est insuffisant. Les enseignants, mais également les fonctionnaires qui pensent les politiques éducatives, devraient faire mieux que la moitié inférieure des études répertoriées.

Joint par Skype à Melbourne, John Hattie explique que son classement peut se résumer à une démonstration statistique de ce que les pédagogues savent depuis Aristote : l’« enseignement efficace », c’est tout simplement l’art de remettre en question son propre enseignement, et donc de chercher à approfondir la rétroaction avec les élèves. « On fait fausse route en pensant qu’un enseignement efficace, cela consiste essentiellement à évaluer l’élève, dit-il. Au contraire, ça consiste pour le professeur à évaluer son propre enseignement. »

Et l’enseignement efficace a des effets très largement supérieurs aux facteurs technologiques, organisationnels ou socioéconomiques. En d’autres termes, les bons enseignants sont capables de faire mentir tous les autres facteurs d’influence négatifs comme la pauvreté ou la classe sociale. Surtout, les enseignants efficaces sont capables d’obtenir d’excellents résultats, même quand les autorités leur imposent des programmes médiocres.

C’est l’étude de John Hattie, et quelques autres encore, qui a inspiré les réformes à la CSRDN. « On savait où commencer, dit Marc Saint-Pierre qui était le prédécesseur de Sébastien Tardif et qui a implanté les premières mesures avant de prendre sa retraite en 2012. On savait que les principaux marqueurs du décrochage sont des problèmes de lecture à sept ans, des troubles de comportement à neuf ans et des retards d’apprentissage au début du secondaire. Un enfant qui a des retards de lecture à sept ans court quatre fois plus de risques de devenir décrocheur. »

Voilà pourquoi Marc Saint-Pierre a choisi d’introduire dans les classes de maternelle un petit programme conçu par léquipe de la professeure Monique Brodeur, de lUQAM. La forêt de l’alphabet, un programme dispensé à raison de 25 minutes par jour pendant 26 semaines, met l’accent sur l’apprentissage du nom et du son des lettres, et vise le développement du vocabulaire et de la conscience phonémique. La méthode globale, celle choisie par le Ministère, met plutôt l’accent sur la recherche de sens et la capacité d’analyse – ce qui équivaudrait à mettre la charrue devant les bœufs, selon les données probantes. « Cette dernière méthode s’avère particulièrement dommageable pour les élèves en situation de vulnérabilité, qui viennent par exemple d’un milieu défavorisé ou qui présentent des troubles d’apprentissage », indique Monique Brodeur.

Dans sa classe de première année de l’école du Joli-Bois, à Sainte-Sophie, Isabelle Jean voit clairement l’effet des changements introduits en maternelle. « Les enfants qui m’arrivent en première année sont nettement plus avancés, raconte-t-elle en montrant divers tableaux. Auparavant, ils pouvaient effectuer la fusion des sons, comme “p” et “a” égale “pa”, vers le mois de février ou mars. Maintenant, c’est acquis en novembre ! Et à la fin de l’année, j’empiète sur le programme de deuxième année. »

En plus de former tous les enseignants de maternelle à La forêt de l’alphabet, la CSRDN ajoute en cascade d’autres programmes de lecture jusqu’à la deuxième année, dont notamment Apprendre à lire à deux, de l’équipe du laboratoire dirigé par le chercheur Éric Dion. À partir de la troisième année, la CSRDN oriente plutôt son action sur les troubles de comportement et le suivi intensif des cas problématiques. « On a mis en place un programme de soutien aux comportements positifs, parce que les études démontrent que la punition, ça ne marche pas », dit Marc Saint-Pierre.

« La CSRDN a planifié son affaire soigneusement : un bon déploiement, un soutien adéquat des enseignants et des écoles, un leadership partagé, commente Monique Brodeur qui a préfacé le dernier livre de John Hattie (L’apprentissage visible pour les enseignants, PUQ, 2017). Mais, pour commencer, ils ont fait les bons choix en recourant à des approches dont l’efficacité avait été démontrée avec rigueur. »

« Depuis 2010, on parle du programme entre nous comme du “tsunami de la réussite”, souligne Katia Lavallée, de l’école primaire Sainte-Anne, à Mirabel. Les enseignants sont plus ouverts à réfléchir à leur pratique. Ils n’ont plus le réflexe de voir ça comme une menace, mais comme un levier. »

Chose certaine, le tsunami de Saint-Jérôme fait des vagues. Les Commissions scolaires des Laurentides et de Marguerite-Bourgeoys, à Montréal, ont commencé à implanter les méthodes développées à Saint-Jérôme, incluant son système de monitorage. Elles ont aussi influencé la nouvelle politique de réussite scolaire annoncée en juin par le ministère de l’Éducation.

Au sein même de la CSRDN, les données probantes et l’enseignement efficace créent un effet d’entraînement au-delà du niveau primaire, constate Sébastien Tardif.

[…]

John Hattie n’a pas que des adeptes. Dans les officines des ministères, dans les milieux de recherche et dans les syndicats, certains critiquent âprement ses travaux.

Car les méta-analyses ont des limites évidentes, puisqu’elles sont strictement statistiques, explique Égide Royer. « Elles sont valides pour de grands groupes, dit-il, mais pas nécessairement pour des cas individuels. » Les élèves ne sont pas des souris de laboratoire uniformes. Cas type, il est prouvé que le redoublement scolaire, appliqué en masse, a un effet globalement négatif. Mais il peut être approprié dans certains cas particuliers.

Une autre réserve, les données probantes sont souvent la généralisation de petites études locales qui peuvent avoir un biais culturel. Une objection qui irrite profondément John Hattie: « Les données démontrent que les uniformes, l’écriture cursive, par exemple, ça nest pas très efficace. Mais si vous y tenez, faites-le et après quoi, occupons-nous plutôt de ce qui produit vraiment une différence. »

Mais il faut aussi admettre que les détracteurs de John Hattie lui font souvent dire des choses qu’il ne dit pas. Ainsi, bien des gens affirment que les données probantes ouvriront la porte à l’uniformisation des programmes et à la mainmise de l’État sur le travail des enseignants. Au contraire, rétorque John Hattie. La notion d’enseignement efficace suppose justement que l’enseignant conserve toute sa latitude et qu’il exerce son jugement professionnel, en rétroaction avec ses élèves. « Voilà l’erreur à ne pas commettre : croire qu’il n’y a qu’une seule méthode qui fonctionne », insiste-t-il.

Même son de cloche du côté de Frédéric Saussez, professeur agrégé de la faculté d’éducation à l’Université de Sherbrooke : « Il existe un risque de dérapage si l’on présente les données probantes comme la vérité, au mépris des variantes locales. La science ne doit pas dire quoi faire au politique, mais quoi ne pas faire. La science, ce n’est pas la vérité ; c’est un projet de connaissance. Sinon, on réintroduit la foi. » Il insiste toutefois : « On ne peut pas être contre les données probantes. Si c’est le cas, on est contre la science. »

Malheureusement, à l’heure actuelle, « chacun protège sa chapelle épistémologique », déplore Marc Saint-Pierre, retraité de la CSRDN. Il est le plus féroce critique de ceux qui sont réticents face aux données probantes. « Ça va faire, les études datmosphère du type on se sent bien ! Pour régler nos problèmes, on a besoin dapproches dont lefficacité a été démontrée empiriquement. Quand on a voulu introduire La forêt de l’alphabet, des fonctionnaires du Ministère ont protesté en disant que notre approche était trop “scolarisante”, qu’on “volait l’enfance des enfants”. » La CSRDN proposait une approche ludique et joyeuse, avec des jeunes assis en rond autour d’une marionnette. Les fonctionnaires voyaient plutôt des « petits assis en rangées », se rappelle Marc Saint-Pierre. « Il y a encore des fonctionnaires qui disent : “C’est pas vrai” quand on leur montre nos données de recherche. Les gens ne reconnaissent même pas les faits. »

Résultat, les politiques font parfois fausse route. « On ne peut pas déployer des mesures sur la base de non-études », dit Égide Royer en citant le bilan controversé des tableaux blancs interactifs introduits dans les écoles en 2011, un programme qui a coûté 240 millions de dollars pour peu de résultats (ce que les données existantes prévoyaient, d’ailleurs).

Cela étant dit, les données probantes peuvent être utilisées de façon abusive par des fonctionnaires obnubilés par la quête des résultats. Cest justement ce qui sest passé avec le programme américain No Child Left Behind (« Pas d’enfant oublié »), voté en 2002 aux États-Unis. Le gouvernement fédéral souhaitait augmenter la performance de l’enseignement par un système de récompense-punition. La carotte : les écoles qui voyaient leurs résultats s’améliorer recevaient de généreuses subventions. Le bâton : les écoles qui plafonnaient ou qui reculaient voyaient diminuer leurs subventions. La caricature de ce qu’il ne faut surtout pas faire ! En raison de mauvais résultats, des écoles ont fermé et des enseignants ont été congédiés. Si bien que les directions d’école, pour se prémunir, ont eu tendance à imposer un enseignement axé sur la réussite de tests dès la première année, ce qui est l’une des pires méthodes pédagogiques. « Mais la mauvaise utilisation des données probantes, ça na pas de rapport avec les données probantes, soupire Marc Saint-Pierre. C’est de la politique. »

À Saint-Jérôme, l’esprit est tout autre. Les résultats des élèves, des classes et de l’école servent plutôt au dépistage précoce des futurs décrocheurs et à une meilleure allocation des ressources. « Les écoles qui ont des difficultés reçoivent plus de ressources selon les matières, dit Sébastien Tardif. Et les directions décole sont formées à ne pas prendre ombrage de perdre des ressources au bénéfice des écoles qui ont davantage de problèmes à régler. On pense pour le bien de tous. »

mardi 8 mai 2018

Practice-based research : une aporie et des espoirs (Pascal Bressoux)

Une revue critique de l’article d’Anthony S. Bryk

Bressoux Pascal

Éducation & didactique, 2017/3 (Vol. 11), p. 123-134





Extraits :

« À l’évidence, tout n’est pas identique ; les contextes d’enseignement varient, et toute tentative d’implanter partout des solutions préfabriquées, sans se soucier des conditions de réception, de diffusion et d’exercice dans des contextes différents, a toutes les chances de se solder par un échec cuisant.

À ce niveau, un risque apparaît toutefois : celui de penser que rien n’est généralisable, que tout n’est qu’affaire de “rencontre”, que l’on ne peut en aucun cas envisager de pratique menant à de meilleurs résultats et que, comme le récuse Bryk, on soit amené à « croire que chaque situation est unique et que, par conséquent, chaque éducateur, école, district doit inventer lui-même sa propre pratique » (p. 474).

J’ai pour ma part toujours été très agacé par les discours qui, sous prétexte de l’inextricable complexité du processus d’enseignement-apprentissage, prétendent qu’une connaissance générale sur l’efficacité des pratiques n’est pas possible. Que, par conséquent, cette efficacité ne peut être que le produit inattendu, imprédictible, d’un processus émergent, qui ne se transpose à rien et à personne, le résultat d’une rencontre unique entre des enseignants singuliers et des élèves singuliers.

Qui a jamais prétendu que l’acte d’enseignement n’avait aucune composante singulière ? Mais n’y a-t-il pas aussi une composante générique, commune à un grand nombre d’actes d’enseignement ? Ainsi, les travaux sur l’efficacité des enseignants montrent qu’un enseignant efficace dans une matière (p. ex. maths) a tendance à l’être aussi dans d’autres (p. ex. français) (Mingat, 1991), qu’un enseignant efficace dans une classe a tendance à l’être dans toutes celles où il enseigne (Felouzis, 1997), qu’un enseignant efficace une année a tendance à l’être les années suivantes (Chetty et al., 2014). Autant de faits qui vont à l’encontre de l’hypothèse d’un phénomène émergent, imprédictible.

Je suis en grand accord avec Bryk quand il énonce la difficulté à généraliser des expériences scientifiques clairement contrôlées et localisées. Mais difficulté ne signifie pas impossibilité, et on connaît déjà quelques cas de généralisation réussie. Ainsi, le programme Success for all produit des effets constamment positifs depuis sa mise en place et sa généralisation (50 000 enseignants dans plus de 1 000 écoles dans 48 États et quatre autres pays touchant plus de 500 000 élèves d’après le site de la Success for all Foundation). Nul doute que les concepteurs et développeurs de ce programme ont acquis un savoir-faire en matière de diffusion de “bonnes pratiques”. Ce développement ne s’est toutefois pas fait du jour au lendemain. »

[…]

« D’autant que l’efficacité d’une pratique n’a pas la limpidité qu’on serait tenté de lui accorder naïvement. Il est en effet très difficile, du point de vue des acteurs, d’avoir une vue claire sur l’efficacité des pratiques, y compris pour les enseignants. Comme on dit, ça ne saute pas aux yeux. Il est très difficile pour des enseignants de savoir si leur pratique est efficace. D’une part, parce que les élèves progressent, quelle que soit la pratique. D’autre part parce que, je le répète, l’efficacité est relative ; une pratique est efficace relativement à une autre. Elle est donc, selon certains critères d’efficacité établis, meilleure, équivalente, ou moins bonne qu’une autre. La conséquence est qu’il faudrait pouvoir comparer les résultats avec ceux issus d’une autre pratique, ce que les enseignants ne peuvent évidemment pas faire : ils sont dans l’impossibilité de mettre en place simultanément deux pratiques. En conséquence, ils ne disposent pas du contrefactuel. »

vendredi 4 mai 2018

Pour trouver des preuves solides pour un enseignement efficace


04.2018

Le ministère de l'Éducation (des États-Unis) définit différents “niveaux” de données probantes pour les activités, les stratégies et les interventions en matière d'éducation. Cette présentation décrit comment le site web What Works Clearinghouse peut être utilisé pour trouver des “preuves solides” et des “preuves modérées” issues de l’examen d’études individuelles et de la revue systématique des preuves de WWC (rapports d'intervention et guides de pratique).







Visiter le site
What Works Clearinghouse


vendredi 30 décembre 2016

La critique des travaux de John Hattie

Steve Bissonnette



Les travaux menés par l’équipe de John Hattie font l’objet de plusieurs critiques et plusieurs de ces critiques sont valables et recevables. En effet, réaliser une méga-analyse en comparant les résultats provenant de diverses méta-analyses ayant utilisé parfois différentes méthodologies crée le danger de comparer des pommes avec des oranges ! Toutefois, est-ce que pour cela, il faille en conclure que les recommandations formulées par ce chercheur sont totalement erronées ?

À ce sujet je vous invite à lire la citation suivante provenant de trois des plus grands chercheurs en sciences de la cognition du XXe siècle, John Anderson, Lyne Reder et Herbert Simon, détenteur d’un prix Nobel, de Carnegie Mellon (1998) sur le controversé Projet Follow Through :
« Une part importante des résistances que les constructivistes radicaux, ainsi que de nombreux intervenants du milieu de l’éducation en général, éprouvent face au domaine de la mesure et évaluation provient du fait qu’aucun instrument de mesure n’est parfait. Or, cette tendance à focaliser sur les limites des instruments de mesure en amènent plusieurs à rejeter les données provenant des recherches empiriques. Le jugement négatif qu’on a porté sur le Projet Follow Through, qui a démontré que les méthodes d’enseignement direct étaient plus efficaces que les pédagogies ouvertes avec des élèves du niveau primaire issus de milieux défavorisés, en constitue un exemple classique. Cette étude a été immédiatement accablée de critiques de toutes sortes, ce qui a eu pour effet de détourner complètement l’attention des informations importantes qu’elle contenait. Les scientifiques savent qu’ils doivent tenir compte des limites inhérentes à leurs instruments de mesure, mais qu’ils ne doivent pas pour autant ignorer ce que leurs instruments révèlent »
(Anderson, J.R., Reder, L.M., Simon, H.A. (1998). Radical Constructivism and Cognitive Psychology. In D. Ravitch (Ed.) Brookings Papers on Education Policy 1998. Washington, DC: Brookings Institute Press, p 253)
De plus, comme nous l’avons montré dans le chapitre 1 de l’ouvrage intitulé Enseignement explicite publié en 2013 chez ERPI (Gauthier, Bissonnette et Richard, 2013) l’effet enseignant identifié par Hattie est corroboré par les recherches réalisées sur la valeur ajoutée des enseignants de William Sanders, un statisticien de formation, et sur les études menées sur les écoles efficaces. Cette triangulation de recherches montre une convergence de résultats indiquant l’effet déterminant de l’enseignant sur le rendement des élèves. L’extrait suivant provenant de l’ouvrage de Dylan (2016) montre également l’effet important de l’enseignant sur le rendement des élèves qui lui sont confiés.


Finalement, il suffit simplement d’avoir soi-même des enfants à l’école pour constater comme parents les effets d’un enseignant efficace sur le rendement de ceux-ci !

mercredi 23 novembre 2016

Vers une éducation fondée sur des preuves (Franck Ramus)





L'éducation fondée sur des preuves est un courant visant à fonder les pratiques éducatives sur des preuves (ou au moins des éléments de preuve) scientifiques de leur efficacité. L'expression “éducation fondée sur des preuves” vient de l'anglais evidence-based education. La notion de preuves peut sembler excessivement forte, mais il faut comprendre que c'est un problème de traduction. Le mot evidence fait avant tout référence à des données factuelles, plus qu'à de véritables preuves. L'esprit est donc de promouvoir les pratiques éducatives basées sur des données factuelles (concernant leur efficacité), par opposition aux pratiques fondée sur de simples croyances ou sur des philosophies.

Ce courant découle bien entendu de la même approche adoptée avec succès depuis plusieurs décennies en médecine, la médecine fondée sur des preuves (evidence-based medicine). Aujourd'hui, plus personne ne voudrait prendre un médicament ou subir un traitement médical qui n'ait auparavant fait la preuve de son efficacité, selon les standards de la médecine fondée sur des preuves. Standards qui requièrent généralement la conduite d'essais cliniques randomisés contrôlés, permettant d'évaluer statistiquement les bénéfices apportés par un traitement, comparé à un autre traitement de référence (ou à un placebo). Pour une excellente introduction aux origines historiques et aux principes de la médecine fondée sur des preuves, reportez-vous à l'article de Simon Singh et Edzard Ernst.

Le fait est que les principes de la médecine fondée sur des preuves ne sont pas propre à la médecine, et que les méthodes expérimentales qu'elle met en œuvre sont d'utilité générale et sont totalement indépendantes de la nature des traitements, qu'il s'agisse de médicament, de pratique médicale ou paramédicale, de psychothérapie, de pratique pédagogique, ou même d'action économique ou politique. C'est pour cela que l'approche “evidence-based” tend à se généraliser à tous les domaines, en premier lieu dans les cultures pragmatiques où l'action et les faits sont plus valorisés que les beaux discours.


Mon commentaire :

Depuis son origine, le courant de la Pédagogie Explicite recommande les pratiques basées sur les preuves (ce que les Canadiens appellent “les données probantes”). Barak Rosenshine s’est précisément appuyé sur les preuves pour définir les modalités de mise en œuvre de l’Enseignement Explicite. Sa réponse à ceux qui lançaient des affirmations non prouvées est restée fameuse : « Show me the data! ». Sans données tangibles, toute affirmation éducative reste à nos yeux sans valeur. 
Dès lors, il est grand temps que l’éducation fondée sur des preuves s’impose en France et que l’on cesse de recourir à des démarches d’enseignement basées sur des croyances ou de l’idéologie. 
Les enseignants du courant explicite apprécient et soutiennent les efforts de Franck Ramus qui vont dans le sens d’un enseignement efficace basés sur les données recueillies en grand nombre. Les résistances, souvent issues des rangs du constructivisme pédagogique, sont encore nombreuses mais elles ne sont pas insurmontables. De fait, en enseignement comme ailleurs, seuls les résultats constatés comptent… 
Sur les données probantes : http://www.formapex.com/donnees-probantes?layout=default
Bien cordialement.

dimanche 12 juin 2016

« Il faut fonder la pédagogie sur des preuves, non sur des intuitions »

Source : Le Monde du 23.05.2016

Entretien avec Stanislas Dehaene




Stanislas Dehaene dirige l’unité Inserm-CEA de neuro-imagerie cognitive à Saclay (Essonne) et il est professeur de psychologie cognitive expérimentale au Collège de France. Auteur notamment de plusieurs livres sur la lecture et les maths, il a dirigé la publication de l’ouvrage collectif Apprendre à lire. Des sciences cognitives à la salle de classe (Odile Jacob, 2011).

Vous appelez depuis des années à une mobilisation générale afin que les données des sciences cognitives soient mises au service de l’école. Où en est-on aujourd’hui ?

Je ne dispose pas d’un état des lieux précis, mais je constate une prise de conscience croissante des contributions des sciences cognitives à l’éducation, et de la nécessité d’une approche expérimentale et rigoureuse dans ce domaine. L’idée d’une éducation fondée sur des preuves fait son chemin. Aujourd’hui, personne ne voudrait d’une médecine qui revienne à l’arbitraire, qui repose sur l’intuition… De même, dans l’enseignement, personne ne devrait pouvoir imposer une stratégie pédagogique aux enfants sans avoir au moins un début de preuve de son efficacité. Par exemple, plusieurs études émettent des doutes sur l’intérêt des tablettes à l’école, il est donc fondamental d’expérimenter avant de généraliser ces dispositifs.
De même qu’un médecin continue de se former toute sa vie, la formation continue des enseignants est essentielle, et doit se faire à leur initiative. Beaucoup de contenus sur la neuro-éducation sont désormais accessibles, notamment sur Internet, et la demande des professionnels est énorme. Ainsi, les séminaires et les cours organisés au Collège de France avec le ministère de l’éducation ont eu un grand succès, et leurs contenus sont toujours très consultés. Je crois que c’est surtout par la formation des enseignants que les données des sciences cognitives se diffuseront dans les pratiques. Car ce que nos recherches peuvent apporter, ce sont avant tout des idées pédagogiques, sans forcément nécessiter de changer les programmes.
(…)

Il reste tout de même des points noirs, dans l’enseignement de la lecture notamment…

Sur le terrain, il y a des progrès. Les enseignants sont mieux informés sur les méthodes de lecture et leurs performances. Un consensus scientifique existe sur l’importance initiale de l’enseignement systématique et structuré des correspondances entre les lettres et les sons, suivi d’un effort de plusieurs années qui automatise et développe la compréhension des textes et le plaisir de la lecture. On est cependant encore très loin de l’optimalité. La méthode globale n’est plus pratiquée, mais beaucoup de classes l’utilisent encore où sont enseignées des méthodes mixtes, avec des erreurs manifestes. Sur le sujet des manuels de lecture, rien ne bouge. Sous prétexte de liberté pédagogique, le ministère de l’éducation ne s’autorise pas à évaluer les manuels qui lui sont soumis. C’est stupéfiant, c’est comme s’il n’y avait aucune recommandation des autorités sur les médicaments ! D’autant que des recherches récentes suggèrent même qu’on pourrait être plus ambitieux, et commencer l’apprentissage de la lecture dès la maternelle.
Il y aurait aussi un travail important à mener sur l’intuition mathématique chez les enfants de maternelle et de primaire, car c’est en agissant dès les petites classes qu’on peut compenser les difficultés d’enfants issus de milieux défavorisés.
Par ailleurs, plusieurs recherches ont démontré les bénéfices d’une intervention auprès des parents, une approche qui n’existe quasiment pas au sein de l’éducation nationale. Accueillir les parents à l’école pour leur expliquer ce qu’on fait avec leurs enfants décuple l’efficacité pédagogique.

L’intérêt des tablettes et autres outils numériques dans les apprentissages fait l’objet de débats, quelle est votre position ?

En lui-même, l’objet tablette n’a rien de pédagogique, il peut même être distrayant, voire addictif… C’est le contenu pédagogique des logiciels qui est déterminant. Les éditeurs de jeux vidéo savent rendre un jeu attrayant, mais n’ont guère de notions cognitives. Quand nous avons conçu nos deux jeux arithmétiques, la course aux nombres et l’attrape-nombres, nous avons intégré de nombreux principes : la correspondance entre le nombre et l’espace, la notion d’approximation… Ces deux logiciels, ainsi qu’un autre portant sur la lecture, vont être évalués à grande échelle, chez un millier d’enfants en 2017 et autant en 2018. Nous avons d’autres projets de logiciels pour apprendre : un dans le domaine de la géométrie, un autre pour les pays en voie de développement. Il y a là des voies très intéressantes à explorer, qui nécessitent une étroite collaboration entre chercheurs et éditeurs, suivie d’une évaluation rigoureuse.


Propos recueillis par Sandrine Cabut

[Passages soulignés par moi.]

lundi 30 mai 2016

En France, les sciences de l'éducation ignorent les preuves

Source : Atlantico

Entretien avec Franck Ramus 

SOS École : ces sciences de l'éducation qu'ignore superbement la France en se noyant dans un pédagogisme stérile





Coupée de la recherche scientifique internationale en matière de sciences éducatives, la France est à la traîne. Ceci se ressent d'ailleurs à travers ses mauvais résultats dans les différents classements évaluant ses performances éducatives. La conséquence notamment d’une insuffisance de la formation des enseignants qui n'ont pas accès à toute cette littérature publiée en anglais.

Atlantico : Lors d'une conférence organisée par l’université Paris Descartes, vous avez affirmé que la France avait un profond retard en matière d'éducation fondée sur des preuves. Qu'entendez-vous par cette expression “fondée sur des preuves” ?

Franck Ramus : C’est une traduction de l’anglais “evidence-based education”, démarche inspirée de la médecine fondée sur des preuves, “evidence-based medicine”. Une traduction plus juste et moins pompeuse serait “fondée sur des données factuelles”. En médecine, cette démarche s’est développée depuis le XIXe siècle et est maintenant généralisée (en particulier dans l’évaluation des médicaments). Sans elle, les médecins n’avaient aucune évaluation objective de l’efficacité de leurs pratiques, et beaucoup persistaient dans des pratiques inefficaces, voire dangereuses (comme la saignée). Seules des méthodologies rigoureuses (comme l’essai clinique randomisé contrôlé) ont permis de faire le tri entre les pratiques efficaces, qui améliorent objectivement la santé des patients, et les pratiques inefficaces ou équivalentes au placebo.
Mais cette méthode n’est en fait pas propre à la médecine : c’est juste la démarche scientifique appliquée à l’évaluation des pratiques. L’efficacité d’une pratique (médicale, éducative ou autre) est considérée comme une hypothèse, et cette hypothèse est testée en la confrontant à des données issues de l’observation ou de l’expérimentation, rigoureusement collectées et analysées. On peut ainsi conduire de véritables évaluations de l’efficacité de pratiques pédagogiques, et plus généralement, s’efforcer de faire de la recherche en éducation d’une manière totalement scientifique, en confrontant systématiquement les hypothèses et théories à des données factuelles.

Pourquoi ce retard est-il problématique ?

En France, la formation des enseignants est non seulement très insuffisante, mais ses contenus sont en plus très discutables. Les pratiques pédagogiques sont inspirées avant tout par de beaux discours, des philosophies très générales, et des arguments d’autorité (Vygotsky a dit…). Les données factuelles sur “ce qui marche” sont totalement ignorées. Leur existence et leur pertinence elles-mêmes sont ignorées ou dénigrées.
Du coup, les enseignants naviguent à vue. Certains ont du talent et réinventent par eux-mêmes la roue, convergeant rapidement vers des pratiques efficaces. D’autres pas. Certains, soucieux d’améliorer leurs pratiques, se transforment en chercheurs amateurs, tâtonnent pendant des années jusqu’à trouver des pratiques qui leur semblent efficaces. Le problème, c’est qu’ils ne sont pas chercheurs et qu’ils n’ont pas les moyens d’employer une méthodologie rigoureuse leur permettant d’aller au-delà de leurs impressions subjectives et de tirer des conclusions valides. Ce n’est de toute façon pas à eux tous seuls de faire un tel travail.
Les victimes de tout cela, ce sont bien sûr les élèves. Les évaluations nationales et les comparaisons internationales sont là pour nous rappeler les piètres résultats de notre système scolaire, et le fait qu’il est possible de faire bien mieux. 

Vous avez aussi expliqué que le monde de la recherche était déconnecté du monde de l'éducation. À quoi cela est-il du ?

Il y a bien une recherche dans le domaine de l'éducation en France, mais elle est pour l’essentiel très peu scientifique. Elle produit du discours sur l’éducation, mais ne le met pas à l’épreuve des faits. À côté de cela, il y a de la recherche scientifique en psychologie et dans d’autres disciplines pertinentes pour l’éducation, mais les liens entre les disciplines sont ténus.
Les chercheurs en psychologie ne sont pas perçus comme légitimes pour parler d’éducation, et peu d’entre eux s’investissent dans une recherche appliquée à l’éducation. Cette situation évolue, mais très lentement.

L'éducation serait, toujours selon vous, trustée par des “gourous”. Qu'entendez-vous par là ? À qui faites-vous référence ?

Je fais référence à tous ceux qui parlent de l’éducation dans les médias, dans les conférences, dans les livres publiés en français, dans les cabinets ministériels, ceux qui guident les réformes éducatives, qui forment les formateurs, et qui pourtant n’ont même pas connaissance des travaux internationaux sur les sujets sur lesquels ils s’expriment.

Ce retard en matière “d'éducation fondée sur des preuves” est-il un mal typiquement français ? Y a-t-il des pays qui fonctionnent mieux sur ce plan-là, et si oui lesquels ?

Un problème clé est que la recherche internationale ne se publie qu’en anglais, ce qui est totalement accepté dans les sciences dites dures, mais qui, historiquement, rencontre des résistances dans les sciences humaines et sociales, pour de bonnes ou de mauvaises raisons. Du coup, en France, une bonne partie des sciences humaines et sociales vivent en autarcie vis-à-vis du reste du monde. Le domaine de l’éducation est particulièrement touché. Il en résulte que non seulement les travaux français dans ce domaine sont invisibles de la communauté internationale, mais aussi qu’ils ne sont même pas informés des travaux menés ailleurs, ce qui les rend non-pertinents et empêche toute diffusion des connaissances internationales vers les enseignants. Évidemment, les pays anglophones et de langues germaniques n’ont pas ce problème, alors que les pays de langues latines sont traditionnellement plus sous influence culturelle de la France. Les pays asiatiques, eux, ont récemment fait un grand bond en avant et sont maintenant totalement parties prenantes de la recherche internationale.

Comment faire pour pallier ce retard en matière “d'éducation fondée sur des preuves” ?

Il n’y a pas de recette miracle, les progrès ne pourront être que lents. Il faut graduellement relever le niveau d’exigence pour les recherches en éducation, pour le recrutement des enseignants-chercheurs (dans les ESPE comme dans les départements de sciences de l’éducation), pour le financement des projets, jusqu’à atteindre une masse critique d’enseignants-chercheurs en éducation formés à la recherche au niveau international, ce qui fera basculer l’ensemble du système. En attendant de rénover radicalement la formation initiale des enseignants, on pourrait tout de même améliorer leur information, par exemple en traduisant en français les principaux livres de vulgarisation de l’éducation fondée sur des preuves, en produisant des MOOC et autres formations alternatives accessibles à tous les enseignants motivés. Le lien vers les controverses de Descartes pourrait être utile pour ceux qui veulent en savoir plus. Également, le cours de Stanislas Dehaene sur les fondements cognitifs des apprentissages scolaires. 

dimanche 21 décembre 2014

Production et valorisation des savoirs scientifiques sur l’éducation (IFÉ)

Marie Gaussel

Dossier de veille de l'IFÉ, n° 97
12.2014 



« Les sciences de l’éducation doivent constamment justifier leur légitimité (…). Depuis que l’objet éducation est déclaré digne de recherche universitaire, il a accédé à un statut qui soulève plusieurs préoccupations. La première a trait à la terminologie qui encadre les sciences de l’éducation, principalement à cause des différentes disciplines qui les composent et de leurs interactions diverses. La deuxième source de perplexité provient de la nature scientifique, ou non, de critères et des méthodes de recherche retenus et donc de la légitimité de ces sciences. Une troisième interrogation porte sur l’impact sociopolitique que pourraient avoir les sciences de l’éducation et qui jusqu’ici fait défaut. C’est le manque de lisibilité, des problématiques insignifiantes, le manque de liens avec le monde des praticiens pour Avanzini qui en seraient la cause. Le chercheur va jusqu’à qualifier les sciences de l’éducation “d’objet disparate”. »
Après un tel constat initial, on s’attendrait à un éloge du courant de l’Evidence-Based Research qui répond de manière indiscutable aux trois préoccupations définies par l’auteur.

Or, sur les 28 pages du document, l’Evidence-Based Research est torchée en quelques lignes :
« Définir une recherche scientifique de qualité en éducation, soulève là aussi de nombreux débats un peu partout dans le monde occidental. Las du manque de crédibilité d’une science trop confuse, les décideurs souhaitent pouvoir s’appuyer sur des réponses fiables issues de la recherche en éducation. Pour cela, deux questions fondamentales sont soulevées : quels sont les principes d’une recherche en éducation de qualité ? Comment le savoir et les connaissances issus de ces recherches se thésaurisent-ils ? Avec l’avènement du mouvement Evidence-Based Research ou recherche basée sur la preuve (données probantes), les débats s’intensifient et dépassent les cercles scientifiques pour rejoindre les querelles politiques. »
Les données probantes réduites au domaine des « querelles politiques » !

Pour les lecteurs peu informés, un pavé résume en quelques lignes les bases de l’Evidence-Based Research :
« Les trois concepts de l’Evidence-Based Research : 
− baser les politiques et les pratiques éducatives sur les résultats (« preuves ») de la recherche ;
− améliorer pour ce faire la qualité scientifique de la recherche en éducation et en particulier sa capacité à fournir des résultats probants de nature causale sur les activités éducatives (telle intervention produit tel effet) ; 
− privilégier des méthodologies répondant à cet objectif, notamment les démarches expérimentales (ou quasi expérimentales) ainsi que les « revues systématiques de recherches » (ou méta-analyses). »
Et voilà tout…

Et comme l’IFÉ reste fidèle à sa ligne de toujours, le reste du document est une tentative de justification scientifique des travaux habituellement classés au niveau 0 ou 1 dans l’échelle d’Ellis et Fouts. C’est le niveau habituel des “recherches” qui prouvent le bien-fondé des pratiques constructivistes…