Pourquoi le Direct Instruction suscite-t-il un tel ressentiment ? (3e partie) Imprimer Envoyer
Pédagogie Explicite - Direct Instruction
Écrit par Kerry Hempenstall (trad. Françoise Appy)   
Mercredi, 09 Avril 2014 15:38

Il s'agit de la traduction (avec la permission expresse de l'auteur)
de l'article de Kerry Hempenstall :

Why does Direct Instruction evoke such rancour?

Traduction : Françoise APPY

Pourquoi le Direct Instruction suscite-t-il un tel ressentiment ?

3e partie

 

L'épouvantail du DI fait peur aux constructivistes

 

Les scripts et les erreurs humaines

Récemment, je regardais un programme appelé La vie, la mort et les erreurs, qui portait sur ​​l'erreur humaine dans divers domaines, et quelles mesures différentes professions commencent à adopter pour réduire l'impact des facteurs humains sur les performances. Cela  m'a donné à réfléchir sur les scripts pédagogiques qui sont une partie importante des programmes DI.

J'ai été frappé par la façon dont les autres professions, loin de prendre ombrage des protocoles et des listes de contrôle, ont appris à compter sur eux. Le programme montrait leur utilisation par des pilotes d'avion en cas d'urgence, par des équipes chirurgicales en situations de crise, par des pompiers en milieu dangereux, lors de transferts médicaux  post-opératoires, dans les équipages de Formule 1 ;  tous font usage de ces stratégies visant à réduire l'erreur humaine, à sauver des vies (les leurs et celles qu’ils ont en charge), et à accroître leur efficacité. A aucun moment, on ne mentionne que la créativité des individus est étouffée, ou que leur travail est devenu humiliant. En fait, nous voyons une  satisfaction accrue, un stress plus facile à gérer, car les personnes savent qu’elles n’ont pas à improviser. Fait intéressant, les protocoles et les listes de contrôle sont couramment utilisés dans les écoles et les districts qui ont adopté le programme Response to Intervention, dans le cadre de prévention de l'échec scolaire.

C'est peut-être la direction à prendre en éducation aussi. Comme toutes les professions, les enseignants sont faillibles, et donc sujets à l'erreur humaine. La question est de savoir comment réduire les erreurs dans l’organisation en général, pas uniquement pour la gestion des situations d'urgence. Comme par exemple dans l’enseignement. Autrefois, la diversité en enseignement était considérée comme une qualité à promouvoir. Je me souviens, à Victoria, à l’époque de la toute puissance de la méthode globale, on donnait des subventions à l'innovation aux enseignants qui concevaient une façon différente de faire. En tant que psychologue scolaire, j'ai vu dans des classes certaines de ces innovations mises en  pratique. C’était pour la plupart des freins à l’enseignement, mais certaines théories dominaient sans qu’il ne semble nécessaire que l’on s’interroge sur leur efficacité en matière de résultats auprès des élèves. J'avais demandé une subvention pour utiliser la méthode Corrective Reading dans une école secondaire locale, car elle n'avait jamais été utilisée dans la région à cette époque. La demande fut rejetée parce que l’on affirmait que le Direct Instruction était disqualifié et on le disait  inapproprié aux élèves.

Un commentaire dans ce programme télé La vie, la mort et les erreurs attira mon attention, voici en substance, ce qu’il disait : « C'est l'idée de standardiser tout ce que l’on peut, et de ne devoir improviser que dans des circonstances imprévisibles.Cette garantie est ce qui rend notre travail meilleur. » Observez le contraste entre ce modèle et le modèle (jadis) populaire de la méthode globale, soutenant que vous devez enseigner dans l’instant, en réagissant de manière appropriée (mais invariablement brillante) à chacun des besoins des élèves.

 

EBP (Evidence Based Practice) en médecine et en psychologie

Durant les années 1990, alors que la pratique fondée sur les preuves (EBP) en médecine était débattue, l'American Psychological Association (Chambless & Ollendick, 2001) introduisit le terme traitement soutenu empiriquement comme un moyen de mettre en évidence l'efficacité de la psychothérapie différentielle. Avant cette date, de nombreux psychologues se considéraient comme praticiens d'un métier dans lequel la compétence est le fruit d’une combinaison de qualités personnelles, d’intuition et d’expérience. Le résultat était une extrême variabilité de l'efficacité chez les praticiens, ce qui est aussi un problème manifeste dans le domaine éducatif. La proposition consistait à concevoir un moyen d’évaluation des thérapies relatives à divers problèmes psychologiques, afin que les praticiens puissent les utiliser comme un guide dans leur pratique.Les critères pour qu’un traitement soit considéré comme correct nécessitaient que l’efficacité soit établie au moyen de deux études sur des résultats cliniques contrôlés ou sur une grande série d'études de cas isolés contrôlés. On insistait également sur les notices de traitement pour garantir la fidélité au traitement, et la fourniture de caractéristiques des patients clairement définies pour l'étude en question. Un deuxième niveau comprenait des critères relatifs à des traitements probablement efficaces. Ces critères nécessitaient moins d'études et / ou des normes moins rigoureuses. La troisième catégorie comprenait  les traitements expérimentaux - ceux n’ayant pas de preuves suffisantes pour être considérés comme efficaces.

Il existe des similitudes évidentes entre ces exigences de traitement et les critères d'acceptabilité pour les études exigées par les organismes d'évaluation tels que le What Works Clearinghouse.

Les praticiens affichaient une forte résistance envers l'adoption de l’Evidence Based Practice dans les domaines de la médecine et de la psychologie.Cependant, les principes furent adoptés dans ces professions depuis le début des années quatre-vingt-dix, une nouvelle génération de praticiens y a été formée et ils ont été largement acceptés comme norme habituelle. Cela s'est produit chez la plupart des jeunes praticiens parce que leur formation a mis l'accent sur ​​l’importance de la preuve dans une pratique compétente. La notion de traitements standardisés leur est maintenant familière. Cela ne veut pas dire que les principes de l'Evidence Based Practice sont toujours respectés dans la pratique. Les plus anciens, en tant que groupe, sont moins enclins à accepter des changements. « Nous savons souvent que quelque chose ne fonctionne pas, mais il y a des milliers et des milliers de médecins qui ont appris certaines procédures et c'est tout ce qu'ils font ... l'évolution des croyances et le comportement des cliniciens, même face à des preuves crédibles, reste un défi » (Medew, 2012, p 5).

Il est prouvé que de nombreux enseignants écartent cette approche dans l'enseignement de la lecture (Cunningham, Perry, Stanovich, et ​​Stanovich, 2004 ; chef-Janssen & Rankin-Erickson, 2013 ; Spear-Swerling, Brucker, & Alfano, 2005), parce que ni leur formation initiale ni leur formation continue ne les a préparés à cela. En enseignement, l'équivalent du traitement standardisé est l’enseignement par script, qui a été raillé par beaucoup, comme nous l’avons évoqué précédemment. Comme nous l'avons vu, il y a une grande différence avec d'autres domaines dans lesquels les avantages sont apparus immédiatement, et l’ont emporté sur la résistance, compréhensible quand il s’agit de changer de pratique.

 

Changement d'attitude

Il est intéressant de noter que de nombreux enseignants en Direct Instruction ont oublié  leur ancien inconfort à la perspective de l'efficacité de l'approche. Ainsi, leur attitude a changé par leur expérience et celle de leurs élèves, selon de nombreux sondages (Bessellieu, Kozloff, & Rice, 2001 ; Cossairt, Jacobs, & Shade, 1990 ; Gersten, Carnine, et Cronin, 1986 ; Gervase 2005 , Mains, 1993 ; Proctor 1989).

Par exemple :

« Gersten et al. (1986) ont évalué les perceptions des enseignants et assistants par rapport à un programme de Direct Instruction. Les enseignants ont été interrogés à la fin de la première et deuxième année de mise en œuvre. Au début, les enseignants étaient préoccupés par le niveau élevé du progamme, laissant peu de place à des activités amusantes et ont estimé que les leçons scriptées étaient trop mécaniques. Au moins la moitié des enseignants estimaient que leur philosophie d'enseignement était en conflit avec celle du Direct Instruction. Au milieu de l'année, Gersten et al. ont constaté qu’à la fin de la deuxième année d’implantation, tous les enseignants sauf un étaient d’accord avec les objectifs fondamentaux du Direct Instruction comme un programme éducatif pour les élèves défavorisés. » (Gervais, 2005, p 26-27)

 

Quel est l'avenir des revues de recherche systématiques comme celles collectée par  WWC (What Works Clearinghouse) [1] ?

La question des revues de recherche comme celles menées par WWC, ne considérant que les recherches gold standard [2] a créé un nouveau problème pour l’enseignement basé sur les preuves. Il y a tellement peu d'études répondant aux critères à l'heure actuelle, que la validité externe est devenue une question compliquée, même si les études sont de type gold standard.

La pierre d'achoppement soutenant que seule la grande échelle et des études méthodologiquement sophistiquées sont utiles, doit être éliminée. Il existe des alternatives: une seule étude impliquant un petit nombre d'écoles ou de classes peut ne pas être concluante en soi, mais beaucoup de ces études, faites de préférence par de nombreux chercheurs dans une variété d'endroits, peut améliorer le niveau de confiance sur la validité des effets d'un programme (Slavin, 2003). Si on obtient des effets positifs similaires sur une intervention dans différents contextes et avec divers personnels, il y a lieu de donner la priorité à une étude à grande échelle gold standard. Il existe un énorme corpus de données considérées comme impropres à l’utilisation. Cela constitue un grand  gaspillage qu’il n’y ait pas aujourd’hui de méthodes d'analyse capables d’utiliser ces études.

Il est important que les questions de validité et de fiabilité des revues de recherche systématiques soient analysées en continu, et ce processus a pris de l'ampleur. Les critiques ont été nombreuses: les critères de ce qui constitue une recherche acceptable; la lenteur dans la production des évaluations ; des incohérences dans l'application des normes pour ce qui constitue une recherche acceptable; ​​l'inclusion des études n’ayant pas été examinées par des pairs ; et l’échec à s’occuper de la fidélité d’implantation dans les analyses WWC.Cette dernière critique peut être contenue dans une critique plus large qui dit ignorer la validité externe ou la généralisation dans les revues.

« Le point sur les synthèses doit être mis sur ce qui a fonctionné, c'est-à-dire les programmes pour lesquels il existe des preuves d'un effet global, valable en interne. Je dirais que ces éléments de preuve, bien que certainement importants, sont nécessaires mais non suffisants pour les parties prenantes influençant les politiques éducatives. Ce que le directeur d'un district scolaire veut savoir, n’est pas tellement ce qui a fonctionné, mais ce qui fonctionnera. Pour être pertinente, une bonne synthèse devrait fournir aux décideurs un guidage explicite sur l'efficacité du programme, lequel devrait être adapté à des contextes éducatifs spécifiques: quand et où un programme donné pourra fonctionner ? Pour qui marchera t-il ? Dans quelles conditions sera –t-il le plus efficace ? Pour que les inférences causales soient véritablement valables, à la fois l’estimation et la généralisation causales devraient avoir une égale importance. » (Briggs, 2008, p 20)

La question  ici est qu’alors que tout RCT [3] peut fournir le meilleur rempart contre les menaces à la validité interne, l'acceptation de petite échelle et de brefs RCT crée une forte menace à la validité externe. Ainsi, les revues de grande échelle ont leurs propres problèmes à régler avant de pouvoir être largement acceptées comme la voie royale vers la vérité. En outre, il peut également se passer un certain temps avant que les recherches gold standard atteignent une masse critique permettant de prendre plus facilement des décisions au sujet de la pratique.

On s’est aussi demandé si la recherche en éducation pouvait utiliser des essais contrôlés randomisés, aussi souhaitable que cela puisse sembler. L’un des problèmes est le coût élevé d'une telle recherche et l’absence de financement possible.Par exemple, le DOE [4] américain dépense environ 80 millions de dollars par an dans la recherche en éducation, alors que le Département des services de santé des États-Unis dépense environ 33 milliards de dollars par an pour la recherche médicale. En Australie, alors que les budgets pour la prestation de services de santé et d'éducation sont à peu près similaires, le financement de la recherche médicale est environ 16 fois plus important que pour la recherche en éducation (Australian Bureau of Statistics, 2010). Une autre question concerne les limites de la justesse  méthodologique dans la recherche en éducation. On ne peut pas systématiquement choisir des élèves au hasard dans les écoles comme on peut le faire dans d’autres domaines, comme dans les thérapies individuelles en médecine et en psychologie. Ainsi, les essais randomisés contrôlés ont sans doute peu de chances de jamais former l’essentiel de la recherche en éducation.

Une réponse possible à ce dilemme est l'attention désormais accordée à l’étude de cas uniques comme possible complément valable et réalisable aux essais randomisés contrôlés, en essayant de documenter ce qui fonctionne dans les milieux éducatifs. « L'ajout de modèles statistiques pour l'analyse d’études de cas uniques, en particulier la taille d'effet, offre un potentiel considérable pour accroître l'utilisation de la recherche de cas unique dans la documentation de traitements empiriquement soutenus (Parker et al, 2007 ; Van den Noortagate & Onghena, 2003) » (Horner, Swaminathan, Sugai, et Smolkowski 2012, p 271). En reconnaissance de ce potentiel, le WWC a publié un document sur les cas uniques, en fournissant des normes WWC pour une évaluation de toute étude de cas unique (Kratochwill et al., 2010). Dans une réponse globalement favorable, Wolery (2013) offre un certain nombre de suggestions pour l'amélioration de cette première tentative.

Fait intéressant, au début de 2013, le WWC a accepté de reconsidérer ses politiques et procédures, et a demandé aux groupes / personnes intéressés de faire des observations. Aucune annonce n'a encore été faite.

Alors, où en sommes-nous ? Au moins deux points de vue ayant été mis en avant sont dignes d’être suivis. O'Keefe et al. (2012) reconnaissent que le système actuel doit être amélioré, mais ils restent optimistes :

« Un traitement soutenu empiriquement est une innovation relativement récente dans l'enseignement et les méthodes pour effectuer des examens efficaces pour les identifier n’en sont qu’à leurs balbutiements. Nous fondant sur notre expérience dans la comparaison de ces systèmes de contrôle, nous croyons que les méthodes d'étude peuvent et doivent continuer à se développer. Il y a encore un grand besoin d’élaborer des méthodes d'étude pouvant bénéficier d’un plus grand nombre de recherches mais pouvant  fournir des recommandations dans lesquelles les praticiens peuvent avoir un degré de confiance élevé. » (p 362)

En revanche, Greene (2010) considère toute l'entreprise de révision d'un œil plus cynique, et exhorte les consommateurs à se fier à leurs propres ressources.

« Nous ne pouvons faire autrement que de trier les éléments de preuve et d'essayer de comprendre ces choses nous-mêmes. Nous pouvons compter sur l'expertise des autres pour nous aider à trier les demandes concurrentes, mais nous devrions toujours le faire avec prudence, puisque ces experts peuvent se tromper ou être trompés. » (Greene 2010, § 15)

Compte tenu de ce qui s'est passé jusqu'ici, il semblerait prématuré pour les enseignants, les écoles et les décideurs de l'éducation de fonder leurs décisions uniquement sur les résultats des revues systématiques telles que celles du WWC. La question Y a t-il des raccourcis pour distinguer le bon grain de l’ivraie ? semble rester en suspens en l’état actuel des choses. Cette situation est regrettable car il semble y avoir une reconnaissance croissante de la pratique fondée sur des preuves comme nouvelle orientation éducative.

Donc le Direct Instruction continue son chemin, et avec un plus grand soutien organisationnel que dans les premières années avec le National Institue for Direct Instruction (NIFDI), et l'Association pour le Direct Instruction (ADI) en particulier. Il a grandi à partir d’une petite série de programmes pour le développement des habiletés de base jusqu’à une série importante allant de programmes relatifs à des compétences d'ordre supérieur, par exemple, l'analyse littéraire, la logique,  la chimie, la lecture critique, la géométrie et les sciences sociales. On a utilisé la technologie par l'enseignement  assisté par ordinateur, par des réseaux à faible coût et des didacticiels vidéo, et en utilisant le modèle pour des langues autres que l'anglais.

Il est très probable que le Direct Instruction continuera d'être un modèle viable et productif, mais il reste encore un point d'interrogation sur l'étendue de l'adoption par le système scolaire. Le principal obstacle demeure son manque d'attrait pour de nombreux éducateurs et le faible nombre des classes qui l’adoptent. Il y a plus de trente ans, Maggs et White (1982) écrivaient en exprimant leur désespoir, « Peu de professions sont autant ancrées dans la mythologie et moins ouvertes à des conclusions empiriques que ne l’est celle des enseignants » (p 131). Dans la même décennie, Ruddell et Sperling (1988) exprimaient  une préoccupation générale sur l'écart entre les résultats des recherches sur la littératie et la pratique des enseignants. Ils appelaient à des recherches visant à découvrir pourquoi les pratiques prouvées empiriquement sont « écartées, sapées, ou ignorées dans les classes » (p 319). On trouve aujourd’hui le même ressenti. Pour en savoir plus sur la pratique fondée sur des preuves, voir : http://www.adihome.org/adi-blog/entry/first-blog

L'inquiétude au sujet de l'écart entre la recherche et la pratique a été exprimée depuis longtemps. Roger (1983, cité dans Ruddell & Sperling) a affirmé qu'il y a souvent une période de 25 à 35 ans entre la découverte de la recherche et sa mise en œuvre sérieuse. De toute évidence, ce moment devrait donc arriver d’un jour à l’autre.

 

Voir la 1ère partie

Voir la 2e partie

 

Voir les références

 


[1] . Créé en 2002 à l’initiative de l’Institue for Education Sciences (IES) du département américain d’Education afin de constituer une base de données des études fournissant des données probantes et fiables sur l’efficacité de telle ou telle pratique. Site : http://ies.ed.gov/ncee/wwc/default.aspx

[2] . En médecine ou en statistique, un gold standard est un test qui fait référence dans un domaine pour établir la validité d'un fait.

[3] . Randomized controlled trial ou essai randomisé contrôlé : type d’étude scientifique utilisé au départ en médecine, c’est le gold standard relatif aux essais cliniques.

[4] . Department of Education.

 
 
Une réalisation LSG Conseil.