Le ministre l’a dit : il nous faut entrer dans la « culture de l’évaluation ». Mais le personnel politique est-il si bien placé que cela pour faire la leçon aux enseignants en matière d’évaluation ?
Le néomanagement public théorise le rôle de l’évaluation comme celui de la carotte : vouloir la meilleure évaluation possible conduirait les personnels à une saine émulation et à une augmentation de la qualité du travail fourni. Dans la pratique, quel que soit le secteur d’activité, les faits sont têtus et montrent toujours les mêmes effets pervers : une détérioration des relations de travail au sein des équipes et la mise en place de systèmes visant à atteindre à tout prix les objectifs au détriment du travail bien fait.
Dans l’éducation, les tests standardisés sont un des outils de ces politiques. Aux États-Unis, ces trente dernières années ont conduit à différentes dérives. La multiplication des évaluations a rogné les temps d’apprentissage. Les établissements étant subventionnés sur la base des résultats de leurs élèves, ils ont pour certains adapté leur enseignement et leur recrutement à la seule réussite des tests.
Dans les États où les enseignants sont jugés aux progrès de leurs élèves, les évaluations sont parfois devenues des outils de carrière, et non plus de pédagogie. Le caractère public des résultats a mis en concurrence les établissements et les personnels, renforçant les inégalités sociales et de territoire. Les travaux scientifiques ont fini par prouver que l’utilisation massive des évaluations des élèves pour évaluer autre chose que leur niveau a des effets contre-productifs sur la qualité de l’enseignement et, au final, sur leurs résultats.
Et pourtant, des outils existent
En France, la Direction de l’évaluation, de la prospective et de la performance (DEPP), service statistique du ministère, utilise des échantillons représentatifs d’élèves pour estimer les résultats du système dans son ensemble (voir par exemple les études disciplinaires CEDRE). Elle combine aussi les résultats du DNB et du baccalauréat avec des données sociales pour construire les Indicateurs de valeur ajoutée des lycées (IVAL), induisant des classements qui font chaque printemps la Une des magazines.
Cet indicateur est statistiquement fragile : comment juger du travail d’un lycée dans une série sur la base des résultats de quelques dizaines d’élèves ? Les aléas dans les « classements » des établissements où les équipes sont stables et où il n’y a pas de raison que la qualité de leur travail varie significativement, prouve bien la marge d’erreur de l’indicateur. Pourquoi n’est-elle pas rendue publique ? Par ailleurs, le Conseil national d’évaluation du système scolaire (CNESCO) conduit diverses évaluations qualitatives adossées à des travaux de recherche et à des comparaisons internationales.
La camisole évaluative
Il faut croire que DEPP et CNESCO ne suffisent pas… Le ministre voudrait maintenant évaluer, ou plutôt classer, les équipes en vue de l’attribution de primes, sur la base des résultats de leurs élèves. Alors que les collèges sont de petits établissements, que 20 % des collégiens en changent durant leur scolarité, et que le renouvellement des équipes peut être important, quel indicateur de valeur ajoutée pourrait bien avoir une quelconque fiabilité ? Et quels effets pervers sur les équipes ?
A été annoncée cet été la création début 2019 d’une « instance d’évaluation » pour « assurer une évaluation régulière et transparente des établissements scolaires ». L’école de la confiance serait donc celle de la camisole évaluative. Au-delà du climat délétère auquel ces mesures risquent de conduire dans les établissements, au-delà des moyens consacrés à évaluer l’inévaluable – et qui seraient mieux investis ailleurs –, se profile la question de fond.
En quoi mettre une pression évaluative sur les personnels et les établissements serait-il en France un facteur d’amélioration de la qualité de l’enseignement, alors que cela n’a pas marché ailleurs ? Idéologie quand tu nous tiens…