par Romain Gény
Comme chaque année au printemps, quelques semaines avant les demandes d’affectation des élèves de 3e en seconde, le ministère publie les indicateurs de résultat des lycées, et comme chaque année, la presse en fait des « palmarès » et des « classements ».
On est là dans une des parties les plus visibles de la mise en concurrence volontaire des établissements et des personnels, dans le traitement de l’école comme si c’était une entreprise dont on mesurait la « performance ».
Le MEN se dédouane en écrivant qu’ « il serait dangereux de n’utiliser qu’une partie de ces indicateurs sans en fournir les termes pour établir des palmarès ou faire des comparaisons ».
Mais alors pourquoi publier ces chiffres ? Pourquoi rendre disponibles les résultats synthétiques de tout un département ? Quel est le but, si ce n’est de faciliter la fabrication de ces palmarès, et donc de favoriser la logique de concurrence ?
1 : les données du ministère
Aussi scientifiques qu’ils se prétendent être, ces « indicateurs de résultat » posent de gros problèmes de méthode.
Signalons les plus graves :
– Les calculs reposent sur des effectifs généralement beaucoup trop faibles pour pouvoir faire sérieusement des pourcentages. Dans un lycée de taille importante présentant 300 élèves au bac, les résultats d’un élève seul font varier le taux global, et donc la valeur ajoutée, de 0,3 points, ce qui est beaucoup trop. Dans un lycée de petite taille, présentant 100 élèves au bac, un élève fait varier les résultats de... 1 point ! C’est statistiquement inacceptable : pour faire des pourcentages, il faut des échantillons importants, pour ne pas que le hasard ou l’accident prennent un trop fort poids dans les résultats. Que penser alors de la valeur ajoutée calculée sur chaque série de bac, avec des effectifs de référence de... 30, 40 ou 50 élèves ? Quelle valeur ont ces chiffres ? Ces modes de calcul ne faussent-ils pas, par exemple, les résultats entre grands et petits lycées ?
– Par ailleurs, les résultats varient très sensiblement d’une année sur l’autre, mais le ministère ne donne pas de perspective globale sur plusieurs années, qui seule pourrait avoir un semblant de rigueur, avec un échantillon d’une taille honnête.
– Les lycées qui ont des flux d’élèves importants (travail sur l’orientation amenant des élèves à aller chercher ailleurs la filière de leur choix, zones où les déménagements sont fréquents, politique d’échange de redoublants, impossibilité d’accueil des doublants en cas d’effectifs chargés etc.) sont systématiquement pénalisés, car l’"accompagnement des élèves" au sens "garder les élèves dans l’établissement" n’est pas assuré. D’où un effet négatif sur le « taux d’accès de la 2de au bac », qui n’est pourtant pas le résultat d’une sélection des élèves, contrairement à ce qui peut se passer dans le privé.
Ainsi, ces indicateurs de valeur ajoutée sont très délicats à manier. Il ne suffit pas de raffiner la méthode et les indicateurs : les problèmes de rigueur, dont on n’a signalé que quelques exemples criants, restent beaucoup trop nombreux pour faire un usage sérieux de ces « résultats ».
2 : les classements de la presse.
Quant aux classements de la presse, ils sont encore plus critiquables dans leur construction même. Rappelons que les données du ministère mettent à disposition 5 indicateurs possibles pour chaque lycée :
– le taux de réussite au bac
– le taux d’accès de la 2de au bac
– le taux d’accès de la 1re au bac
– le taux de bacheliers dans les sortants de tous niveaux
– le taux de bacheliers dans les sortants de terminale
Pour chacun de ces indicateurs, il y a en outre deux façons de mesurer : on peut prendre le taux brut, ou taux constaté, ou on peut prendre la « valeur ajoutée » (différence entre le taux constaté et le taux attendu en fonction des caractéristiques des élèves).
Cela implique donc que, pour chaque établissement, il y a 10 chiffres disponibles pour « classer », 10 critères de « rangement ». La presse, si elle était sérieuse, devrait donc publier 10 classements, sur 10 pages ou pendant 10 jours de suite. Elle en publie... un parmi les 10 possibles... Pourquoi celui-là et pas un autre ? Mystère... Quelle valeur ? Quelle rigueur ? Aucune.
3 : à qui profite le crime ?
Construire des outils qui permettent aux équipes pédagogiques d’analyser leur travail, de réfléchir collectivement et sans pression à leurs pratiques pour améliorer la réussite des élèves, serait une démarche intéressante et positive. Mais est-ce là l’intention du ministère ? En Finlande, pays souvent cité en référence, des indicateurs de ce genre sont réalisés, mais uniquement communiqués à chaque établissement concerné, pour éviter la mise en concurrence et les « palmarès ».
Les « palmarès » que rendent possibles ces résultats participent de la nouvelle idéologie du « libre choix » des parents. Mais, sans insister sur les dangers de cette vision de l’école comme « bien de consommation », les enquêtes montrent que les parents qui « choisissent » - qui restent minoritaires dans la population – ne se servent pas de ces palmarès : ils se fondent sur le bouche-à-oreille, sur les rumeurs, sur ce que leurs connaissances leur disent de tel ou tel établissement.
Il est évident alors que l’établissement de « palmarès » particulièrement contestables n’est qu’un outil de plus dans le nouveau « pilotage » de l’éducation nationale par la mise en concurrence généralisée des établissements et des personnels (à relier aux « contrats d’objectifs et de moyens » qui fleurissent en ce printemps). Il ne s’agit pas de donner « plus d’informations » aux parents (au lieu de faire en sorte que le service public fonctionne normalement sur tout le territoire) : il s’agit de « mettre la pression » aux agents du système éducatif. Or on sait maintenant que cette mise en concurrence n’améliore pas les résultats : au contraire, elle tend à les faire diminuer, et elle semble même être néfaste pour tous les élèves, de tous « niveaux ». Sans parler des conséquences pour les personnels d’une pression aux « chiffres » et aux « résultats » qui fait perdre le sens du travail, et dont on a vu les conséquences humaines dans certaines entreprises publiques ou privatisées récemment.
Le SNES-FSU condamne donc la démarche du MEN, absolument pas guidée par le souci d’améliorer la qualité du service public d’éducation, tout comme il récuse ces « classements ».