
Dans un entretien de février 2025, la Ministre E. Borne a lancé avec un certaine emphase que la présence accélérée des IA dans nos sociétés devait entraîner une « révolution de nos façons d’apprendre et d’enseigner ». Une révolution légitimant toute une série d’annonces : formation pour les personnels et les élèves (obligatoires pour ces derniers à travers des modules PIX), généralisation d’une expérimentation de chatbot pour gérer les Ressources Humaines (beau symbole !), nouveaux partenariats avec la EdTech pour multiplier des « outils » à destination des élèves et des enseignant·es. La ministre a aussi promis une enveloppe de 20 millions d’euros pour créer une IA destinée à « aider » les collègues, à leur faire « gagner du temps » (conception de cours et d’évaluations, corrections, remédiation, etc.). Dans le même temps, le Ministère tente de faire adopter dans la précipitation une « charte d’usage » de l’IA en éducation organisant l’accompagnement, l’appropriation ou encore l’acculturation de tous les personnels et usagers de l’école.
Pourtant, plusieurs études scientifiques récentes tendent à montrer que l’usage des IA est corrélé à un affaiblissement des apprentissages ou de l’esprit critique1. Ainsi, une étude menée sur près de 1 000 lycéen·nes aux États-Unis entendait voir si l’usage d’assistants par IA favorisait les apprentissages en mathématiques. Les données récoltées indiquent que les résultats des élèves assisté·es par une IA s’élèvent à court terme, mais se détériorent sensiblement dès que la « béquille » GPT leur est enlevée, et deviennent inférieurs à ceux des élèves n’ayant pas disposé de l’assistance d’une IA. Il semble qu’après un usage dans un premier temps précautionneux, les élèves assistés cessent de vérifier ce que leur propose l’IA en baissant la garde de leur esprit critique. Rapidement donc, leurs apprentissages seraient en quelque sorte délégués à la machine.
C’est que les IA, en mimant en un clic un travail scolaire, court-circuitent ce que sont profondément les apprentissages : des chemins qu’il faut savoir parcourir, souvent lentement et en tâtonnant, afin de se les approprier, d’être capables de les parcourir à nouveau de manière autonome. Utiliser des IA permet peut-être de « gagner du temps », mais certainement pas de savoir s’orienter dans la pensée. Elles incarnent en cela le strict inverse du projet d’émancipation que devrait proposer l’école.
Voilà qui devrait alerter l’ensemble de la profession et qui pousse le SNES-FSU a défendre un principe de précaution dans l’usage des IA en éducation.
—
1 Par exemple Bastani (et alii), « Generative AI Can Harm Learning », The Wharton School Research Paper, juillet 2024 http://dx.doi.org/10.2139/ssrn.4895486, ou encore Lee (et alii), « The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers », CHI Conference on Human Factors in Computing System, 2025, https://advait.org/files/lee_2025_ai_critical_thinking_survey.pdf