
IA à l’école : l’élève qui ne sait pas… ne saura pas s’en servir
HARD RESET : la chronique qui ne résout rien, mais tente quand même.
Il est tentant de croire que l’avènement de l’IA générative rend le savoir scolaire obsolète. Que l’on puisse tout demander, tout obtenir, sans effort. Pourtant, ce fantasme technologique masque une réalité : sans maîtrise des compétences fondamentales, l’IA ne sert à rien. À l’école comme ailleurs, elle n’est utile que pour ceux qui ont déjà les outils pour penser.
Dans les classes de collège et de lycée, les élèves sont de plus en plus nombreux à utiliser ChatGPT, Mistral, Claude ou d’autres assistants intelligents pour réviser, rédiger, comprendre. Mais ce que les enseignants observent aussi, c’est que la qualité des réponses dépend directement de la qualité des questions posées. Or, formuler une question claire nécessite de maîtriser la notion étudiée, d’avoir un vocabulaire précis, et de comprendre ce qu’on attend comme type de réponse.
Prenons l’exemple d’un élève qui utilise une IA pour résoudre un problème de mathématiques. S’il ne sait pas distinguer une équation d’une fonction, ou une constante d’une variable, il ne saura pas quoi demander. De même, un élève qui demande « explique-moi le théorème de Thalès » sans savoir dans quel contexte il s’applique, obtiendra une réponse générique, peu utile. Il faudra qu’il sache contextualiser : « j’ai un triangle ABC rectangle en A, et un point D sur [AB]… ». L’IA récompense la précision, et par conséquent la compréhension.
Il en va de même en français, en histoire ou en sciences. Résumer un texte avec une IA n’a de sens que si l’on sait déjà repérer les idées principales. Évaluer une réponse n’est possible que si l’on sait ce qu’est une erreur de raisonnement ou une mauvaise interprétation. Et corriger une copie avec un outil comme Gradescope n’est productif que si l’on comprend le barème ou les attendus.
L’illusion de la toute-puissance de l’IA masque une exigence nouvelle : l’élève doit monter en compétence pour interagir utilement avec la machine. Cela implique une maîtrise renforcée de la langue, des repères logiques, des codes disciplinaires. L’élève devient actif, mais à condition qu’il dispose d’un socle solide.
L’école ne peut donc pas se contenter d’interdire ou de tolérer les IA. Elle doit enseigner à s’en servir intelligemment : apprendre à rédiger un prompt, à analyser une réponse, à croiser les sources, à détecter les biais, à reformuler une notion mal comprise. Elle doit aussi réaffirmer la place du savoir long, de la culture générale, des automatismes intellectuels. Car c’est ce socle qui conditionne l’efficacité de l’IA comme outil pédagogique.
En 2025, apprendre avec l’IA, ce n’est pas moins apprendre. C’est apprendre autrement, avec plus d’autonomie, plus de discernement, et plus d’exigence intellectuelle. Et si l’école veut rester l’espace où l’on forme des esprits éclairés, elle doit faire de cette hybridation du savoir humain et artificiel une priorité éducative, non un débat de société.