Article de blog
« Maman, j’ai fini mes devoirs ! » – Lorsque les devoirs sont terminés en un rien de temps, cela éveille souvent des soupçons chez les parents : ChatGPT aurait-il donné un petit coup de main ? L’intelligence artificielle (IA) modifie la manière d’apprendre des enfants. Faut-il craindre la fin de la pensée autonome ou considérer cette évolution comme une chance ?
Cela ressemble un peu à une version 2.0 du recopiage. Autrefois, les enfants recopiaient les réponses d’un camarade en prenant le bus le matin, aujourd’hui, il suffit de poser la question à un chatbot. L’attrait est évident : nous aussi, nous nous réjouissions du moment où nous pouvions enfin ranger nos cahiers et crayons, et disposer librement du reste de l’après-midi.
Le problème réside dans ce que l’on appelle le « skill skipping » ou encore le « deskilling » (« déqualification »), c’est-à-dire la perte de compétences, parce que certaines étapes de réflexion sont omises. Car oui, les devoirs ont un sens. Ils aident à approfondir la matière, à exercer la pensée autonome et, lorsque cela devient plus compliqué, à développer l’endurance. Lorsque les élèves rédigent une dissertation, ce n’est pas uniquement le résultat final qui compte : les élèves apprennent à structurer leurs pensées, à trouver des arguments et à s’exprimer avec précision. Lorsqu’ils préparent un exposé, ils doivent évaluer les sources, structurer les contenus et présenter le savoir qu’ils ont acquis de manière à pouvoir le transmettre. En maths, il ne s’agit pas uniquement d’arriver au bon résultat, mais aussi de rendre compte du raisonnement. Le raccourci par l’IA est particulièrement tentant lorsque les enfants et les jeunes sont fatigués, pressés ou dépassés.
Une chose est sûre : interdire l’utilisation de l’IA n’est ni réaliste ni souhaitable. Ce serait manquer une occasion d’apprendre à nos enfants à utiliser ces outils de manière réfléchie.
Certains usages sont tout à fait sensés : les chatbots IA comme ChatGPT, Copilot, Gemini, Claude, etc., peuvent aider à mieux comprendre des textes compliqués en les expliquant avec des mots et des formulations plus simples. Ils peuvent aussi servir de partenaire de remue-méninges ou donner un feedback sur une première ébauche, créer des exercices sur mesure, faire répéter du vocabulaire ou créer un quiz sur un sujet donné.
L’IA devient problématique lorsqu’elle remplace au lieu de soutenir, c’est-à-dire : lorsque les enfants ne pensent plus eux-mêmes, mais recopient aveuglément. L’effet d’apprentissage se perd, et avec lui, la compétence de développer ses propres idées.
À cela s’ajoute le fait que les chatbots sont des modèles de langage basés sur des probabilités. Cela signifie qu’ils « hallucinent » parfois en inventant des faits qui semblent parfaitement crédibles, mais sont totalement faux. Les enfants et les jeunes qui n’ont pas appris à questionner les contenus reprennent les erreurs sans s’en rendre compte. Ils peuvent aussi perdre la capacité à faire la différence entre ce qu’ils ont compris ou non.
Ce qui compte, c’est que les enfants apprennent à utiliser l’IA comme un outil, et non comme un substitut de pensée. Et qu’ils comprennent comment fonctionnent les outils d’IA. Parlez avec votre enfant : Quand est-ce que tu utilises cet outil ? Qu’est-ce qu’il fait pour toi ? Est-ce que tu comprends le résultat ? Ce type de questions forment la base d’une utilisation consciente de l’IA, qui exige aussi d’aborder la question de la protection des données. Votre enfant devrait savoir que des informations personnelles ou des contenus sensibles n’ont rien à faire dans un chatbot IA.
Testez avec votre enfant ce que l’IA est capable de faire et quelles sont ses limites. Si un enfant constate que ChatGPT produit parfois n’importe quoi ou donne des réponses trop superficielles, il sera plus critique à son égard. Et s’il se rend compte que sa propre idée était finalement la meilleure, cela renforcera son estime de soi.
Il est aussi important d’établir des règles claires. Votre enfant devrait comprendre pourquoi il doit faire certains devoirs seul. Et pourquoi dans d’autres cas, il peut se servir de l’aide de l’IA, mais en veillant à ce qu’elle ne prenne pas en charge l’essentiel du travail. Lorsqu’on utilise l’IA, mieux vaut le déclarer clairement : « utilisation de l’IA pour clarifier des termes » ou « pour un retour sur la structure ». Ce type de règles peuvent être élaborées ensemble, idéalement en concertation avec l’école.
Car les écoles sont confrontées à la même question : quelle attitude adopter face à l’IA ? Certains enseignants interdisent son utilisation, d’autres intègrent consciemment ces outils dans leur enseignement. Et, comme pour chaque outil, tout dépend de l’usage que nous en faisons. L’autonomie et la créativité demeurent aussi essentielles que l’esprit critique.
Bettina Bichsel est journaliste et rédactrice. Elle écrit et blogue pour Jeunes et Médias, parmi ses diverses activités.
Dernière mise à jour du texte le 21.03.26