Si toutes les conditions sont réunies, cela peut constituer une base pour de nouvelles activités d’apprentissage. En effet, selon ce spécialiste des sciences de l’éducation, titulaire d’un doctorat dans le domaine des technologies numériques d’enseignement et d’apprentissage, « les compétences d’utilisation, c’est-à-dire savoir comment utiliser un outil de façon efficace, c’est une chose. Avec des IA, cela nécessite une compréhension technique et méthodologique afin de savoir comment formuler une bonne question. Au-delà de ça, il est également important d’approfondir la réflexion et de développer une compréhension globale : qu’est-ce qu’un algorithme ou, dans le cas de l’IA, un algorithme doté d’une capacité d’apprentissage ? Comment fonctionne-t-il ? Quelles sont ses possibilités et ses limites ? »
En ce qui concerne ChatGPT, le problème réside surtout dans le fait que l’outil ne fournit pas d’indications claires sur ses sources (même sur demande) et qu’il n’est pas rare que le résultat soit purement et simplement erroné. OpenAI l’indique même sur sa page d’accueil. Ici, disposer de compétences médiatiques, c’est savoir comment vérifier les faits et distinguer les sources dignes de confiance (pour en savoir plus, consultez notre rubrique → Fake news et manipulation).
À l’école, un nouvel exercice pourrait consister à demander aux élèves de rédiger un texte à l’aide de ChatGPT, puis d’analyser le résultat : est-ce que ce qui est écrit est juste ? La structure du texte et des phrases est-elle bonne ? L’histoire se tient-elle ?
Car même si l’on peut demander au logiciel de formuler sa réponse de façon plus « humaine » et que les systèmes de reconnaissance ne peuvent pas distinguer de manière fiable si un texte a été écrit par une IA ou par une personne, Beat Schwendimann estime que ChatGPT a une faiblesse : « Au fond, il n’est pas intelligent. C’est simplement une machine à écrire très efficace, mais qui ignore pourquoi elle agence de cette façon les mots qu’elle utilise. »