Intelligence artificielle Pédagogique Point chaud / en émergence

IA et université : comment éviter que les étudiants « pensent moins » ?

L’arrivée rapide de l’IA générative en contexte universitaire soulève une inquiétude légitime : les personnes étudiantes apprennent-elles vraiment lorsque l’IA fait une partie du travail à leur place ? Un article récent propose une réponse nuancée à cette question en introduisant une « pyramide cognitive de l’IA ».

Le nœud de l’affaire : qui fait l’effort cognitif ?

Il ne s’agit plus seulement de se demander si l’IA est utilisée, mais plutôt comment elle est utilisée et qui effectue le travail intellectuel.

Avant l’IA, une personne étudiante effectuait quotidiennement les activités suivantes:

  • Produire des idées ou des réponses de leur cru
  • Évaluer les informations obtenues sur « les zinternets » de manière critique
  • Fournir un effort mental soutenu

Or, la question se pose : si ces tâches sont désormais prises en charge en totalité ou partiellement par les outils d’intelligence artificielle, la personne étudiante s’engage-t-elle moins cognitivement?
La réponse d’Inara Scott (2026)? Ça dépend.

Une pyramide pour situer les usages

Le modèle proposé par Scott (2026) expose cinq rôles de l’IA, du plus problématique au plus intéressant pédagogiquement :

  • Exécutant : le travail est complètement délégué à l’IA (0 % de contribution de l’humain)
  • Guide : l’IA guide, suggère des pistes sans donner la solution, effectue certaines étapes (25 % IA, 75 % humain)
  • Critique : l’IA offre une rétroaction sur le travail produit entièrement par la personne étudiante (25 % IA, 75 % humain)
  • Générateur : la personne étudiante analyse et critique des contenus générés par l’IA (50 % IA, 50 % humain)
  • Avocat du diable : l’IA remet en question les idées de la personne étudiante, qui doit argumenter et ajuster sa pensée (50 % IA, 50 % humain)

Plus on gravit les marches de cette pyramide, plus la personne étudiante est active intellectuellement, mais pas nécessairement parce que l’IA produit moins. C’est parce que les compétences mobilisées par l’humain (analyse, création) sont plus complexes.

Le fameux piège du « délestage cognitif »

Ce modèle met aussi en lumière un phénomène craint comme la peste noire dans les universités : le délestage cognitif, soit le fait de confier à un outil des tâches que l’on pourrait réaliser soi-même (courriels, synthèses, reformulations d’idées, etc.).

Historiquement, la délégation de tâches à la technologie n’a pas toujours été catastrophique. Par exemple, utiliser une calculatrice pour faire une opération simple a permis de libérer des ressources pour produire des raisonnements plus complexes. En revanche, il est vrai que les membres de la jeune génération peinent désormais à remettre la monnaie exacte lorsqu’ils travaillent comme caissières ou caissiers. Avec l’IA, le risque est d’autant plus grand, puisqu’on lui délègue plus qu’une simple addition ou une soustraction, on lui délègue des tâches complexes (écrire des textes, structurer la pensée, analyser, comparer, etc.).

Les dangers qui guettent les personnes étudiantes sont bien réels : des travaux bien présentés, oui, mais seulement une impression de compréhension et une maîtrise très superficielle des notions à long terme.

Ce que ça change pour l’enseignement

Plutôt que d’interdire ou d’autoriser complètement l’IA, la pyramide invite à repenser la conception des activités pédagogiques. Voici deux pistes concrètes :

  • Tester les usages « exécuteurs » : posez-vous la question. Une personne étudiante pourrait-elle réaliser cette tâche en soumettant vos consignes à l’IA avec peu ou pas de modifications ? Tester les consignes de vos travaux à l’aide d’une requête à l’IA permet de savoir si votre évaluation est vulnérable et en quoi elle l’est.
  • Changer la face des critères d’évaluation : les grilles d’évaluation devraient désormais valoriser des critères complexes comme la qualité du raisonnement, la capacité d’évaluation critique, la justification et la prise de position, l’interaction réflexive avec l’IA, le processus de révision et d’amélioration des productions, l’originalité et l’appropriation personnelle des notions, etc.

Bien sûr, ce modèle n’offre pas de solution miracle : il permet surtout de garder en tête une question fondamentale à l’ère de l’IA :

Dans cette tâche, est-ce que l’étudiant réfléchit vraiment… ou est-ce que l’IA réfléchit pour lui ?

Pour lire l’article complet :
Scott, I. (2026, 1 mars). The AI Cognitive Pyramid: A Conceptual Framework for Generative AI Use, Critical Thinking, and Learning Design in Higher Education [SSRN Scholarly Paper]. Social Science Research Network. https://doi.org/10.2139/ssrn.6353318

 

Surcharge cognitive et apprentissage universitaire
Revue de littérature sur la détection des contenus générés par l'IA en contexte d'évaluation
+ posts

À propos de l'auteur

Véronik Lamoureux

Laisser un commentaire