L’obsolescence programmée de l’évaluation traditionnelle face à l’IA générative

L

Lien source de cet article.
Auteur :

Féminisation délibérée du texte : équilibrage minimal face à des décennies de masculin par défaut dans les écrits pédagogiques

Marie enseigne la comptabilité depuis quinze ans dans un centre de formation bruxellois. Mardi dernier, huit apprenantes sur douze lui ont rendu des exercices identiques. ChatGPT. Sa première réaction fut de sanctionner. Puis elle a réalisé qu’elle testait désormais leur capacité à copier-coller, pas leur compréhension comptable.

Cette scène se répète partout. Les formatrices ne savent plus quoi faire. Certains font comme si de rien n’était. D’autres installent des logiciels de surveillance. La plupart bricolent. Le QCM ? L’IA le résout en trois secondes. Le cas pratique ? GPT-4 ou 5 font mieux qu’une apprenante moyenne. On maintient ces exercices par habitude, mais tout le monde sait que c’est du théâtre.

La formatrice face au mur

Sarah dirige la pédagogie dans un organisme certifié Qualiopi. Elle raconte son quotidien. Les audits demandent des traces d’évaluation. Les apprenantes utilisent l’IA. L’organisme impose des examens sur table chronométrés. Résultat ? Les apprenantes développent des stratégies de contournement au lieu d’apprendre leur métier. C’est absurde.

Sur le terrain, j’observe trois types de réactions. D’abord, celles qui renforcent les contrôles. Elles installent des caméras, des logiciels, multiplient les surveillances. Beaucoup d’énergie pour rien. Ensuite, celles qui ferment les yeux mais gardent les apparences pour les certifications. De l’hypocrisie pure. Enfin, quelques-unes testent autre chose. L’IA devient visible, assumée.

L’émergence de nouvelles pratiques

À Lille, une formatrice en management a changé d’approche. Elle demande aux apprenantes leurs prompts, les réponses obtenues, et leur analyse critique. Elle évalue leur capacité à repérer les erreurs, corriger les biais. Une apprenante lui a montré quinze versions d’un plan stratégique. Les quatorze premières étaient inutilisables. Cette trace du travail, c’est ça la vraie preuve d’apprentissage.

Une collègue strasbourgeoise fait l’inverse. Elle donne un document généré par IA avec des erreurs subtiles. Les apprenantes doivent les trouver et les corriger. Une étudiante a remarqué que l’IA confondait toujours corrélation et causalité dans les stats. Voilà quelque chose d’utile. Plus utile qu’un exercice classique en tout cas.

La conversation comme nouvelle évaluation

L’oral revient en force. Pas l’interrogation traditionnelle. Le dialogue. Une formatrice RH simule des entretiens où l’apprenante défend ses choix face à des objections. Impossible de tricher. L’enregistrement sert de trace pour Qualiopi. C’est simple et ça marche.

Le portfolio prend une nouvelle forme. Les apprenantes gardent tout : leurs prompts ratés, les reformulations, les choix entre ce que propose l’IA et leur intuition. Une étudiante marketing m’a montré son journal. On voit sa progression, ses erreurs, ses découvertes. C’est plus authentique qu’une note sur vingt.

Les résistances institutionnelles

Le problème, c’est le système. Qualiopi veut des grilles standardisées. Les financeurs publics veulent des taux de réussite. Les entreprises veulent des certifications reconnues. Tout ça maintient un système qui ne fonctionne plus.

Une directrice de centre m’a confié qu’elle jongle entre deux mondes. L’officiel pour les audits. Le réel pour que les gens apprennent vraiment. Cette double vie épuise les équipes. Et ça décrédibilise toute la formation professionnelle.

Vers une rupture assumée

On ne va pas s’en sortir avec des rustines. Interdire l’IA ? Autant interdire internet. L’autoriser sans rien changer ? On produit du fake. Il faut repenser la base. Qu’est-ce qu’on évalue ? Pas ce que l’apprenante sait par cœur. Plutôt comment elle utilise les outils disponibles, IA comprise.

Tom Chatfield le dit bien dans ses derniers travaux. On doit passer de “qu’est-ce que tu sais ?” à “comment tu réfléchis avec l’IA ?”. Les expériences intéressantes vont dans ce sens. Une formatrice m’a dit : “J’évalue la qualité du dialogue entre l’apprenante et l’IA, pas juste le résultat final.” C’est exactement ça.

Les mois qui viennent vont faire le tri. Certains organismes testent déjà. D’autres s’accrochent à leurs vieilles méthodes. Entre les deux, beaucoup attendent. Ils espèrent des directives officielles qui ne viendront pas. Ou trop tard. L’évaluation traditionnelle n’est pas en crise. Elle est finie. Maintenant on invente la suite. Ou on disparaît.

Autres articles