News - 14.05.2025

Le monde de l’éducation et la pratique évaluative à l’ère des intelligences artificielles génératives

Le monde de l’éducation et la pratique évaluative à l’ère des intelligences artificielles génératives

Par Habib Batis - Depuis quelques mois déjà, nous vivons une période durant laquelle les géants de l’informatique sont engagés dans une forte concurrence visant le développement des intelligences artificielles génératives (IAG). Ces dernières, à l’instar de plusieurs applications telles que ChatGPT (chat pour discussion/conversation, GPT pour Generative Pre-trained Transformer) font continuellement l’objet d’une forte médiatisation. En effet, les articles de presse, laudateurs ou critiques, présentent des épisodes nouveaux de ce développement technologique et tentent vaguement de débattre des conséquences sur les pratiques du quotidien, renforçant ainsi une fascination technologique qui se double d’anxiété. En conséquence, le quelconque quidam humain est pris de court par ces récentes capacités des machines qui lui semblent aptes à communiquer par elles-mêmes et qui marquent son imaginaire. Déjà en proie à la surinformation et à la tyrannie de la vitesse ambiante, il est forcé de réagir pendant que la boite noire de l’IA l’englobe. Nous assistons ainsi au développement d’un comportement social inédit où les citoyens ordinaires s’émeuvent de l’apparition de telles technologies qui permettent de générer des textes, des images ou des sons en une simple requête. En même temps, ces prouesses informatiques alimentent les débats, suscitent des réactions et soulèvent des questions quant aux bienfaits ou des méfaits de ces technologies.

Les IAG et le monde de l’éducation

Cette médiatisation de l’IAG ChatGPT a provoqué une agitation assez inhabituelle chez les étudiants, les élèves, les enseignants et les encadrants jusqu’alors majoritairement centrés sur la dimension humaine des pratiques évaluatives. En effet, depuis 2022, le caractère spectaculaire des capacités conversationnelles de ChatGPT et l’apparente facilité d’utilisation des invites de commande pour générer des contenus dans plusieurs langues ont été à l’origine d’une prise de conscience. Même si ce phénomène semble raviver les inquiétudes dues au développement d’autres technologies numériques, son ampleur semble tout autre. Les professionnels de l’éducation sont appelés à développer de nouvelles postures car ces nouvelles technologies questionnent la convivialité passive des outils pédagogiques habituels, en leur possession. Elles se substituent à certains outils qu’ils ont appris à utiliser durant leur parcours professionnel. Enfin, elles s’intègrent rapidement dans la vie professionnelle des enseignants que ce soit en s’ajoutant ou en télescopant les outils existants. Face à cette nouvelle réalité, les craintes associées à l’arrivée de ces outils concernent d’abord les risques de fraude aux évaluations puisqu’il est difficile de distinguer ce qui est généré par les IAG de ce qui est réellement produit par les apprenants. Elles concernent d’autre part l’enjeu majeur à intégrer ces outils dans les enseignements-apprentissages pour acculturer les apprenants à leur utilisation et les amener à en faire un usage critique, éthique et responsable. C’est particulièrement en lien avec ces enjeux de la pratique évaluative qu’un tel bouleversement soulève la question de l’accueil qu’une telle technologie suscite de la part du corps enseignant. Ce dernier sera en face de questions pertinentes: quelle attitude adopter pour protéger l’intégrité académique dans un monde où les productions machiniques artificielles sont de plus en plus monnaie courante? Comment peut-on évaluer les acquis réels des apprenants à l’ère des IAG et qui pourra le faire? Tout en étant conscient que les réponses ne peuvent être tranchées, cet article ambitionne modestement d’esquisser quelques pistes d’action en distinguant les attitudes qui se dessinent face à ces technologies numériques, les certitudes et les illusions de chacune d’elles.

Les IAG: Comprendre d’abord de quoi il s’agit

Si des questions sur les enjeux de l’IA en éducation sont d’actualité, les recherches en la matière existent depuis plusieurs décennies même si les algorithmes qui exploitent les principes de l’apprentissage sont plutôt récents et ne datent que depuis quelques années. Dans ces technologies, la convergence d’algorithmes sophistiqués et des données massives permet de construire des IA spécialisées en très grand nombre. Elles visent à apporter une assistance efficace aux humains dans divers domaines et pour diverses activités sociétales.

Au départ et sans que l’appellation IA soit forcément mise en avant, les applications à caractère prédictif ont touché aussi bien le milieu professionnel (aide au diagnostic en radiologie, retouche d’image…) que le grand public (navigateur GPS, achats sur les plateformes, messagerie instantanée…). Ces applications suggèrent des réponses ou attirent l’attention de l’usager sur des éléments difficilement repérables dans une grande masse de données disparates. En ce sens, les IA viennent compléter les capacités humaines. 

Depuis plus de deux décennies, les applications ont évolué vers les fonctions génératives grâce à l’association de plusieurs types d’algorithmes issus de la recherche sur l’IA. Cette catégorie d’IA se distingue de la première par le fait que la fonction principale des algorithmes n’est plus de l’ordre de l’assistance ou de la recommandation mais plutôt de générer un produit «humanisé» (textes, images, sons) et le délivrer à un utilisateur. Elles obéissent donc à une logique qui ambitionne à substituer une production machinique artificielle à une création humaine. Le risque serait alors grand pour que l’humain se trouve dépouillé de son exclusivité à échanger des idées puisque désormais la machine semble capable de faire passer ses productions pour humaines. En effet, ces productions sont globalement cohérentes et vraisemblables. Mais elles ne sont pas toujours aussi fiables et pertinentes qu’un utilisateur naïf pourrait penser. La capacité des IA à générer des contenus est le résultat de milliard d’opérations élémentaires. Ces dernières peuvent être le fruit de myriades de classements élémentaires réalisés par des opérations statistiques. Elles peuvent aussi provenir de corrélations que la machine opère sur ses propres données. De ce fait, il est difficile d’évaluer concrètement et de manière détaillée le processus technologique et ses principes qui sous-tendent les mécanismes et les paramètres sur lesquels se basent la performance des systèmes IAG. Ces derniers demeurent une sorte de boites noires même auprès des personnes les plus avancées en informatique. La concurrence entre les sociétés qui les commercialisent entraine une très faible diffusion d’informations stratégiques. Le risque est donc grand pour que cette lutte quasi-géopolitique entre compagnies mondiales soit un obstacle au développement d’une «IA responsable et digne de confiance». 

Cependant, la qualité de ces productions demeure fortement dépendante de l’intégrité et de la fiabilité de trois composantes: des données moissonnées, des algorithmes et des utilisateurs. Les IAG sont entrainées sur des données morcelées, moissonnées en général sur les réseaux sociaux et programmées pour délivrer des réponses à toute requête. Elles peuvent produire des contenus susceptibles d’être totalement faux ou inappropriés si les règles déduites des corrélations sont fausses. Les contenus des bases de données sont en grande partie responsables des hallucinations si on s’en tient aux propos, aux opinions et aux affirmations non vérifiables sur lesquelles les algorithmes statistiques peuvent effectuer des généralisations abusives. De plus, le traitement opéré par une IAG repose sur une invite de commande, saisie à l’initiative de l’utilisateur. Ce dernier, face à une boite noire, se trouve dans l’illusion qu’il lui est possible de mener une interaction quasi-naturelle avec elle. En réalité, les IAG font plus que suggérer une réponse à une requête : elles l’interprètent et génèrent des symboles intelligibles et cohérents. Par conséquent, c’est à l’utilisateur, armé de ses compétences, que revient la responsabilité d’en faire usage. 

Face à ces obstacles qui brouillent le paysage et rendent difficilement appréhendables les risques des IAG pour la pratique évaluative, un premier réflexe quasi- pavlovien consiste à se protéger de l’IAG. Mais avec quelles conséquences? 

Se protéger de l’IAG, oui mais…

Cette première attitude consiste à préserver l’intégrité académique en renforçant les mesures de surveillance et en limitant le recours aux outils de l’IAG dans les évaluations. On peut concevoir que sa légitimité est tirée du fait du caractère spectaculaire des capacités conversationnelles de ChatGPT, son apparente facilité d’usage et son aptitude à délivrer rapidement des productions cohérentes et claires dans un grand nombre de langues. Les apprenants de tous les niveaux sont donc en mesure d’accéder à des produits à moindre effort sans que leurs contenus puissent nécessairement témoigner de la compétence évaluée. Effectivement, l’ampleur semble tout autre même si ce phénomène ramène en mémoire les craintes vécues en milieu scolaire et universitaire lors des développements d’autres outils numériques (moteurs de recherche, Internet, calculateurs…). Dans ce cas, la tentation est grande pour n’envisager que les évaluations en présentiel. Est-ce la solution ou cette option génère-t-elle d’autres problèmes? Car restreindre la passation des examens dans l’espace et dans le temps limite nécessairement le choix de l’outil d’évaluation (questions souvent à réponses fermées) et génère de nombreuses contraintes inhérentes à ce type d’évaluation qui désavantage certains apprenants. Ceci pourrait creuser l’écart entre ce que l’apprenant peut réaliser et ce que l’évaluation lui permet de réaliser. Cette pratique est la règle dans notre système éducatif dès les premières années de scolarité. En effet, il importe de rappeler que l’organisation périodique et systématique des examens, souvent en grand nombre, inflige à la société une situation qui s’apparente à un «couvre-feu» où enseignants, parents et apprenants sont mobilisés pour répondre à des exigences anxiogènes. Un modèle où l’enseignement, l’apprentissage et l’évaluation sont conçus comme des activités distinctes qui se suivent chronologiquement. 

Il est entretenu en valorisant le rôle de l’enseignant et en privilégiant les contenus. Il n’est pas rare, notamment au niveau supérieur, que l’apprentissage soit concentré sur une courte période de révision pour les examens. De plus, à regarder de près le contenu de ces évaluations, il est aisé de constater qu’elles demandent beaucoup de restitution et de reproduction d’information.  Elles font souvent intervenir les processus cognitifs des premiers paliers taxonomiques habituels ignorant, de fait, des capacités supérieures telles que penser et raisonner de manière critique, interpréter des décisions et des choix authentiques… Bref, cette forme rigide des examens qui limite le temps consenti pour leur complétion et le moment de passation, favorise peu l’engagement et la motivation et fait que l’apprenant ne se sent pas en contrôle de sa situation. Elle semble ignorer la règle qui stipule que l’évaluation n’a de sens que lorsqu’elle est au service de l’apprentissage. Celle-ci repousse la vision linéaire susmentionnée et met en avant un cycle intégré enseignement-apprentissage-évaluation où l’emphase est mise sur l’apprentissage et la progression et non sur l’évaluation seule. Ceci réduit du même coup l’anxiété associée à certaines pratiques employées actuellement. 

Une autre tentation pour limiter l’impact des IAG sur les pratiques d’évaluation consiste à utiliser des logiciels de détection (dits aussi anti-plagiat) pour vérifier les productions des apprenants. Un choix de plus en plus répandu dans les institutions universitaires où l’évaluation par projet est utilisée. Est-ce que ces logiciels sont facilement maniables et sont-ils vraiment fiables? Leur utilisation implique plusieurs étapes dont le téléchargement des documents à vérifier. Des données peuvent être donc stockées et utilisées par des applications tierces et de ce fait un problème de confidentialité se pose. Par ailleurs, la fiabilité de ces outils demeurent encore limitée car ils ne sont pas suffisamment avancés et en mesure de déterminer avec certitude ce qui a été généré par une IA et ce qui ne l’a pas été. Il y a une marge d’erreur non négligeable et les résultats peuvent être informatifs, mais ils ne sont pas toujours exacts et fiables. Enfin, puisqu’il existe des logiciels de détection de l’IA, il existe aussi des logiciels capables de réorganiser un texte afin qu’il ne soit pas détectable par l’outil de détection. Et d’une façon générale, plus la performance des outils de détection croit, plus celle des outils de contournement aussi.

Intégrer l’IAG

Depuis 2022, plusieurs résultats de recherches ont levé une partie du voile sur la technologie IAG, sur son utilisation en éducation et sur les facteurs de son succès. En dépit de ces travaux, mettre en perspective tous les enjeux évaluatifs sous-jacents, demeure encore une tâche ardue tant il est difficile d’apprécier ou de se faire une idée précise sur le fonctionnement de ces algorithmes et sur l’origine des données qui les alimentent. Face à ces obstacles qui brouillent le paysage, l’enjeu est-il seulement de renforcer la lutte contre la fraude ? Ne faut-il pas surtout inventer de nouveaux modes d’évaluation? Apporter des réponses à ces questions est d’autant important que cette possibilité de fraude, n’est que la figure moderne du classique «faire faire par un autre» avec usurpation d’identité. 

Cette vigilance ne doit pas dissimuler le problème central de la pratique évaluative qui est toujours le même: comment permettre à l’apprenant de «faire ses preuves», c’est-à-dire de fournir de vraies manifestations probantes de la réalité de ses acquis ? Pour cela, un retour aux fondamentaux de la pratique évaluative peut être éclairant. Celle-ci requiert deux conditions : la première est d’avoir une idée précise de l’objectif éducatif visé. Autrement dit, le professionnel de l’éducation doit être capable de formuler, en termes opératoires, les capacités ou les compétences visées par l’action éducative. Il va de soi qu’il ne suffira pas de désigner un savoir à restituer, mais qu’il faudra préciser ce que la maitrise de ce savoir rend capable d’effectuer, concrètement. La seconde condition, qui est le corollaire de la première, est d’opérer un choix de l’outil d’évaluation et des «tâches» qui proposent d’affronter une situation où l’apprenant pourra, précisément, faire ses preuves.  On retrouve alors ce qui constitue l’obstacle à cette pratique évaluative à savoir la substitution du travail humain par une production délivrée par l’IAG en laissant croire que cette dernière est celle de l’apprenant. Au-delà du problème moral sur la possibilité de fraude, il serait plus utile de se demander si une utilisation intelligente des IAG n’offrirait pas des perspectives d’amélioration des apprentissages en général et de la pratique évaluative en particulier. Dans ce cadre, quelques pistes peuvent être esquissées.

S’exercer sur le fond en évitant l’illusion de la forme 

Dans le monde de l’éducation, les apprenants, s’ils ne sont pas incités à la prudence, peuvent être tentés d’idéaliser la machine lui attribuant des vertus magiques. Ils peuvent aussi être tentés de lui déléguer, sans trop de discernement, des tâches qu’il faudrait réserver à un esprit humain, misant sur la quantité plus que sur la qualité. Car, les IAG sont conçues, d’une part, pour donner l’illusion à l’utilisateur d’avoir affaire à un raisonnement humain et d’autre part pour engendrer une forme de satisfaction grâce aux artéfacts qu’elles produisent. Être tenté par la forme des produits générés peut entretenir l’illusion de leur qualité et seront donc employés comme substituts à des productions humaines. L’enjeu pour ces utilisateurs est de comprendre que le trop-plein de textes, d’images ou de sons générés par les IA où l’illusion de la forme cache parfois l’indigence du fond peut rendre, enfin de compte, l’exercice de l’esprit critique et de l’évaluation des contenus quasiment impossible. Saura-t-on alors déceler les indices qui caractérisent les productions de ces générateurs et faire la différence entre production humaine originale et production machinique?  

Si en matière de composition et de forme, la machine dépasse les performances d’un utilisateur moyen, c’est sur le fond que celui-ci pourra mener son évaluation en fonction de ses connaissances et ses compétences. La seule opération évaluative que puisse réaliser l’utilisateur final est d’estimer la qualité de la production à l’aune de ses propres connaissances et de ses propres compétences d’usager. Dans ce cadre, plusieurs possibilités peuvent être explorées. À titre d’exemple, les apprenants peuvent être invités à soumettre à un agent conversationnel une question ou une étude de cas pour obtenir une première réponse et la présenter intégralement dans leur travail. Cette réponse est ensuite commentée et critiquée aussi bien sur la base des contenus de l’enseignement ou sur des sources fiables et pertinentes que sur la précision de la requête soumise. L’enjeu majeur sous-jacent à cette approche est d’entrainer les apprenants à développer des capacités d’analyse. Ceci est d’autant plus vrai que, dès leur conception, les IAG sont le plus souvent entrainés à générer des produits consensuels en évitant les éléments négatifs ou critiques qui permettraient de repérer une dimension argumentative personnelle.

La recherche de l’authenticité de la production et l’éthique dans la pratique

Compte tenu de ce que les IAG sont capables de composer et disserter sur un ton véridictoire, se posent alors les questions: comment l’éducateur peut-il respecter une éthique professionnelle en cherchant à évaluer une production d’apprenant, forcément imparfaite, dans une visée formative ? En quoi une recherche automatisée d’information doublée d’une production témoigne-t-elle d’une réflexion ou d’un apprentissage ?  Notons que ces interrogations sur les pratiques évaluatives ne sont pas nouvelles. De nos jours, il apparait nécessairement complexe à certains enseignants de prendre en compte l’authenticité d’une production demandée aux élèves ou étudiants sans supervision. Il est aussi facile de comprendre leur réserve et leur décision d’interdire le recours aux IAG en situation de contrôle certificatif. Pourtant, on peut défendre l’authenticité, même dans un cadre informatisé comme l’est l’enseignement à distance, à condition de privilégier l’évaluation formative. Pour ce faire, il est d’abord recommandé d’aborder ouvertement avec les élèves et les étudiants le sujet de l’utilisation des IAG afin de les entrainer à réfléchir à la question de l’intégrité académique.

Les amener à formuler des réponses à la question «Quelles stratégies ou bonnes pratiques pouvez-vous mettre en place pour garantir que votre utilisation d’agents conversationnels ou d’autres ressources en ligne respecte les principes de l’intégrité académique», les incite à s’approprier les risques d’utiliser des contenus machiniques comme substituts de productions humaines sur l’acquisition des compétences nécessaires à leur formation. Il peut être aussi suggéré, dans un esprit de formation et de responsabilisation, de demander aux apprenants d’indiquer, par exemple dans une déclaration, la manière dont l’IAG a été utilisée (requêtes, réponses fournies…) tout en clarifiant les attentes en termes de référencement et de citations. D’autre part, afin de s’assurer que les apprenants sont capables de démontrer l’atteinte des objectifs de l’enseignement sans pouvoir s’appuyer sur les IAG, il peut être suggéré qu’une partie de l’évaluation se déroule sous forme orale. Ce qui est important c’est que ces entretiens oraux doivent être annoncés explicitement en les faisant figurer dans le dispositif évaluatif de la formation.

Toutes ces questions et suggestions doivent conduire les enseignants à imaginer des scénarios leur permettant de contourner l’usage inconscient des IAG qui risque d’embrouiller la crédibilité académique. Ce n’est pas hors de portée d’intégrer l’usage de ces instruments numériques de telle sorte que ces systèmes servent à des fins éducatives et évaluatives. Une telle démarche permet de développer une attitude éthique et responsable amenant les élèves et les étudiants à se confronter aux questions complexes que soulève l’emploi généralisé des technologies avancées. Enfin, il va de soi que ceci ne sera possible que si les enseignants eux-mêmes se familiarisent avec ces technologies.

Habib Batis
 

Vous aimez cet article ? partagez-le avec vos amis ! Abonnez-vous
commenter cet article
0 Commentaires
X

Fly-out sidebar

This is an optional, fully widgetized sidebar. Show your latest posts, comments, etc. As is the rest of the menu, the sidebar too is fully color customizable.