Notre billet précédent dressait un état des lieux sommaire de la situation, complexe et en évolution constante, relative à l’utilisation (ou au rejet) de l’IA générative en matière pédagogique. Nous souhaitons maintenant nous pencher sur des pistes de solution que le corps professoral pourrait mettre en œuvre.
En quoi consiste une intégration réussie ? Comment pouvons-nous garantir que cela se produise ? Pour répondre, du moins partiellement à cette question, il faudrait que les personnes enseignantes soient directement impliquées dans le développement de la technologie éducative, ou au moins qu’elles participent aux discussions sur son utilisation. L’idéal serait que les spécialistes de la technologie, les différents paliers politiques, le personnel de recherche et le corps enseignant travaillent ensemble pour discuter de l’utilisation efficace et constructive de l’IA, dans le but d’améliorer l’éducation et de soutenir l’apprentissage.
Même s’il semble peu probable que de telles discussions aient lieu dans un avenir rapproché, puisqu’il semble impossible d’éviter le recours à l’IA générative vu le rôle crucial qu’elle joue dans de nombreux aspects de nos vies, nous pouvons tout de même partager les meilleures pratiques et pistes de solution utiles.
La planification soignée

Dans le domaine de l’enseignement postsecondaire, le corps professoral peut mettre en œuvre certaines stratégies, en attendant que des solutions plus répandues et mondiales soient mises en place. Tout d’abord, dans le cadre universitaire, il serait idéal que les personnes enseignantes décident des outils d’IA générative qu’elles souhaitent intégrer dans leurs cours dès le début du processus pédagogique. Cette intégration doit être soigneusement planifiée et ne peut pas se faire de manière précipitée ou aléatoire (Okojie et al., 2006). Le corps professoral doit tenir compte d’un certain nombre d’éléments différents, comme la manière dont la technologie bénéficiera au processus d’apprentissage, tout en s’assurant qu’elle est inclusive et répond aux besoins de toutes les personnes d’une classe (Okojie et al., 2006). Il doit donc être en mesure de sélectionner la technologie d’IA générative la plus adéquate, qui convient à ses objectifs d’enseignement, à chaque cours donné, à chaque devoir administré et à chaque discussion facilitée.
La nécessité d’un équilibre
Une fois qu’il a réussi à sélectionner la technologie la plus appropriée, le corps professoral doit également trouver un équilibre délicat entre les types de devoirs et d’évaluations présentés en classe. Il faut intégrer des tâches qui nécessitent un degré élevé d’originalité et qui se concentrent plutôt sur des capacités de réflexion de niveau supérieur. Le corps enseignant pourra aussi inclure des stratégies d’évaluation continue ou des évaluations aléatoires pour les personnes étudiantes, plutôt que des tests de type sommatif uniquement. De cette façon, il serait possible d’observer le développement des personnes qui ne pourront pas compter en grande partie sur l’utilisation de l’IA pour l’achèvement assisté de ces tâches. Cela dit, le corps professoral lui-même devrait également essayer d’atteindre un équilibre entre les stratégies de prestation de cours assistées ou non par l’IA générative. Après tout, toutes les personnes étudiantes n’apprennent pas de la même manière, et toutes ne réagiront pas positivement à une implémentation d’IA générative dans la salle de classe.
Des lignes directrices claires
En plus, il est impératif que le corps professoral mette en place des lignes directrices claires dans le cadre des cours, afin que la population étudiante puisse identifier quels usages sont permis et quelles applications enfreignent les règlements sur l’honnêteté intellectuelle. Par exemple, l’une de ces lignes directrices peut être l’établissement d’un projet itératif d’écriture pour chaque personne étudiante : chacune doit alors produire plusieurs brouillons de ses travaux écrits au lieu de soumettre seulement un travail final (Marcel et al., 2024). Une telle approche permet de travailler avec l’IA générative, mais exerce l’esprit critique de la population étudiante, qui doit faire preuve de discernement dans la sélection des informations et la formulation. Cependant, quelles que soient les lignes directrices mises en œuvre ou leur nombre, l’importance réside dans l’idée d’être proactif plutôt que réactif : au lieu de faire face aux conséquences potentielles d’une utilisation inappropriée ou inadmissible de l’IA générative, le corps professoral peut encourager ses groupes à porter attention aux interactions avec la technologie avant qu’un problème survienne. Une telle approche permet de plus d’amorcer une conversation plus globale sur l’outil et de l’analyser de manière critique (enjeux environnementaux, sociaux, éthiques) plutôt que de recourir à une approche punitive.
De la même manière, les personnes enseignantes ont, elles aussi, besoin de politiques pour les guider dans l’intégration des outils d’IA générative dans leurs pratiques pédagogiques. Si certaines universités ont déjà commencé à en mettre en œuvre, la plupart n’en ont pas encore. Le corps professoral ne devrait pas avoir à décider s’il veut ou non intégrer l’IA dans son matériel de cours ou dans sa prestation. Une certaine orientation serait à la fois justifiée et appréciée, afin d’assurer une uniformité pédagogique et la clarté des règles universitaires entourant toute possible infraction à l’honnêteté intellectuelle (pour éviter qu’une pratique soit acceptée, voire encouragée, dans un cours et absolument interdite dans un autre).
Initiatives à l’Université de Californie

À cet effet, il est intéressant de noter que l’Université de Californie, qui accueille environ 500 000 étudiants aux États-Unis, vient d’annoncer son intention d’intégrer l’IA générative dans ses programmes et pratiques pédagogiques (Fitzpatrick, 2025). Bien qu’elle en soit encore aux premiers stades de l’adoption de la technologie, cette initiative historique aura un impact sur des dizaines de milliers de membres du corps enseignant, ainsi que sur ses nombreux étudiants répartis sur 23 campus.
L’enseignement basé sur l’IA générative est une ligne directrice claire. Elle vise à fournir aux personnes étudiantes des compétences pratiques en IA générative, qui leur serviront à se préparer pour un avenir professionnel assisté par la technologie. Quant aux membres du corps enseignant, ils obtiennent des outils pédagogiques plus innovants. Cependant, outre les avantages potentiels que cette technologie peut offrir dans ce cadre universitaire, il faut également tenir compte des préoccupations qu’elle soulève, à savoir l’éthique de l’utilisation de l’IA non seulement dans l’enseignement et l’apprentissage, mais aussi dans le fait d’en faire un point central des pratiques pédagogiques. La formation que l’Université de Californie vise à fournir aux personnes étudiantes et au corps enseignant sera-t-elle suffisante pour garantir une utilisation responsable de l’IA générative ? Les personnes étudiantes seront-elles intéressées à payer pour une éducation rendue possible par un tel modèle ? Considérera-t-on même cela comme une éducation, et que signifiera un diplôme fourni par cette université, autant pour les personnes diplômées que pour les employeurs potentiels ? Ce sont des questions pour lesquelles il n’y a pas encore de réponse et qui jouent un rôle essentiel dans la manière dont la situation évoluera dans un avenir très proche.
En conclusion
Il paraît donc évident que la fourniture de lignes directrices en matière d’IA dans les établissements d’enseignement supérieur, tant pour les personnes étudiantes que pour le corps enseignant, est nécessaire, mais difficile à l’heure actuelle. Étant donné que la situation est fluide et que la technologie évolue en permanence, il s’avère complexe de concevoir des lignes directrices qui serviront la population étudiante et enseignante d’une manière qui garantira également une éducation de qualité et éthique. Ce qu’il faut plutôt, c’est un ensemble collectif de lignes directrices qui pourraient essentiellement évoluer avec l’évolution de la technologie, des consignes qui non seulement garantiraient l’honnêteté intellectuelle, mais reconnaîtraient également la nature changeante et évolutive de l’IA générative dans le cadre de l’enseignement et de l’apprentissage.
Adrian Sorge est étudiant en deuxième année d’études françaises à York University, campus Glendon. Il est également l’assistant de recherche de la professeure Valérie Florentin. Dans son temps libre, il aime écouter plusieurs styles musicaux, danser, voyager et en apprendre plus sur l’influence de l'IA en matière de pédagogie.
Références
Fitzpatrick, D. (2025). Half A Million Students Given ChatGPT As CSU System
Makes AI History. Forbes.
Marcel, F., & Phoebe, K. (2024). Examining AI Guidelines in Canadian Universities:
Implications on Academic Integrity in Academic Writing. Discourse and
Writing, 34, 93-126.
Okojie, M.C., Olinzock, A. A., & Okojie-Boulder, T. C. (2006). The Pedagogy of
Technology Integration. The Journal of Technology Studies, 32(2), 66-71.
Comments