Rachid Hamimaz, Professeur, Institut Agronomique et Vétérinaire Hassan II (IAV Hassan II)
Introduction générale
L’utilisation croissante de l’intelligence artificielle (IA) par les étudiants dans le cadre académique suscite aujourd’hui des inquiétudes croissantes au sein des institutions académiques. Si les bénéfices de cette technologie sont incontestables, les dérives liées à son usage incontrôlé menacent l’intégrité académique et le développement des compétences fondamentales des apprenants. De nombreux enseignants-chercheurs (EC) semblent dépassés par l’ampleur de cette tendance, et certains ne mettent pas en place de mesures suffisantes pour en juguler les dérives. Il devient urgent de proposer des solutions concrètes pour encadrer ces pratiques. Cette situation soulève des questions fondamentales sur l’impact de l’IA sur le développement des compétences des étudiants, leur autonomie intellectuelle et l’intégrité académique.
Face à ces préoccupations, deux professeurs issus d’institutions distinctes – l’Institut Agronomique et Vétérinaire Hassan II et l’École Nationale Supérieure de l’Administration – ont collaboré à une réflexion conjointe, présentée à travers deux articles successifs qui se complètent mutuellement. Leur objectif est de proposer des solutions opérationnelles pour encadrer l’utilisation de l’intelligence artificielle tout en préservant les valeurs fondamentales de l’éducation dans leurs établissements respectifs.
Le premier article est signé par Rachid Hamimaz, socio-économiste et professeur à l’Institut Agronomique et Vétérinaire Hassan II (IAV Hassan II).
Le second, intitulé “Utilisation de l’Intelligence Artificielle dans l’enseignement supérieur : entre opportunités et défis éthiques”, est rédigé par Samir Haloui, économiste et professeur à l’École Nationale Supérieure de l’Administration (ENSA).”
Cet article propose une analyse approfondie de cette problématique et s’organise autour de quatre axes principaux :
- Perspectives sur l’Utilisation de l’IA par les Étudiants : Entre Promesses et Prudence
Cette première partie examine les avantages et les risques associés à l’intégration de l’IA dans les pratiques éducatives, en s’appuyant sur les arguments de penseurs et chercheurs qui en défendent le potentiel, mais aussi sur les critiques soulignant ses dérives possibles.
- Distinguer les Usages de l’IA : Solution de Remplacement ou Outil Complémentaire ?
Ici, il s’agit de différencier deux approches d’utilisation de l’IA : celle qui en fait un substitut au travail des étudiants, souvent nuisible à leur apprentissage, et celle qui l’intègre comme un outil complémentaire renforçant leur réflexion et leur engagement.
- Les Limites d’une Charte Éthique et l’Importance de Stratégies Complémentaires pour Réguler l’Usage de l’IA
Cette partie met en lumière les insuffisances d’une simple charte éthique, en plaidant pour des mesures pédagogiques et institutionnelles plus complètes, comme la sensibilisation, l’adaptation des méthodes d’évaluation et le recours à des outils technologiques de régulation.
- Conclusion Générale : Proposition pour un Rapport Pédagogique Annuel sur l’Utilisation de l’IA
Enfin, une solution concrète est proposée : la mise en place d’un rapport pédagogique annuel permettant aux enseignants de documenter leurs pratiques et de garantir que l’IA est utilisée de manière éthique et complémentaire, avec des indicateurs précis pour en évaluer l’impact.
Ce cheminement vise à transformer une problématique complexe en une opportunité de renouveler les pratiques éducatives, en intégrant l’IA de manière responsable et constructive, dans l’intérêt des étudiants et des institutions académiques
Perspectives sur l’Utilisation de l’Intelligence Artificielle par les Étudiants : Entre Promesses et Prudence
L’intégration de l’intelligence artificielle (IA) dans le domaine éducatif suscite des débats intenses, balançant entre optimisme enthousiaste et prudence avertie. Tandis que certains chercheurs soulignent son potentiel pour transformer l’apprentissage, d’autres avertissent des risques liés à une utilisation incontrôlée, s’interrogeant sur les véritables implications de cette technologie dans les environnements éducatifs.
D’un côté, des experts comme Rose Luckin mettent en lumière l’efficacité de l’IA pour offrir un apprentissage personnalisé. Dans son ouvrage « Machine Learning and Human Learning: The Changing Landscape of Education (2018) », elle montre comment l’IA peut adapter les ressources pédagogiques aux besoins individuels des étudiants, renforçant ainsi l’engagement et la réussite scolaire. George Siemens, dans « Learning Analytics: The Emergence of a Discipline (2013) », va plus loin en démontrant comment les données et l’apprentissage automatique peuvent éclairer les pratiques éducatives, rendant les approches pédagogiques plus réactives et adaptées.
Des chercheurs tels que Ryan Baker ou Frank Martinez-Maldonado explorent également les bénéfices pratiques de l’IA dans l’éducation, de l’analyse de données à l’automatisation des tâches répétitives. Sugata Mitra, avec ses projets Hole in the Wall et School in the Cloud, illustre même comment l’IA peut encourager l’autonomie des apprenants, en leur permettant d’explorer et d’apprendre de manière indépendante. Ces réflexions optimistes indiquent un potentiel certain : une IA bien encadrée peut compléter le travail des enseignants, améliorer les résultats des élèves et alléger la charge administrative.
Cependant, cet enthousiasme est contrebalancé par des voix critiques qui alertent sur les dangers d’une adoption irréfléchie. Neil Selwyn, dans « Should Robots Replace Teachers and the Future of Education (2021) », s’oppose fermement à l’idée de substituer les enseignants humains à des systèmes automatisés, craignant une déshumanisation de l’éducation et une érosion des compétences sociales. Audrey Watters, dans « Teaching Machines: The History of Personalized Learning », met en garde contre les biais algorithmiques et les dangers d’une surveillance accrue, qui risquent de renforcer les inégalités au lieu de les réduire.
Les préoccupations sur l’impact de l’IA vont bien au-delà des questions pédagogiques. Sherry Turkle, dans « Reclaiming Conversation: The Power of Talk in a Digital Age (2015) », explique que la dépendance aux technologies affaiblit les compétences en communication et peut conduire à une forme d’isolement social. Cathy O’Neil, dans « Weapons of Math Destruction (2016) », expose quant à elle comment les algorithmes, souvent perçus comme neutres, peuvent en réalité reproduire et amplifier les discriminations systémiques.
Enfin, des auteurs tels que Safiya Umoja Noble (Algorithms of Oppression, 2018) et Ruha Benjamin (Race After Technology, 2019) dénoncent les biais raciaux intégrés dans les systèmes algorithmiques utilisés en éducation, appelant à une vigilance accrue face à ces outils. Ils soulignent le besoin d’une IA éthique, qui ne perpétue pas les préjugés et les discriminations, mais favorise au contraire une éducation plus équitable et inclusive.
Face à ces arguments contrastés, la question centrale reste celle de l’équilibre. Comment tirer parti des promesses de l’IA tout en évitant ses écueils ? Pour l’Institut Agronomique et Vétérinaire Hassan II, cela implique de ne pas céder à l’euphorie technologique tout en reconnaissant les opportunités qu’elle offre. Une intégration réfléchie et responsable passe par des politiques claires, une sensibilisation des utilisateurs, et un cadre éthique rigoureux.
En définitive, l’IA en éducation est un outil puissant, mais elle n’est pas une recette miracle. Son succès repose sur une compréhension fine de ses capacités et de ses limites, ainsi que sur un engagement collectif à en faire un levier de progrès, et non une source de nouvelles inégalités.
Distinguer les Usages de l’IA : Solution de Remplacement ou Outil Complémentaire ?
L’intelligence artificielle (IA) peut jouer un rôle central dans l’éducation des étudiants. Toutefois, ses effets varient considérablement selon qu’elle est utilisée comme un simple substitut aux efforts des étudiants ou comme un outil pour enrichir leur apprentissage. Cette distinction est fondamentale pour maximiser les bénéfices pédagogiques de l’IA tout en préservant l’intégrité académique et le développement des compétences essentielles.
- L’IA comme Solution de Remplacement : Un Risque pour l’Apprentissage
Lorsque l’IA est utilisée pour se substituer complètement aux efforts des étudiants, elle compromet l’acquisition des compétences fondamentales, nuisant à leur progression académique et personnelle.
a. Rédaction Automatique de Rapports
Un étudiant peut demander à une IA de rédiger un rapport complet, par exemple sur les impacts des pesticides sur la biodiversité locale. Bien que le résultat soit immédiat, l’étudiant ne développe ni ses compétences en recherche ni sa capacité d’analyse critique ou de rédaction scientifique.
b. Résolution Automatique de Problèmes
Dans le cadre d’exercices complexes, comme la modélisation des rendements agricoles sous différentes conditions climatiques, l’utilisation d’une IA pour fournir directement la solution prive l’étudiant d’une compréhension approfondie des concepts théoriques et des étapes de résolution.
c. Création Automatique de Présentations
L’utilisation d’une IA pour générer une présentation PowerPoint complète (textes, graphiques, animations) réduit l’implication de l’étudiant dans la structuration de l’information et l’élaboration d’une communication visuelle cohérente.
d. Traduction Automatique
En traduisant un article scientifique sans réviser ni analyser le contenu, l’étudiant ne renforce pas ses compétences linguistiques ni sa compréhension des concepts dans une autre langue. Ce mode d’usage limite ainsi la portée éducative de l’exercice.
- L’IA comme Outil Complémentaire : Un Appui pour l’Apprentissage Actif
À l’inverse, lorsque l’IA est utilisée pour assister les étudiants sans remplacer leurs efforts, elle devient un puissant levier d’apprentissage, favorisant le développement des compétences et l’approfondissement des connaissances.
a. Assistance à la Recherche Bibliographique et simplification de l’accès à l’information
Un étudiant peut s’appuyer sur une IA pour identifier et organiser des articles pertinents sur des sujets comme les techniques de culture biologique. En sélectionnant et analysant activement ces sources, il optimise son temps tout en développant ses capacités d’évaluation critique. L’étudiant peut trouver rapidement des informations dans des documents longs ou complexes, comme des thèses ou des manuels.
b. Analyse Préliminaire de Données
Pour un projet sur la santé animale, une IA peut être utilisée pour effectuer une première analyse statistique des données. L’étudiant se concentre alors sur l’interprétation des résultats et leur intégration dans une réflexion globale, développant ainsi des compétences analytiques avancées.
c. Création de Supports Visuels
En générant des graphiques ou des infographies à partir des données de recherche, les outils d’IA améliorent la qualité visuelle des travaux. L’étudiant conserve toutefois un rôle actif dans l’élaboration du contenu et la communication des informations.
d. Outils de Révision et de Correction
Lors de la rédaction d’un essai, une IA peut aider à vérifier la grammaire et la cohérence. L’étudiant reste impliqué dans le processus en apportant ses propres améliorations, ce qui perfectionne ses compétences rédactionnelles.
e. Simulation et Modélisation
Dans des projets complexes, comme l’optimisation des systèmes d’irrigation, l’IA permet de simuler différents scénarios. L’étudiant utilise ces résultats pour explorer des hypothèses, développer des recommandations et approfondir sa compréhension des systèmes étudiés.
f. Apprentissage Personnalisé
Les plateformes éducatives basées sur l’IA proposent des exercices adaptés au niveau de compréhension de chaque étudiant, renforçant l’apprentissage individuel et encourageant l’autonomie.
g. Résumé, structuration et entrainements
Des applications IA peuvent synthétiser des textes complexes pour aider à comprendre rapidement les concepts essentiels. Par exemple, résumer un livre en PDF, un article ou en accédant à un lien youtube ou des notes de cours. Les idées peuvent être structurés pour un essai, un exposé ou une thèse ou même des notes de cours. Une aide est fournie pour structurer des plans d’étude, des présentations ou des projets de recherche. Des assistants IA peuvent poser des questions type pour s’entraîner pour un examen, fournir des exercices pour renforcer votre maîtrise d’un sujet. Ces applications aident à traiter et organiser l’information, mais l’analyse, le jugement critique et la réflexion créative restent entre les mains de l’étudiant. Ils prennent en charge des tâches répétitives ou techniques, laissant plus de temps pour les activités intellectuelles ou créatives. Ils agissent enfin comme des coéquipiers numériques, ce qui permet à l’étudiant de rester concentré sur les aspects stratégiques ou innovants.
Conclusion
L’IA, lorsqu’elle est utilisée comme outil complémentaire, peut enrichir considérablement l’expérience éducative des étudiants mais ne remplace pas la capacité humaine de réflexion et d’apprentissage. En l’utilisant, un étudiant peut non seulement mieux gérer son temps (par exemple gagner du temps sur les tâches répétitives ou techniques), mais aussi approfondir ses connaissances et améliorer ses productions, tout en développant ses propres compétences critiques et analytiques.
Cependant, son utilisation en tant que solution de remplacement représente un danger pour l’acquisition des compétences fondamentales. Pour cette raison, il appartient à l’équipe pédagogique, en particulier au département chargé de la régulation de l’utilisation de l’IA, de définir des règles claires. Ce département doit non seulement promouvoir des usages complémentaires de l’IA mais aussi mettre en place des indicateurs pour vérifier l’application de ces bonnes pratiques par les enseignants et les étudiants. Une telle approche garantit que l’IA reste un atout éducatif et non un obstacle au développement personnel et académique des apprenants.
Les Limites d’une Charte Éthique et l’Importance de Stratégies Complémentaires pour Réguler l’Usage de l’IA
L’instauration d’une charte éthique constitue un point de départ nécessaire pour encadrer l’utilisation de l’intelligence artificielle (IA). Au Royaume Uni, on a élaboré des lignes directrices éthiques pour l’utilisation responsable de l’IA, incluant la transparence des algorithmes et la protection des données des étudiants. En Allemagne, il a été mis en place des directives strictes sur la transparence et l’explicabilité des outils d’IA utilisés dans l’éducation. Au Maroc, il faudrait par conséquent, créer une charte éthique spécifique à l’institut Agronomique et l’ENSA ou autres établissements universitaire, définissant les usages autorisés de l’IA, les responsabilités des enseignants et des étudiants, et les mesures de protection des données. Et exiger que tous les outils d’IA utilisés soient transparents quant à leur fonctionnement et leurs critères de décision, permettant ainsi aux étudiants de comprendre comment et pourquoi certaines recommandations ou évaluations sont générées.
Toutefois, seule, cette charte éthique ne garantit ni son application ni son efficacité. Une approche plus complète et diversifiée est indispensable pour assurer une adoption responsable de l’IA tout en renforçant l’intégrité académique. À travers des actions combinant sensibilisation, éducation, adaptation des évaluations, technologies de contrôle et un cadre institutionnel clair, il devient possible d’instaurer un véritable respect des règles, tout en favorisant l’apprentissage autonome des étudiants.
Un des piliers essentiels pour encourager une utilisation éthique de l’IA est la sensibilisation et l’éducation. Former les étudiants aux enjeux éthiques et académiques liés à l’IA dès le début de leur parcours permet de poser des bases solides. Des modules dédiés à l’éthique de l’IA intégrés dans les cursus favorisent la compréhension des attentes académiques et des conséquences potentielles d’un usage inapproprié, tout en créant un cadre pour des discussions informées sur l’impact de ces technologies. La formation et la certification des enseignants inspirées par la Finlande et l’Australie sont en parallèle essentiels. En Finlande des programmes de formation continue ont été conçus pour les enseignants sur les enjeux éthiques de l’IA et les meilleures pratiques pédagogiques, ainsi que des programmes de certification en éthique de l’IA et en technologies éducatives en Australie. Il faudrait sur ces exemples organiser au Maroc des ateliers et des sessions de formation régulières pour les enseignants, axés sur l’utilisation éthique et efficace de l’IA en classe. Il faudrait aussi développer des certifications internes pour les enseignants, validant leurs compétences dans l’intégration responsable de l’IA dans leurs pratiques pédagogiques.
Mais sensibiliser ne suffit pas : il faut également développer une culture d’intégrité académique. Cela passe par la valorisation du travail original à travers des distinctions académiques, des prix ou des mentions spéciales. En parallèle, fournir un soutien personnalisé via des séances de tutorat ou des ressources complémentaires peut réduire la tentation de recourir à des solutions automatisées de manière non autorisée, en rassurant les étudiants face à leurs défis scolaires.
Sur le plan technologique, l’utilisation d’outils de détection comme les logiciels anti-plagiat ou les algorithmes capables d’identifier des incohérences dans les travaux académiques des étudiants offre une dissuasion immédiate des abus. A Singapour, des mécanismes de surveillance active ont été mis en place pour détecter toute utilisation abusive de l’IA dans les travaux étudiants. En Corée du Sud , on utilise des plateformes d’IA pour suivre les progrès des étudiants et identifier les difficultés, offrant ainsi un support personnalisé. Au Maroc, il faudrait en plus des outils de détection, utiliser des outils d’IA pour suivre le progrès des étudiants et identifier les besoins spécifiques, permettant une intervention ciblée et proactive par les enseignants.
Cependant, leur efficacité diminue face à des stratégies de contournement toujours plus sophistiquées. Ces technologies doivent donc être complétées par des approches plus interactives, comme la révision des méthodes d’évaluation, qui intègrent davantage d’éléments oraux ou pratiques. Présentations, défenses de projets et évaluations régulières permettent de mieux évaluer la compréhension réelle des étudiants, tout en rendant plus complexe l’usage non éthique de l’IA.
Par ailleurs, un stratégie de promotion de l’autonomie et de la pensée critique (Inspiré par l’Estonie et le Japon) s’avère cruciale. En Estonie, pionnière dans le domaine de l’éducation numérique, on encourage la promotion de l’autonomie des étudiants et développement de compétences en pensée critique grâce à l’utilisation d’outils d’IA transparents. Au Japon on développe une collaboration humain-AI, où l’IA assiste les étudiants sans remplacer leur rôle central dans le processus éducatif. Au Maroc, l’inspiration serait de des compétence en intégrant des exercices et des projets qui encouragent les étudiants à utiliser l’IA pour approfondir leur compréhension tout en renforçant leurs compétences en analyse critique et en résolution de problèmes. Il faudrait aussi, encourager l’Innovation en organisant des concours et des projets spéciaux où les étudiants doivent utiliser l’IA de manière créative et responsable, valorisant ainsi l’innovation tout en maintenant l’implication humaine.
Il est important également pour des Établissements, comme l’Institut Agronomique et Vétérinaire Hassan II ou l’ENSA de Rabat, de réévaluer et de structurer les travaux à domicile de manière à favoriser une utilisation éthique et bénéfique de l’IA. L’objectif est de multiplier les travaux réalisés en classe, limitant ainsi les opportunités de recours inapproprié à l’IA, tout en redéfinissant les travaux à domicile pour qu’ils intègrent l’IA comme un outil complémentaire plutôt que comme une solution de remplacement, par exemple en utilisant des logiciels d’analyse de données ou des outils de correction grammaticale, tout en exigeant des analyses critiques et des interprétations personnelles. A Singapour on utilise de l’IA pour améliorer l’engagement des étudiants tout en maintenant une supervision active pour éviter les abus. Au Canada, des initiatives comme “AI for Education” encouragent l’utilisation responsable de l’IA pour soutenir l’apprentissage personnalisé. Au Maroc, il faudrait aussi en plus d’une réévaluation des travaux à domicile comme il a été souligné, encourager les projets de groupe où l’IA est utilisée pour la gestion de projet et l’analyse de données, tout en favorisant la collaboration humaine et l’innovation.
Exemples Concrets :
- Analyse de Données Agronomiques :
- Travail en Classe : Les étudiants collectent des données sur les rendements des cultures ou la santé des animaux.
- Travail à Domicile : Utiliser un logiciel d’IA pour analyser ces données et identifier des tendances, puis interpréter les résultats et proposer des améliorations.
- Rédaction de Rapports de Recherche :
- Travail en Classe : Discussions et recherches dirigées avec l’enseignant.
- Travail à Domicile : Utiliser des outils d’IA pour trouver des articles scientifiques et corriger la grammaire, tout en rédigeant l’analyse critique et les conclusions personnelles.
- Création de Présentations :
- Travail en Classe : Préparer et présenter des projets devant la classe.
- Travail à Domicile : Utiliser des outils comme Canva avec des fonctionnalités d’IA pour créer des graphiques et des infographies, tout en se concentrant sur le contenu et la communication des idées.
- Projets Collaboratifs :
- Travail en Classe : Travailler en groupe sur des projets pratiques, comme la gestion durable des ressources.
- Travail à Domicile : Utiliser des plateformes d’IA pour organiser le projet, répartir les tâches et analyser les données collectées en groupe.
Des stratégies pour encourager une Utilisation Responsable de l’IA seraient d’organiser des ateliers pour apprendre aux étudiants à utiliser l’IA de manière éthique et efficace, d’inclure dans les notes la manière dont les étudiants utilisent l’IA dans leurs travaux, valorisant ainsi une utilisation réfléchie et complémentaire, de fournir un accès facile aux outils d’IA et offrir de l’aide technique pour leur utilisation, de récompenser les projets innovants qui utilisent l’IA de manière créative et responsable.
En appliquant ces méthodes, une institution universitaire peut tirer parti des avantages de l’IA tout en garantissant que les étudiants développent leurs compétences personnelles et critiques. Cette approche équilibrée permet aux étudiants d’utiliser l’IA comme un outil puissant pour améliorer leur apprentissage, sans dépendre entièrement de la technologie, ce qui renforce leur autonomie et leur capacité à résoudre des problèmes de manière créative et indépendante.
Cependant, pour que toutes ces initiatives fonctionnent, il est vital d’instaurer des politiques claires et transparentes. Définir explicitement les règles d’utilisation de l’IA, ainsi que les sanctions applicables en cas de non-respect, garantit une compréhension commune des attentes. Il est également essentiel que les enseignants soient formés à identifier les signes d’un usage inapproprié de l’IA et à appliquer ces règles de manière cohérente et équitable.
Pour promouvoir une relation positive avec l’IA, il est préférable de mettre en avant une utilisation responsable et encadrée. Les étudiants doivent comprendre dans quelles conditions ils peuvent recourir à ces outils et comment les intégrer de manière éthique dans leurs projets académiques. L’IA peut ainsi devenir un complément précieux pour l’apprentissage, sans pour autant en être un substitut.
Enfin, instaurer un dialogue ouvert entre les étudiants et les enseignants est primordial. Permettre aux étudiants d’exprimer leurs préoccupations et de poser des questions sur l’usage de l’IA crée un climat de confiance. Recueillir régulièrement leurs avis sur les politiques en place et ajuster ces dernières en fonction des retours et des évolutions technologiques favorise une co-construction des règles, tout en leur assurant une pertinence durable.
En conclusion, ces mesures, loin de s’exclure mutuellement, doivent être envisagées comme des stratégies complémentaires adaptées au contexte spécifique de l’Institut Agronomique et Vétérinaire Hassan II et de l’ENA de Rabat. En tenant compte des particularités culturelles et académiques des étudiants, il devient possible de promouvoir une utilisation responsable de l’IA tout en renforçant les valeurs d’intégrité, de créativité et d’engagement personnel dans les environnements éducatifs. En s’inspirant des meilleures pratiques internationales, l’Institut Agronomique et Vétérinaire Hassan II de Rabat, l’ENSA ou d’autres institutions universitaires au Maroc peuvent adopter des stratégies innovantes pour réguler l’utilisation de l’IA dans l’éducation.
Conclusion générale : Proposition pour un Rapport Pédagogique Annuel sur l’Utilisation de l’IA
Au regard des arguments développés, il est clair que l’IA n’est pas un adversaire à combattre, mais qu’il convient de lutter contre ses usages biaisés tout en promouvant une utilisation objective et responsable chez les étudiants. C’est l’étudiant qui est le moteur de son apprentissage. C’est sa réflexion, son analyse et ses efforts qui transforment les informations en connaissances durables. En ce sens, l’IA est un outil complémentaire, non un substitut.
Pour garantir que les trajectoires éducatives souhaitées sont respectées, une solution concrète serait de demander aux enseignants de fournir un rapport pédagogique annuel. Ce rapport pédagogique n’est pas le rapport d’activité de l’enseignant.
Il doit être fourni chaque année et pourrait être structuré de manière à fournir une vue claire et détaillée sur la manière dont les enseignants intègrent l’IA dans leurs pratiques éducatives. Son objectif serait de démontrer que les travaux demandés aux étudiants sollicitent l’IA comme outil complémentaire et non comme solution de remplacement. Par exemple, un enseignant pourrait expliquer comment un exercice de recherche bibliographique demande aux étudiants d’utiliser une IA pour identifier des sources pertinentes, tout en les incitant à analyser ces sources de manière critique et à rédiger un résumé argumenté. De même, pour un projet impliquant des simulations agricoles, les étudiants pourraient utiliser l’IA pour modéliser des scénarios, mais l’interprétation des résultats et les recommandations resteraient le fruit de leur réflexion. Ce rapport servirait également à identifier les stratégies mises en œuvre pour prévenir les biais liés à l’utilisation de l’IA. Il faudrait réfléchir qui va analyser ce rapport et interpeller les enseignants qui ne se conforment pas aux procédures visant à vérifier le bon usage de l’IA par les étudiants, notamment les exigences de travaux qui ne sollicitent pas l’IA comme outil de remplacement.
Pour s’assurer que l’IA ne remplace pas les efforts des étudiants, les enseignants pourraient inclure dans leur rapport des indicateurs précis. Parmi ces indicateurs, on pourrait retrouver
- Le pourcentage de travaux nécessitant une composante orale ou pratique, comme des présentations ou des défenses de projet, qui permettent de vérifier la compréhension personnelle des étudiants.
- La diversité des travaux sollicitant l’IA, en différenciant les usages complémentaires (analyse préliminaire de données, génération de supports visuels) des usages potentiellement substitutifs (rédaction automatique ou traduction sans révision).
- Le suivi des performances individuelles, en observant la cohérence des productions des étudiants par rapport à leurs travaux précédents, pour détecter d’éventuelles dépendances à l’IA.
Par ailleurs, le rapport pourrait également inclure des retours des étudiants sur leur perception de l’usage de l’IA, afin d’ajuster les pratiques pédagogiques en fonction de leurs besoins et des évolutions technologiques. Ces retours permettraient de mesurer leur engagement et leur progression, tout en identifiant les éventuelles lacunes dans leur compréhension des outils utilisés.
Cette démarche pourrait être renforcée par une sensibilisation continue des étudiants aux enjeux éthiques et académiques liés à l’IA. Par exemple, des ateliers pourraient être organisés pour expliquer les limites et les responsabilités associées à l’utilisation de l’IA, ainsi que pour clarifier les règles institutionnelles concernant son usage. Les enseignants, de leur côté, pourraient bénéficier de formations spécifiques pour concevoir des travaux pédagogiques intégrant l’IA de manière équilibrée et éthique.
Ainsi, en combinant une réflexion pédagogique structurée, un suivi rigoureux via des indicateurs et une sensibilisation active, des établissements comme l’Institut Agronomique et Vétérinaire Hassan II et l’ENA de Rabat pourraient non seulement encadrer efficacement l’usage de l’IA, mais aussi en faire un levier d’apprentissage authentique et durable. Cette approche favoriserait une culture académique qui valorise l’effort personnel, la créativité et l’intégrité, tout en préparant les étudiants à exploiter les technologies numériques de manière responsable et critique dans leurs futures carrières.
Cette proposition, comme toutes les autres solutions, ne pourra se concrétiser qu’à condition qu’il y ait une réelle volonté de la part des responsables des établissements et des enseignants-chercheurs. Sans cette volonté, aucune avancée n’est possible.
Cette insistance sur la nécessité d’une volonté préalable est renforcée par certaines déclarations de professeurs qui donnent froid dans le dos. Un enseignant-chercheur, partageant son point de vue sur l’utilisation mal réfléchie de l’IA dans le milieu universitaire, m’a raconté une anecdote inquiétante. À l’université, l’un de ses collègues lui avait lancé : ‘À quoi bon perdre son temps à surveiller les étudiants sur leur utilisation de l’IA ? Ce n’est qu’une perte de temps.
Un autre, encore plus désabusé, lui déclara : « Moi, je n’ai pas à corriger les déficiences du système éducatif qui nous envoie des étudiants peu performants. Je m’adapte à la réalité et je laisse couler. Après tout, il faut bien leur permettre de gagner leur bouchée de pain. »
Une telle mentalité, malheureusement partagée par certains enseignants, reflète une acceptation délibérée du nivellement par le bas. Elle condamne notre système universitaire à l’agonie, alors que d’autres nations s’efforcent d’exceller et de faire de leurs universités des références mondiales
Il faut une volonté politique forte pour changer cet état de fait et améliorer notre système éducatif. Sans cela, nous risquons de nous diriger inexorablement vers l’abîme.
Bibliographie
Benjamin, R. (2019). Race After Technology: Abolitionist Tools for the New Jim Code. Polity Press. 320 pages.
Luckin, R. (2018). Machine Learning and Human Intelligence: The Future of Education for the 21st Century. UCL Institute of Education Press. 157 pages.
Mitra, S. (2019). The School in the Cloud: The Emerging Future of Learning. TED Books. 216 pages.
Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press. 256 pages.
O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing Group. 259 pages.
Selwyn, N. (2019). Should Robots Replace Teachers? AI and the Future of Education. Polity Press. 120 pages.
Siemens, G., & Baker, R. (2012). Learning Analytics and Educational Data Mining: Towards Communication and Collaboration. In Proceedings of the 2nd International Conference on Learning Analytics and Knowledge (pp. 252-254). ACM.
Turkle, S. (2015). Reclaiming Conversation: The Power of Talk in a Digital Age. Penguin Press. 448 pages.
Watters, A. (2021). Teaching Machines: The History of Personalized Learning. MIT Press. 328 pages.