L’intelligence artificielle va-t-elle redéfinir l’apprentissage?

Si des questions autour de l'usage de l'intelligence artificielle en éducation se posent, les experts promettent des applications positives. Crédit images: Donald Iain Smith via Getty Images

Face à la montée des inquiétudes liées à l’usage de l’intelligence artificielle (IA), quels sont véritablement les risques et faut-il voir d’un mauvais œil la multiplication d’outils intégrant l’intelligence artificielle? Dans un contexte scolaire, des experts réitèrent l’importance de développer l’esprit critique chez les apprenants. 

« Plusieurs choses peuvent être problématiques en éducation, par exemple la triche. C’est un exemple important. Mais il y a aussi le risque d’utiliser trop tôt l’intelligence artificielle », pense Nicolas Papernot, professeur de sécurité informatique à l’Université de Toronto et chercheur en apprentissage automatique. 

Pour le professeur, utiliser l’intelligence artificielle « pour faire certaines choses avant même que l’on ait soi-même compris comment » est un risque à prendre à compte.

Pour comprendre, l’expert explique « qu’avant d’utiliser une calculatrice, il faut savoir compter ». 

« Il y a un aspect qui peut nuire à la pédagogie, s’il y a trop de facilité à utiliser ces outils. On peut perdre en valeur pédagogique, là où on n’apprend pas à raisonner soi-même. »

« On perd ce qui fait la force de l’humain, c’est-à-dire, avoir un esprit critique », reprend-il.

Ce ne sont que des outils 

Pascal Poupart, professeur à l’Université de Waterloo, spécialiste en intelligence artificielle et en algorithme d’apprentissage pour les chatbots (programmes informatiques qui simulent et traitent une conversation humaine), admet qu’il existe des risques de triche chez les étudiants via l’usage d’outils tels que Chat GPT (Chat Generative Pre-trained Transformer). Il nuance, tout de même, en rappelant que, « même si le risque est présent, cela existait avant cet outil. Il a été simplement amplifié. Avant, on pouvait quand même demander à Google ou à Bing des réponses et copier cela. »

 « Ce n’est pas nouveau », reprend-il, « ça a toujours été un problème ».

Nicolas Papernot, professeur à l’Université de Toronto, membre de l’Institut Vector et chair de recherche à l’Institut canadien de recherches avancées. Gracieuseté

Bien que ce problème trouvera écho dans des contextes universitaires, voire secondaires, l’usage de l’intelligence artificielle pourrait, en fait, être positif dans les classes, selon M. Papernot. 

« Il y a des façons positives d’utiliser l’intelligence artificielle. Par exemple, on peut imaginer qu’on pourra avoir accès à plus de ressources pédagogiques qui sont écrites, en anglais ou dans d’autres langues. » 

C’est aussi une façon de rendre du contenu plus accessible pour l’enseignant, les élèves en difficulté ou ayant un handicap, qui pourraient bénéficier de l’intelligence artificielle. « On pourrait lire le texte pour l’élève. Cela pourrait donner des applications positives. »

En effet, c’est ce que soutient son homologue, M. Poupart : « Ces applications peuvent servir d’assistant. Souvent, les étudiants vont avoir une certaine hésitation à consulter quelqu’un par peur d’avoir l’air bêtes. Alors que quand on demande à un ordinateur, on n’a pas de souci, à savoir ce que l’ordinateur va penser de nous. Cet aspect-là devient très attrayant. » 

« Sans oublier que c’est disponible en tout temps », ajoute-t-il.

Pascal Poupart observe justement comment ses étudiants utilisent Chat GPT. Ils lui racontent d’ailleurs que depuis que cette technologie existe, ils consultent la plateforme pour améliorer leurs textes, mais aussi démarrer une recherche là où Google ou Bing n’arrivent pas à donner des pages intéressantes. « Chat GPT va leur donner l’information supplémentaire, complémentaire, avec même une explication qui n’est pas disponible avec les autres engins de recherche. Selon moi, c’est un nouvel outil qui va avoir beaucoup de positif. »

Changer l’apprentissage 

Le rôle de l’enseignant pourrait changer quelque peu. Notamment dans la manière de donner ses leçons. « Comment apprendre aux élèves, aux étudiants cet esprit critique? », se demande M. Papernot. 

« C’est quelque chose qu’on peut faire en changeant un petit peu les modalités d’évaluation. J’y ai réfléchi dans mes cours et je crois qu’on ne peut plus vraiment donner beaucoup de valeur aux devoirs à la maison, en tant qu’évaluation par exemple. »

Il faudra peut-être penser à de nouvelles façons de faire classe à l’avenir, pensent les experts. Crédit image : Krongkaew via Getty Images

Le chercheur pense aussi qu’il est temps de se poser les questions : « À quoi sert l’éducation? Quelles sont les compétences dont les élèves vont avoir besoin une fois qu’ils auront quitté l’école? » 

« Il est important de se poser la question de l’impact sur les différents métiers aujourd’hui. Et ça va certainement créer de nouveaux métiers. Ça va aussi en faire disparaître ou les rendre plus efficaces. »

« C’est ça qu’il faut se poser comme question pour ensuite comprendre ce que les élèves devraient apprendre à l’école pour être productifs dans une société qui va changer. »

Pour M. Poupart, « à long terme, on va devoir raisonner en temps réel pour prendre des décisions. C’est vraiment plus cet aspect-là qui devient important. En tant qu’éducateur, quand je construis un examen, je m’assure toujours qu’il y a des questions qui ne sont pas dans le matériel du cours en tant que tel, mais qui vont simplement demander un raisonnement. Ils ne pourront pas simplement répéter ou ne pourront pas simplement faire une recherche. Et dans ce temps-là, c’est là qu’on peut vraiment voir l’apprentissage. » 

Ralentir le développement de l’IA

« Des chercheurs demandaient qu’on ralentisse, dans une période de six mois, l’évolution de nouveaux systèmes », explique M. Poupart. 

« Bien sûr, il y a des risques puisque Chat GPT apprend à partir de textes qui sont sur le web, donc il demeure quand même un risque où le chatbot pourrait répondre à des questions de manière complètement inappropriée », admet le chercheur. 

Pascal poupart est professeur à la David R. Cheriton School of Computer Science de l’Université de Waterloo, il est aussi chercheur à l’institut Vector à Toronto. Gracieuseté

Pascal Poupart constate que, souvent, ce contenu peut être réutilisé dans des mauvaises circonstances et donner lieu à des problèmes. De plus, Chat GPT ne révèle pas nécessairement d’où proviennent les données. Il y a donc des risques de propager plus de fausses informations.

« Le plus important, c’est de se souvenir que ça reste des outils », pense M. Papernot. « L’intelligence artificielle ne va pas remplacer les humains. C’est vraiment quelque chose qui peut nous aider à être plus productifs, plus créatifs. »

Bien sûr, les outils qui intègrent l’IA peuvent « automatiser certaines tâches qui ne demandent pas forcément beaucoup de logique ou qui demandent de digérer une grande quantité d’informations ». 

Pour l’expert, bien qu’il faille porter une attention particulière aux usages, l’intelligence artificielle aura probablement un dénouement positif dans les cercles culturels. « C’est intéressant de réfléchir aux artistes et comment ils vont pouvoir utiliser des outils comme ça. Ça peut aussi permettre aux artistes de faire des choses qui n’étaient pas possibles avant. »

Plutôt que d’arrêter l’évolution de l’intelligence artificielle, M. Parpernot juge qu’il faut mieux comprendre les limites et les types d’applications valides pour cette technologie. « Au lieu de laisser tout un chacun découvrir ce que le modèle peut faire, avoir des guides en place pour expliquer ce modèle. Ne pas demander des conseils médicaux par exemple. »

« Encore une fois, on en revient à avoir un esprit critique. Il ne faut pas croire tout ce qui est dit par l’outil. »