Afrique: L'IA peut être un danger pour les étudiants - 3 mesures que les universités doivent prendre

analyse

Les intelligences artificielles génératives (IA) sont conçues pour parcourir d'immenses quantités de textes, d'images ou de vidéos afin d'y repérer des régularités. Elles s'en servent ensuite pour créer de nouveaux contenus : des textes, des images ou des vidéos. Et plus on les utilise, plus elles deviennent performantes grâce à l'apprentissage automatique.

À mesure que l'IA s'intègre dans la vie universitaire, une réalité préoccupante apparaît : les étudiants sont extrêmement vulnérables à son utilisation. Ils ne maîtrisent ni son fonctionnement, ni leur propre discipline assez bien pour en évaluer les limites. Et ils ne connaissent pas suffisamment leur matière pour pouvoir porter un jugement à ce sujet. Plus préoccupant encore, ils ignorent qu'ils ne maîtrisent l'outil IA.

Nous sommes deux universitaires impliqués par l'enseignement supérieur. Nous avons identifié quatre dangers majeurs pour les étudiants :

  • la confiance aveugle en ses capacités
  • son utilisation pour contourner l'apprentissage réel
  • la méconnaissance de son fonctionnement
  • L'élargissement du fossé entre l'expertise réelle et le bruit des fausses certitudes.

Suivez-nous sur WhatsApp | LinkedIn pour les derniers titres

Compte tenu de notre expérience en tant qu'universitaires ayant élaboré des programmes d'études pour les étudiants et mené des recherches sur l'IA générative, nous pensons que les universités peuvent agir de trois manières. Elles devraient apprendre aux étudiants un esprit critique vis-à-vis de l'IA, insister sur la nécessité d'acquérir des connaissances solides et leur montre en quoi l'expertise est essentielle pour interagir de manière efficace avec les outils IA.

Les quatre dangers

Une confiance aveugle dans les fausses certitudes de l'IA Un récent rapport de Microsoft a montré que ceux qui connaissent le moins un sujet sont les plus enclins à croire les réponses données par l'intelligence artificielle. Les programmes d'IA générative tels que ChatGPT et Claude produisent des textes avec une assurance remarquable. Les étudiants qui ne possèdent pas d'expertise dans le domaine ne sont pas en mesure de déterminer quand ces systèmes se trompent complètement.

Les titres de la presse montrent déjà les conséquences de cette situation sur le lieu de travail : des avocats ont cité des décisions de justice fictives générées par l'IA des avocats soumettent des citations de jurisprudence inventées par l'IA et des hôpitaux utilisent des outils de transcription basés sur l'IA qui fabriquent des propos jamais tenus.

L'IA générative peut se tromper parce qu'elle ne « comprend » rien au sens humain du terme. Mais elle peut identifier et reproduire des modèles avec une sophistication remarquable, que ce soit dans les mots, les idées, le ton ou le style.

Passer à côté du pouvoir de l'éducation. L'un des objectifs fondamentaux de l'enseignement supérieur est de donner aux étudiants une nouvelle façon de comprendre le monde et leur place dans celui-ci. Lorsque les étudiants utilisent l'IA d'une manière qui contourne les défis intellectuels, ils passent à côté de cette transformation essentielle.

Lorsque les étudiants se contentent de déléguer leur réflexion à l'IA, ils obtiennent des diplômes sans compétences. Ils peuvent obtenir un diplôme, mais sans les connaissances et l'expertise qui vont avec.

Le piège de la fausse assurance Même les étudiants qui développent une conscience critique des limites de l'IA sont confrontés à ce que Punya Mishra, professeur d'ingénierie de l'apprentissage à l'université d'État de l'Arizona, appelle «Le piège de la fausse assurance ». Ils peuvent reconnaître que l'IA peut produire des erreurs, mais ne disposent pas des connaissances suffisantes pour les corriger.

Comme l'explique Mishra :

C'est comme avoir un détecteur de mensonges générique, mais sans aucun moyen de distinguer la vérité de la fiction.

Cela crée une situation dangereuse où les étudiants reconnaissent que l'IA n'est pas parfaite, mais ne sont pas en mesure d'évaluer efficacement ses résultats.

Creuser le fossé des connaissances. À mesure que l'IA se généralise sur le lieu de travail, le fossé entre ceux qui possèdent une véritable expertise et ceux qui s'appuient uniquement sur l'IA va se creuser. Les étudiants qui n'ont pas de bases solides de connaissances seront de plus en plus marginalisés dans un monde où, paradoxalement, l'expertise humaine devient encore plus précieuse à mesure que l'IA progresse.

Les solutions

Face aux défis posés par l'IA, les unversités peuvent ont trois grandes responsabilités

Intégrer une culture critique de l'IA. Les étudiants doivent comprendre comment fonctionne l'IA générative, comment l'IA est entraînée à partir d'énormes bases de données de textes et d'images créés par l'homme afin d'identifier des modèles à partir desquels elle peut produire de nouveaux contenus.

Il ne suffit pas d'avoir un cours d'« introduction à l'IA ». Chaque discipline doit montrer aux étudiants comment l'IA s'applique à leur domaine et, surtout, leur donner les moyens de réfléchir aux implications éthiques de son utilisation.

Par exemple, se poser des questions sur l'utilisation de contenus protégés par le droit d'auteur pour l'entraînement de l'IA générative, sur les biais inhérents aux textes et images générés par l'IA, et sur le coût environnemental considérable de l'utilisation de l'IA.

Mettre l'accent sur le développement des connaissances. Les établissements d'enseignement supérieur doivent lutter activement contre l'idée que l'université se résume à la délivrance de diplômes. Nous devons aider les étudiants à comprendre l'intérêt d'acquérir une expertise dans un domaine. Ce n'est pas toujours évident pour ceux qui voient l'université comme un simple tremplin pour obtenir un emploi. Pour eux, le savoir n'est qu'un outil. Il peuvent ainsi être tentés de recourir souvent à l'IA, pour éviter de se confronter à des idées complexes. Ce qu'il faut, c'est développer un rapport personnel au savoir. C'est ce qui les préparera à un avenir où l'IA sera partout. La promotion du pouvoir des connaissances doit être au coeur de la mission de chaque universitaire.

Donner l'exemple d'une double expertise. Les universitaires doivent donner l'exemple de ce que Mishra appelle « le défi de la double expertise », qui consiste à combiner des connaissances dans un domaine avec une maîtrise critique de l'IA. Autrement dit, montrer aux étudiants comment les experts interagissent avec l'IA : analyser ses résultats par rapport aux connaissances établies, en identifiant ses biais ou ses lacunes et en s'en servant pour enrichir l'expertise humaine, pas pour la remplacer.

Plus l'IA progresse, plus l'expertise humaine prend de la valeur. Les universités qui forment leurs étudiants à utiliser ces outils avec esprit critique, tout en leur transmettant un vrai savoir disciplinaire, seront les mieux préparées à faire face à un monde en perpétuelle évolution technologique

Le défi est de taille, mais l'expertise reste plus que jamais précieuse.

Sioux McKenna, Professor of Higher Education, Rhodes University, South Africa, Rhodes University

Nompilo Tshuma, Senior Lecturer and Researcher in Educational Technology and Higher Education Studies, Stellenbosch University

AllAfrica publie environ 500 articles par jour provenant de plus de 80 organes de presse et plus de 500 autres institutions et particuliers, représentant une diversité de positions sur tous les sujets. Nous publions aussi bien les informations et opinions de l'opposition que celles du gouvernement et leurs porte-paroles. Les pourvoyeurs d'informations, identifiés sur chaque article, gardent l'entière responsabilité éditoriale de leur production. En effet AllAfrica n'a pas le droit de modifier ou de corriger leurs contenus.

Les articles et documents identifiant AllAfrica comme source sont produits ou commandés par AllAfrica. Pour tous vos commentaires ou questions, contactez-nous ici.