La faculté d'éducation de l'université de Johannesburg (UJ) a organisé un webinaire intitulé «AI and Research : Challenges and Opportunities», le 26 février. L'événement réunissait des chercheurs, professeurs et doctorants de plusieurs pays autour d'une question qui agite désormais l'ensemble du monde académique : comment utiliser l'intelligence artificielle (IA) dans la recherche, sans en devenir l'otage ?
Le professeur Kerry J. Kennedy (photo), Distinguished Visiting Professor au département Education et Curriculum studies de l'UJ et Academic Development Advisor à l'Education University of Hong Kong, n'est pas venu rassurer son auditoire.
Il est venu le mettre en garde. Le constat de départ est vertigineux. Selon une étude citée par le professeur Kennedy et attribuée à Hajkowicz et al. (2023), l'utilisation de l'IA dans la recherche académique est passée d'environ 14 % en 1960 à 98 % aujourd'hui. Ce chiffre ne traduit pas une tendance conjoncturelle. Il signale une transformation structurelle et probablement irréversible du métier de chercheur dans les sciences naturelles comme dans les sciences sociales et les humanités.
Restez informé des derniers gros titres sur WhatsApp | LinkedIn
L'IA peut désormais accomplir, sur simple instruction textuelle, l'intégralité du cycle de recherche : identifier un problème, conduire une revue de littérature, proposer une méthodologie, rédiger un avantprojet.
Des outils comme ChatGPT, Claude, Perplexity, Copilot ou DeepSeek s'en acquittent en quelques minutes. Des plateformes spécialisées comme Elicit, Research Rabbit ou Scite ont été conçues précisément pour la revue des littératures académiques tandis que PaperPal et Grammarly affinent la qualité rédactionnelle des manuscrits soumis aux revues scientifiques.
Mais le professeur Kennedy met en garde contre une illusion de facilité. Ces outils sont tout sauf neutres. DeepSeek refuse de répondre à certaines questions. ChatGPT produit des réponses orientées par les idéologies encodées dans ses algorithmes. Copilot, lui, s'appuie massivement sur Wikipédia - source que tout enseignant déconseille à ses étudiants.
Leur utilisation généralisée soulève un autre problème, moins visible mais tout aussi sérieux. Si tous les chercheurs interrogent les mêmes outils, ils obtiennent tendanciellement les mêmes réponses. La recherche risque alors de s'appauvrir dans une homogénéisation silencieuse des questions et des résultats, au détriment de l'innovation.
Le phénomène le plus préoccupant reste ce que les spécialistes appellent les hallucinations. L'IA invente des références bibliographiques, des noms d'auteurs, des titres d'ouvrages, qui n'ont jamais existé. Elle le fait avec assurance, dans un langage académique impeccable, sans signaler le moindre doute. Confrontée à ses propres erreurs, elle s'excuse et reconnaît avoir simplement «inventé» l'information. Ce n'est pas une anomalie marginale. C'est une caractéristique structurelle des grands modèles de langage - et elle a déjà coûté cher.
Le professeur Kennedy en apporte la preuve à travers deux cas réels survenus dans son propre établissement. Le premier concerne un étudiant en doctorat brillant dont l'article, issu de sa thèse, avait été accepté par une revue internationale prestigieuse après plusieurs tours de révision. On a ensuite découvert que de nombreuses références étaient fictives, générées par une IA et jamais vérifiées.
Le nom du directeur de thèse figurait sur l'article comme auteur correspondant, c'est à-dire le garant officiel de l'exactitude du contenu. Sa défense, selon laquelle il n'avait pas lu le papier, n'a pas été retenue. Il a perdu son poste de vice doyen et ses mandats sur plusieurs comités universitaires. Une carrière détruite par une absence de vigilance.
Le second cas est plus subtil et d'une certaine façon plus inquiétant. Une étudiante chinoise dont l'anglais oral restait hésitant a rendu en fin de semestre un travail écrit d'une qualité surprenante.
En vérifiant les références au hasard, le professeur Kennedy a constaté que 50 % des identifiants DOI - ces codes uniques permettant de retrouver un article scientifique en ligne - étaient erronés.
Les articles eux-mêmes existaient. Mais leurs références avaient été corrompues. L'enquête a révélé que l'étudiante avait rédigé son travail en chinois puis utilisé une application de traduction basée sur l'IA pour le convertir en anglais. Sans le savoir, elle avait laissé l'algorithme altérer silencieusement ses citations. Elle ignorait totalement ce qui s'était passé.
Malgré ces dérives, le professeur Kennedy ne plaide pas pour le rejet de l'IA. Il plaide pour son encadrement rigoureux au sein d'équipes de chercheurs experts. Il propose un modèle de travail structuré en trois phases : développement du projet, mise en oeuvre, publication.
Le principe est constant à chaque étape. L'IA fournit un point de départ. L'équipe humaine examine, corrige, enrichit et s'approprie le résultat. Chaque production algorithmique est soumise à une relecture critique collective : vérification du contenu, contrôle systématique de chaque référence, identification des hallucinations.
Ce n'est qu'après ce travail de révision que la recherche devient la propriété intellectuelle défendable de l'équipe. Car c'est là le critère central que pose le chercheur : une recherche doit pouvoir être défendue par ceux qui la signent. Une recherche entièrement générée par une IA ne peut l'être par personne.
Cette approche s'inscrit dans ce que le professeur Kennedy appelle l'IA comme augmentation à distinguer clairement de l'IA comme collaborateur autonome. La première renforce l'intelligence humaine sans la remplacer.
Le chercheur reste responsable, expert, capable de justifier ses choix. La seconde est incarnée notamment par Google, qui a développé avec Gemini 2.0 ce qu'il appelle lui-même un «co-scientifique IA».
Ce système est conçu pour opérer de manière quasi-indépendante en laboratoire, à travers un cycle auto-améliorant de quatre agents : génération, réflexion, classement, évolution. Pour le professeur Kennedy, la question devient alors philosophique. «Les équipes de Google ont décidé de le faire. Nous, nous n'y sommes pas obligés.»
Les grands éditeurs scientifiques sont sur ce point sans ambiguïté. Springer, Taylor & Francis et Elsevier sont formels : l'IA ne peut pas être listée comme auteur d'un article. La responsabilité est entièrement humaine.
Une précision supplémentaire, souvent ignorée, mérite d'être soulignée. Soumettre un projet de recherche à une IA pour en obtenir une relecture revient à rendre ses idées accessibles à l'algorithme, qui les intègre dans sa base de données. Des idées non encore publiées deviennent ainsi, de fait, publiques. Un risque que peu de chercheurs mesurent encore.
L'enjeu dépasse les murs de l'université. Il concerne toute institution qui recourt à ces outils pour produire du contenu ou orienter des décisions. Le professeur Kennedy a conclu : «Nous voulons utiliser la puissance de l'IA mais de manière à garantir la validité, la précision, l'honnêteté, la transparence et les principes éthiques.»