En dépit des opportunités que l'Intelligence artificielle (IA) offre aux journalistes dans l'exercice de leur profession, notamment la collecte, le traitement et la rédaction des articles, de nombreux obstacles se dressent devant les professionnels des médias pour l'usage de cet outil qui a pris de l'ampleur à partir de 2022. Ces obstacles sont liés à l'absence de dispositifs juridiques qui encadrent l'IA et son manque d'intégration dans le Code la presse. D'où la nécessité de mettre en place un arsenal juridique pour encadrer l'utilisation de l'IA.
C'est autour des problèmes cités ci-dessus, que se sont penchés les différents communicants lors de la rencontre qui se déroulait hier, jeudi 25 juillet, dans les locaux de l'École des Bibliothécaires, Archivistes et Documentalistes (ÉBAD). C'était dans le cadre du Colloque international des Sciences de l'Information et de la Communication (COSICA24) qu'accueille l'Université Cheikh Anta Diop (UCAD) de Dakar, du 24 au 26 juillet, sur le thème : «Les Sciences et métiers de l'information et de la communication à l'épreuve de l'intelligence artificielle (IA)».
L'enseignant-chercheur au Département de Géographie de l'UCAD, Ibrahima Sylla, précise qu'«il faut utiliser les contenus qui sont en rapport avec nos besoins spécifiques. Cela permettra une bonne analyse des données et leur exploitation». Selon lui, l'utilisation de l'IA par le journaliste pose un problème d'authenticité et de droit d'auteur. A cela s'ajoutent des risques potentiels. «Les professionnels des médias doivent être formés à l'usage de l'Intelligence artificielle, pour plus de précision dans les résultats de leurs recherches. L'automatisation de certaines tâches permet une productivité accrue et un gain de temps».
LES LIMITES D'UN PROGRES TECHNOLOGIQUE
De son côté, le consultant-formateur, Alioune Ba, un des panélistes qui a fait une présentation sur le sujet, soutient que «L'utilisation de l'IA soulève des questions éthiques importantes, telles que la fiabilité des données, la transparence des algorithmes et le respect de la vie privée des individus. Les journalistes doivent être vigilants, pour éviter les biais algorithmiques et le deep-fake, c'est-à-dire afin de garantir l'intégrité de leur travail. La fusion entre l'IA et les pratiques journalistiques suscite fascination et inquiétudes».
M. Ba relève que «Plus de 60%» des participants d'une étude qu'il a citée «ont exprimé des inquiétudes quant aux implications éthiques de l'IA, sur la qualité éditoriale, sur la précision, l'équilibre et la transparence, en d'autres termes, une menace potentielle pour l'intégrité de l'information et des médias. Au-delà des perspectives qu'elle ouvre, la démocratisation rapide de l'IA fait ainsi planer des risques sur les rédactions, notamment une perte de contrôle éditoriale et une baisse de la qualité journalistique due à une dépendance excessive aux algorithmes».
C'est pourquoi, recommande-t-il, «les sites et médias d'information doivent revoir leur stratégie pour accroître leur crédibilité. Dès lors, il appartient au journaliste d'utiliser l'IA de manière responsable, transparente et éthique. En tant que professionnel de l'information, il lui incombe de minimiser les biais algorithmiques et de garantir la fiabilité de l'information».
Pour le consultant-formateur, les préoccupations concernant l'impact de l'automatisation de l'IA sur l'emploi journalistique sont réelles. «Si l'IA peut améliorer l'efficacité et la productivité, elle peut également conduire à des suppressions d'emplois dans le secteur, en particulier pour les tâches plus routinières ; mais il est peu probable que l'IA remplace complétement le journalisme humain, en raison de la nécessité d'empathie. En effet, l'utilisation de l'IA pour gérer des articles peut entrainer des contenus peu fiables. Les informations extraites automatiquement peuvent manquer de vérification humaine», a conclu le consultant en communication, M. BA.