Ile Maurice: Intelligence artificielle ou bêtise naturelle

24 Février 2026

Le lancement de ChatGPT par OpenAI, en novembre 2022 a déclenché une course mondiale aux intelligences artificielles (IA) génératives. De Claude d'Anthropic à Llama de Meta, dévoilé en 2023, en passant par Gemini de Google (anciennement Bard), lancé la même année par Perplexity. ai et popularisée en 2023, et DeepSeek, start-up chinoise, créée en 2023, l'écosystème s'est structuré à l'échelle internationale.

Parmi les nations qui se positionnent en leaders, on retrouve les États-Unis, qui ont annoncé un investissement massif d'USD 500 milliards dans le projet Stargate, en partenariat avec OpenAI, afin de renforcer leur souveraineté technologique, ainsi que la France, qui a mobilisé EUR 109 milliards d'investissements privés et internationaux pour accélérer le développement de l'intelligence artificielle sur son territoire.

La Chine aurait, pour sa part, consacré près d'USD 100 milliards au développement de l'intelligence artificielle pour la seule année 2025. Si ces investissements massifs confirment le potentiel et les bénéfices considérables qu'offre l'intelligence artificielle, notamment l'IA générative, ils soulèvent également de nombreuses interrogations.

Restez informé des derniers gros titres sur WhatsApp | LinkedIn

Anne Alombert, philosophe et maître de conférences à l'université Paris 8, spécialiste des enjeux anthropologiques des transformations technologiques contemporaines, souligne dans son ouvrage «De la bêtise artificielle»,les limites des systèmes d'intelligence artificielle et en examine les effets sur nos capacités de réflexion, d'attention, de jugement et, plus largement, sur l'exercice même de la pensée.

Enjeux écologiques et sociaux

Tout d'abord, Anne Alombert rappelle la complexité et la pluralité des enjeux liés à l'IA. «Il faut éviter de tomber dans des discours transhumanistes ou technosolutionnistes, qui ne voient qu'un aspect de ces industries numériques contemporaines.»

Elle souligne également les enjeux écologiques et sociaux liés à l'IA : derrière les usages numériques se déploient des infrastructures lourdes - centres de données, câbles, satellites - extrêmement gourmandes en électricité et en eau pour leur refroidissement. Ces besoins énergétiques et matériels peuvent générer des tensions politiques, notamment lorsque l'implantation de data centres entre en concurrence avec les ressources et les intérêts des populations locales.

Idéologie

Elle met également en lumière la dimension idéologique et les logiques de pouvoir à l'oeuvre derrière ces technologies. Les notions d'«intelligence», d'«apprentissage» ou d'«agentivité» donnent l'illusion d'une machine autonome, presque équivalente à l'humain. Pourtant, derrière ces «esprits numériques» se trouvent des choix humains : des travailleurs qui trient et annotent les données, des ingénieurs qui entraînent et ajustent les algorithmes selon des critères reflétant une certaine vision du monde. Elle poursuit en disant que «ces machines, elles ne sont pas du tout neutres». Ainsi, elles incorporent des représentations, des valeurs et des cadres de pensées spécifiques, liés à des entreprises et des nations.

Lorsqu'il s'agit d'outils linguistiques et symboliques, l'enjeu est d'autant plus sensible qu'ils peuvent influencer, voire orienter, les manières de penser de celles et ceux qui les utilisent. Elle met ainsi en garde : «Il y a un risque de conditionnement de nos esprits, une prise de pouvoir sur le langage, qui est aussi une prise de pouvoir sur nos esprits.»

Dans un «test» effectué par l'express, un prompt demandant la traduction en français du concept de «gender empowerment» a conduit ChatGPT (version 5.2) à répondre «autonomisation des femmes», réduisant ainsi le terme à sa seule dimension féminine et laissant de côté les enjeux liés aux identités de genre et aux personnes LGBTQIA+. Un exemple qui pourrait apparaître comme le reflet de la politique américaine du moment. Simple hasard ou biais algorithmique ?

Dette cognitive

Elle cite notamment une étude du Massachusetts Institute of Technology, prépubliée en 2025, portant sur les effets de l'usage de ChatGPT sur l'activité cérébrale (Kosmyna et al., 2025). Les chercheurs y évoquent une réduction de la connectivité cérébrale et de l'amplitude cognitive. «Le groupe travaillant avec ChatGPT a vu son amplitude cognitive totale réduite de près de 55 %.» L'étude évoque également des «déficits mémoriels». Anne Alombert explique que «les utilisateurs du LLM (NdlR, Large Language Models) manifestent également des déficits mémoriels, liés à un encodage superficiel des informations: sur le long terme, l'étude suggère que le remplacement des efforts mentaux par ces automates algorithmiques pourrait entraîner une diminution de l'esprit critique, une vulnérabilité à la manipulation et une baisse de la créativité.»

Autrement dit, à force de délégation, il peut y avoir une perte de compétence. Elle illustre cela à travers une métaphore parlante. «Un étudiant utilisant ChatGPT pour écrire ses devoirs est l'équivalent d'un footballeur qui demanderait à un robot d'aller s'entraîner à sa place! Un tel étudiant ne pourrait ni apprendre ni progresser.»

L'effet ELIZA

Au sujet des jeunes qui «tombent amoureux» d'un chatbot, Anne Alombert explique que certains cas d'attachement, voire de relations amoureuses avec ces dispositifs, peuvent s'expliquer par un mécanisme d'anthropomorphisme. Ces machines utilisent la première personne du singulier - le «je» - et mobilisent des marqueurs d'empathie («je comprends», «je ressens», «je suis là pour toi»), ce qui active notre tendance à attribuer des intentions, des émotions et une forme d'altérité à des entités pourtant dépourvues de subjectivité.

Ce phénomène renvoie à «l'effet ELIZA», identifié dès les années 1960 par l'informaticien Joseph Weizenbaum, créateur du premier chatbot du même nom. Il avait observé que même un programme très simple, fondé sur des règles rudimentaires, suffisait à susciter chez les utilisateurs une forme de projection et d'attachement. Avec les IA génératives actuelles, beaucoup plus sophistiquées, cette tendance est amplifiée. On a affaire à une simulation d'altérité : il ne s'agit pas d'un véritable «autre» mais d'une altérité mise en scène par des procédés d'interface parfois proches des dark patterns. La machine donne l'illusion d'une présence empathique alors qu'elle renvoie en réalité un miroir algorithmique de l'utilisateur.

Reprendre la maîtrise

Le fantasme des machines pensantes masquerait donc ce qui est simplement un processus d'automatisation : ces systèmes reposent sur des calculs statistiques et probabilistes appliqués à des quantités massives de données. On peut dès lors comprendre qu'ils produisent principalement des effets de moyennisation, de standardisation et d'uniformisation, plutôt que de manifester de véritables capacités créatives.

Nous évoluons dans un monde d'écrans, saturé de contenus infinis, défilant au rythme du scroll et structurés par des cadres algorithmiques qui orientent, sélectionnent et hiérarchisent l'information. Face à cette transformation, l'enjeu n'est pas de céder au fantasme des machines pensantes mais de reprendre la maîtrise de leurs usages. Nous pouvons mettre ces technologies au service de l'intelligence collective et de la démocratisation de l'espace médiatique, à condition d'en faire des instruments de contribution, d'émancipation et de réflexion - et non de simple imitation ou d'automatisation. C'est à cette condition que pourra s'ouvrir la voie d'une véritable révolution numérique, au service de l'humain plutôt que de son effacement.

AllAfrica publie environ 500 articles par jour provenant de plus de 90 organes de presse et plus de 500 autres institutions et particuliers, représentant une diversité de positions sur tous les sujets. Nous publions aussi bien les informations et opinions de l'opposition que celles du gouvernement et leurs porte-paroles. Les pourvoyeurs d'informations, identifiés sur chaque article, gardent l'entière responsabilité éditoriale de leur production. En effet AllAfrica n'a pas le droit de modifier ou de corriger leurs contenus.

Les articles et documents identifiant AllAfrica comme source sont produits ou commandés par AllAfrica. Pour tous vos commentaires ou questions, contactez-nous ici.