On n'échappera pas à l'intelligence artificielle (IA). La question est de savoir à quelle sauce nous choisirons d'être accommodés...
Dans le scénario «bon enfant», l'IA facilitera le quotidien ainsi que la recherche scientifique et accélèrera ainsi la productivité mondiale. Cela est déjà une réalité. Des chatbots alimentés par l'IA offrent déjà des services 24/7 presque instantanés, réduisent la bureaucratie, éliminent les déplacements vers les comptoirs et les queues tristes et lentes qui vont avec... L'IA transforme actuellement l'université, offrant des services «faits sur mesure» aux étudiants, 24/7 aussi, sauf que le contact véritablement humain n'y est pas.
La recherche médicale, s'appuyant sur l'IA prédit et aide à produire déjà les premières molécules requises pour contrer des maladies spécifiques. Les vaccins mRNA contre le Covid-19 furent ainsi identifiés et stabilisés en quelques semaines plutôt que des années, grâce à l'IA. L'erreur humaine disparaît. Les tâches anormalement répétitives aussi. L'IA peut déjà prévenir ou découvrir la fraude ou le ransomware, par exemple. Et l'on devrait, théoriquement, moins débattre à propos de l'objectivité des décisions/propositions suggérées par l'IA.
Restez informé des derniers gros titres sur WhatsApp | LinkedIn
Cependant, dans cette vague de bénéfices se trouvent aussi quelques sacrés défis! Quand on parle de «l'objectivité» de l'IA, n'oublions surtout pas que l'algorithme de base de l'IA est de s'identifier à son «client» et de graduellement lui suggérer ce qui va lui plaire plutôt que le contredire ! Il est vrai qu'a priori, l'IA est moins «émotionnelle» et plus factuelle, mais il ne faudra surtout pas oublier les risques que l'IA ne nous enferme dans nos propres bulles, nous rassurant en nous racontant les fleurettes qui vont nous conforter et nous flatter ; nous isolant des vérités plurielles de notre monde et des avis différents des autres.
L'autre conséquence majeure de l'IA va se jouer au niveau de l'emploi, de très nombreux emplois présents étant potentiellement remplaçables par l'IA, bien sûr! Les emplois répétitifs seront les premiers à disparaitre dans les usines, le service-clientèle, la saisie de données... Les emplois de premier niveau seront particulièrement vulnérables.
Cependant, on prédit aussi de nombreux «nouveaux» emplois, Le World Economic Forum prédit, par exemple, 92 millions d'emplois redondants d'ici 2030, largement compensés par 170 millions de nouveaux emplois. Si la suggestion que les employeurs devront largement s'investir dans la formation des jeunes à l'usage fonctionnel de l'IA parait raisonnable ; les «nouveaux emplois» annoncés ne sont pas précisés et restent plutôt mystérieux... (*). Les cerveaux libérés du répétitif seront surement mieux utilisés ?
Finalement, l'IA menace aussi le tissu social, la démocratie et, même l'état de droit, en offrant des perspectives extrêmement fertiles à tous les esprits tordus de la planète ! La manipulation de l'opinion publique à des fins politiques inavouables ou avec des buts mercantiles clairs est déjà en marche. Les arnaques vont s'accélérer. Les élections libres sont menacées. On remplace déjà les paradis fiscaux opaques par du dark web et les circuits nébuleux de la cryptomonnaie...
Il y a même des points de vue plus extrêmes encore, là où se trouvent les grands sceptiques, comme le sénateur Bernie Sanders, qui pensent que l'IA envahit trop nos vies privées, pille furtivement nos informations les plus intimes (combien de fois avons-nous déjà cliqué sur I AGREE sans jamais lire un mot de ce à quoi nous donnions notre consentement ?) et qu'il faudrait des contrôles dès maintenant et peut-être même un moratoire sur les développements actuels.
Une vidéo récente de Sanders interrogeant le produit IA, Claude d'Anthropic (**) fait actuellement le buzz ; Claude répondant, après une longue hésitation, que sa réponse préalable était naïve, que Sanders avait raison et qu'un moratoire est effectivement important ! Tempérons cependant cette réponse en soulignant que Claude veut peut-être simplement plaire à son interlocuteur en s'alignant sur ses positions... Qui sait ? Admirons tout de même la réponse franche de Claude quant aux motivations des compagnies produisant de l'IA... «Money», dit Claude, sans détour !
Ce qui mène à la réflexion que tellement d'argent et de paris ont été pris sur l'IA que l'humanité court, de plus, un double danger d'une toute autre nature. Le moratoire proposé par Sanders est évidemment impossible à prendre unilatéralement, car l'adversaire chinois aurait alors un avantage colossal et... partie gagnée. Le premier danger est donc cette course folle pour «gagner»... Qui va continuer!
Mais l'autre danger, c'est que les compagnies IA ont toutes postulé que les revenus de leurs investissements colossaux dans la recherche, les data centres et l'infrastructure, vont générer des revenus proportionnés pour rembourser les emprunts et générer les profits qu'espèrent les investisseurs... Mais que se passera-t-il si ces revenus ne se matérialisaient pas ? La situation pourrait être aussi grave que le crash financier des subprimes de 2008-09 !
En effet , de 2013 à 2024, $1,6 trillion ont été investis en IA. En 2025, on rajoutait $1,75 trillion et cette année-ci, l'investissement augmente de 44 % de plus , soit $2,5 trillions. McKinsey estime un investissement de $5,2 trillions de plus jusqu'à 2030. Or, Morgan Stanley projette des revenus de seulement $1,1 trillion en 2028... Il est vrai que d'autres projections sont plus optimistes, mais ce ne sont que DES PROJECTIONS, alors que les dépenses, elles, sont bien réelles.
Si le secteur de l'IA ne peut repayer sa mise, il ira, comme les banques en 2008-09, vers le gouvernement, bol de mendicité en main, pour être renfloué. Or le budget de dépenses (déjà déficitaire...) des États-Unis est à $7 trillions (celui de la Chine est à $4,3 trillions) et l'on utiliserait vraisemblablement alors de l'argent public imprimé pour sauver un secteur qui (voir plus haut) menace pourtant le bien public...
Sacrée marécage en perspective !
Mais je vous rassure tout de même... Selon Rand Corporation, l'IA ne pourra pas, comme le prédisent pourtant certains, éliminer l'humanité... Publié dans Scientific American (**), cette «opinion» souligne que l'espèce humaine est bien trop adaptable, nombreuse et dispersée sur toute la planète pour que l'IA puisse nous oblitérer tous, avec les outils dont il disposerait théoriquement.
Pourtant, Sam Altman de Open AI, Demis Hassabis de Google Deep Mind et Dario Amodei d'Anthropic ont tous sonné l'alerte que le risque, estimé à jusqu'à 10 %, existe bel et bien (***). Elon Musk a été jusqu'à demander un gel au développement de la prochaine génération d'IA...
Rand Corporation s'est focalisée sur trois dangers potentiels. Dans le premier scénario morbide, ils ont étudié le risque que l'IA produise un cataclysme nucléaire. Or, ils arrivent à la conclusion que même si l'IA pouvait prendre le contrôle et déclencher les 12 000 têtes nucléaires existantes dans neuf pays simultanément, les explosions, les vagues de radioactivité et l'hiver nucléaires qui en résulteraient seraient très probablement insuffisants pour nous éliminer tous.
Ils vont même plus loin en postulant que si ces explosions avaient lieu dans les emplacements les plus riches en carburants, les retombées de cendres (et de souffre) n'atteindraient pas les niveaux produits par le météore qui, s'écrasant sur terre, éliminait les dinosaures! De plus, il n'y aurait pas assez de têtes nucléaires pour irradier tous les champs agricoles. Autrement dit, aussi cataclysmique qu'une telle éventualité pourrait être, nous ne disparaîtrons pas tous. C'est rassurant ?
Dans le deuxième scénario, ils imaginent que l'IA génère des agents pathogènes dévastateurs et polluent la planète avec. Il est cependant souligné qu'un pathogène mortel, même à 99,99 %, laissera 800 000 humains vivants ! Quant au troisième risque, ils postulent l'IA échappant à tous les contrôles et organisant la production de quelques centaines de tonnes de gaz à effet de serre bien plus néfastes que le CO2, ce qui mènerait la planète à bouillir littéralement. Ils pensent que nous trouverons alors les niches pour survivre... un peu comme les petits mammifères qui ont survécu aux dinosaures ?
Cependant ces scénarios requièrent tous la concordance de quatre facteurs. D'abord, l'IA devra décider de se mettre l'extinction de l'humanité comme objectif. Il lui faudra ensuite prendre le contrôle de tous les systèmes lui permettant de concrétiser sa menace.
Il lui sera aussi nécessaire de convaincre suffisamment d'humains à collaborer et à cacher ses desseins pendant suffisamment longtemps. Et finalement l'IA devra pouvoir poursuivre son action sans collaboration humaine pour pouvoir «finir le travail» quand les populations commenceront à s'écrouler. Rand Corporation estime que ces quatre requis sont improbables en combinaison, pour garantir l'extinction totale de la race humaine.
Nous voilà réconfortés. Et puisque l'intelligence naturelle (IN) ne peut toujours pas trouver la paix en Ukraine, en Iran, à Gaza, etc., qu'attend-on pour essayer l'IA ?