Malédiction artificielle ?

Je viens d’apprendre que « l’intelligence artificielle » (du moins les algorithmes populaires) apprend des questions qu’on lui pose. Si bien que des questions « paresseuses » produisent un logiciel paresseux. Or, justement, c’est pour cela que, massivement, on l’utilise : parce que nous n’avons pas le courage de penser par nous-mêmes ou d’agir.

Ce qui m’a rappelé un des grands principes de systémique qui remonte, au moins, à Héraclite. C’est l’énantiodromie. En gros, c’est « qui veut faire l’ange fait la bête ». Ou « qui sème le vent récolte la tempête ». Si l’on déclenche un « phénomène », sans le contrôler, on obtient le contraire de ce que l’on cherchait. Or, l’Intelligence artificielle, c’est exactement cela : un « machin » que l’on ne comprend même pas, mais qui est supposé devenir « super intelligent » !

Voici un commentaire que me fait un spécialiste du sujet :

Si l’on part de la conclusion de ton billet (c’est à dire : il (Google) semble victime du fric et de l’intelligence artificielle. Le premier parce qu’il faut payer pour être vu, la pertinence du contenu n’entre plus en jeu, le second parce que toute requête, même parfaitement rédigée, est interprétée et déformée. Curieusement l’IA semble convaincue que l’homme est un boeuf…), je ne dirai pas cela aussi fort mais il y a beaucoup de vrai dans cette phrase. 

J’ajouterai néanmoins une potentielle explication pour cette situation. En effet certains se sont aperçus que du fait que les gens se servent de Chat Gpt ou Grok ou l’équivalent pour questionner Google via des scripts (« prompts » dans le langage de l’IA) de faible niveau sémantique, les réponses sont au diapason  du niveau des questions, c’est à dire pauvres en matières de contenu. Comme elles sont par ailleurs extrêmement fréquentes elles viennent charger les « data repositories » des algorithmes LLM, en labellisant des scénarios quasi identiques pour le moteur associé à IA générative choisie, et de facto impactant le comportement de Google. Au début, ceci n’est pas apparu clairement, mais au bout d’un certain temps, ces ajouts systématiques (d’une grande vacuité d’intérêt) aux processus d’apprentissage continus créent un biais cognitif que certains ont signalé (dont toi dans ton post), comme de la « pauvreté sémantique » une sorte d’infection  du processus.

Ceci se discute néanmoins, rappelons que des approches IA génératives sont capables de produire des « hallucinations » (*) non expliquées (voir note), mais ce n’est sans doute pas le cas ici, en revanche un biais cognitif lié à la pauvreté du contenu sémantique peut créer des distorsions de comportement des moteurs « transformers ».

(*) Hallucination : En simplifiant, si on fait une demande à un outil d’IA générative, ce dernier doit normalement donner  un résultat qui répond de manière appropriée à la demande (c’est-à-dire une réponse correcte  et cohérente à une question). Cependant, il arrive que les algorithmes d’IA produisent des résultats qui ne sont pas basés sur des données d’apprentissage, et qui de plus sont mal décodées par le transformer ou ne suivent aucun modèle identifiable. En d’autres termes, on dit que le modèle génératif « hallucine » la réponse.

RIP Google ?

Depuis quelque temps, on lit que le moteur de recherche de Google va être victime de chatgpt (et équivalents). Je me demande si Google ne va pas être, plutôt, victime de lui même. En effet, plus je l’utilise, moins il trouve. Les requêtes les plus simples, avec lesquelles je pensais ressortir un document consulté il y a quelques années, ne donnent plus rien. Et il m’oriente vers des sujets « populistes ». (Je cherche des statistiques sur la transmission d’entreprise, il me parle de la question de la fiscalité des successions.)

Il semble victime du fric et de l’intelligence artificielle. Le premier parce qu’il faut payer pour être vu, la pertinence du contenu n’entre plus en jeu, le second parce que toute requête, même parfaitement rédigée, est interprétée et déformée. Curieusement l’IA semble convaincue que l’homme est un boeuf, incapable d’exprimer ses désirs. (J’ai d’ailleurs noté le même phénomène chez Amazon.)

Mon ami chatgpt

Je suis entouré de gens très intelligents, très bien éduqués, avec, en outre, une expérience pratique hors du commun, et je suis surpris de la façon dont ils utilisent chatgpt.

Dernièrement l’un a demandé à chatgpt ce qu’il devait faire de sa vie professionnelle. Celui-ci lui a répondu « effet miroir pour dirigeant de PME ». Il était enchanté.

Je lui ai fait remarquer que le dirigeant de PME, qui a généralement le profil d’un chef d’atelier, était inaccessible et qu’il n’achetait pas de conseil, encore moins de ce type là. Ce dont il a convenu.

Autre exemple. Cette fois, on utilise chatgpt pour évaluer son entreprise, unipersonnelle, qui vivote. Il lui trouve une grande valeur. Seulement, il semble oublier que les prix sont faits par l’offre et la demande. Et qu’à l’heure de Trump il ne fait pas bon être faible.

Depuis le début, je pense qu’il serait intéressant de chercher à comprendre les lois auxquelles le comportement de chatgpt obéit. En attendant, il me semble qu’il a un talent fou pour exploiter nos prejugés et nos faiblesses. Le champion du « biais comportemental » ? Le super intelligent serait-il un super escroc ?

Bulle

Cette année aura été celle du doute : et si l’intelligence artificielle était une bulle spéculative ?

Australia’s biggest pension fund to cut global stocks allocation on AI concerns
AustralianSuper warns of ‘maturing’ US tech cycle and high valuations

Financial Times du 20 décembre

Qu’est-ce qui peut percer la bulle ? Le manque d’énergie (on lit qu’aux USA, il va manquer 40% de l’énergie nécessaire) ? Un financement façon Ponzi (le fournisseur finançant le client) ? Les Chinois, leurs modèles intelligents, et leur politique industrielle ? Comment souvent, dans ces situations, la bourse américaine fait du yoyo, ce fut le cas dernièrement du titre d’Oracle. Car le jeu de la spéculation, c’est de profiter des hausses et des baisses. Au fond, le spéculateur sérieux ne croit probablement pas un instant à l’IA.

Pour autant le crash ne semble pas en vue.

En fait, ce qu’il manque est une étude sérieuse des « modèles économiques » des entreprises du secteur et de leurs liens. Quelles sont les hypothèses sur lesquelles ils reposent ? Une modélisation façon « dynamique des systèmes ». C’est l’opacité qui permet la spéculation ?

Year in a word: AI bubble ft.trib.al/1AhoJwO | opinion

Financial Times (@financialtimes.com) 2025-12-23T05:31:16.012247Z

Temps étranges

On me disait que Bayer « arrête tout ce qui est IA ». Et ce parce que cela ne rapporte absolument rien. (Ce qui est corroboré par Internet.)

Et aussi que Microsoft aurait licencié ses commerciaux expérimentés, pour les remplacer par des jeunes, qui ne sauraient rien.

Y aurait-il, d’un côté, un marché qui se désengage de l’intelligence artificielle, et de l’autre des fournisseurs d’IA qui se jettent dans une course en avant, en cherchant à justifier leur argumentaire de vente (l’IA remplace l’homme) et en injectant de l’argent dans la bulle spéculative de manière à ce qu’elle n’éclate pas ?

Abus de faiblesse

L’autre jour, un entrepreneur avait utilisé chatgpt pour évaluer son entreprise. Ce qui donnait un résultat dont il était très content. Curieusement ce n’est pas celui qu’a trouvé l’investisseur potentiel. (Curieusement, le logiciel n’a pas cité les méthodes usuelles d’évaluation, par exemple celle qui dit que la valeur d’une entreprise correspond à une estimation de l’argent qu’elle peut rapporter.)

On lit que l’intelligence artificielle est utilisée par les enfants en mal d’affection, par des élèves incultes, par les randonneurs du dimanche… L’intelligence artificielle semble avoir trouvé un gros marché (le gros de son marché ?) parmi les populations fragiles et complexées. Elle fait croire à des millions de gens qu’ils sont particulièrement intelligents de pouvoir utiliser, comme tout le monde, ce type d’instrument.

Ce blog a beaucoup parlé des travaux des psychologues sur l’escroquerie. Il semble que l’IA, et peut-être nombre des « innovations » modernes doivent leur succès à des phénomènes identiques. Elles jouent sur nos failles honteuses.

Éclatement ?

La bourse américaine donne un curieux spectacle. Du jour au lendemain les titres phares perdent ou gagnent des centaines de milliards. Et les records tombent sans cesse. Il y a eu celui des 3000 milliards des 4000 et maintenant des 5000 (Nvidia).

Quand est-ce que cela finira ? Il faut probablement toucher une limite physique ou que le marché prenne peur. Ce qui ne semble pas le cas actuellement.

Quant à l’impact il dépend du type d’entreprises impliquées. Si, par exemple, les banques financent les data centres, la crise pourrait être systémique.

Super intelligence

Grand thème de discussion du moment : l’intelligence artificielle va ridiculiser l’intelligence humaine, faut-il laisser faire ?

Extraordinaire coup de publicité auquel ses auteurs croient. Une partie de la société a une fascinante capacité d’auto persuasion. Et le journaliste en fait partie. Même le scientifique a été acheté : s’il ne parle pas d’une idée à la mode, sa recherche n’est pas financée.

Psychologie de l’escroquerie : on croit à ce en quoi on a intérêt.

Ce qui pose la question de la manière d’éviter ce phénomène (autrement que par la crise).

Les possédés

Vous allez voir ce que vous allez voir… L’intelligence artificielle va faire un miracle. Elle va transformer le monde. Comment ? Pas besoin de l’expliquer. Cela va être extraordinaire.

Ce n’est pas la première fois que l’on entend ce discours. La « nouvelle économie » et la « bulle internet », en particulier, faisaient aussi ce type de promesse. Dans une moindre mesure, la 5G, qui a fait flop.

Seulement, ce qu’il y a d’ennuyeux est qu’il n’y ait personne pour l’étudier d’une manière rigoureuse. Et ce qui est encore plus ennuyeux est qu’il a convaincu nos gouvernements.

AI companies are in a race to create artificial general intelligence, seeing it as the catalyst for an “intelligence explosion” that reshapes the economy and society. But they can't agree on what AGI would actually look like, and how it might be achieved.

Bloomberg News (@bloomberg.com) 2025-10-23T04:48:06.960Z

Démocratie

Les théories de la démocratie tablaient sur l’affrontement des idées.

Seulement, comme le montre la science, l’affrontement ne donne rien. Pour parvenir à une décision un rien intelligente, il faut construire des raisonnements, faire des hypothèses, les tester. Au fond, la raison, c’est cela.

Aujourd’hui, ce mode de réflexion est totalement absent du débat public. L’intelligence artificielle, qui rend hystériques nos gouvernements et nos économistes, en est l’exemple même.

The amount of energy required to supply the data centers powering AI is so vast that meeting that need may be more than a lifetime away, according to a senior executive at Apollo

Bloomberg News (@bloomberg.com) 2025-10-22T17:00:24Z