Je viens d’apprendre que « l’intelligence artificielle » (du moins les algorithmes populaires) apprend des questions qu’on lui pose. Si bien que des questions « paresseuses » produisent un logiciel paresseux. Or, justement, c’est pour cela que, massivement, on l’utilise : parce que nous n’avons pas le courage de penser par nous-mêmes ou d’agir.
Ce qui m’a rappelé un des grands principes de systémique qui remonte, au moins, à Héraclite. C’est l’énantiodromie. En gros, c’est « qui veut faire l’ange fait la bête ». Ou « qui sème le vent récolte la tempête ». Si l’on déclenche un « phénomène », sans le contrôler, on obtient le contraire de ce que l’on cherchait. Or, l’Intelligence artificielle, c’est exactement cela : un « machin » que l’on ne comprend même pas, mais qui est supposé devenir « super intelligent » !
Voici un commentaire que me fait un spécialiste du sujet :
Si l’on part de la conclusion de ton billet (c’est à dire : il (Google) semble victime du fric et de l’intelligence artificielle. Le premier parce qu’il faut payer pour être vu, la pertinence du contenu n’entre plus en jeu, le second parce que toute requête, même parfaitement rédigée, est interprétée et déformée. Curieusement l’IA semble convaincue que l’homme est un boeuf…), je ne dirai pas cela aussi fort mais il y a beaucoup de vrai dans cette phrase.
J’ajouterai néanmoins une potentielle explication pour cette situation. En effet certains se sont aperçus que du fait que les gens se servent de Chat Gpt ou Grok ou l’équivalent pour questionner Google via des scripts (« prompts » dans le langage de l’IA) de faible niveau sémantique, les réponses sont au diapason du niveau des questions, c’est à dire pauvres en matières de contenu. Comme elles sont par ailleurs extrêmement fréquentes elles viennent charger les « data repositories » des algorithmes LLM, en labellisant des scénarios quasi identiques pour le moteur associé à IA générative choisie, et de facto impactant le comportement de Google. Au début, ceci n’est pas apparu clairement, mais au bout d’un certain temps, ces ajouts systématiques (d’une grande vacuité d’intérêt) aux processus d’apprentissage continus créent un biais cognitif que certains ont signalé (dont toi dans ton post), comme de la « pauvreté sémantique » une sorte d’infection du processus.
Ceci se discute néanmoins, rappelons que des approches IA génératives sont capables de produire des « hallucinations » (*) non expliquées (voir note), mais ce n’est sans doute pas le cas ici, en revanche un biais cognitif lié à la pauvreté du contenu sémantique peut créer des distorsions de comportement des moteurs « transformers ».
(*) Hallucination : En simplifiant, si on fait une demande à un outil d’IA générative, ce dernier doit normalement donner un résultat qui répond de manière appropriée à la demande (c’est-à-dire une réponse correcte et cohérente à une question). Cependant, il arrive que les algorithmes d’IA produisent des résultats qui ne sont pas basés sur des données d’apprentissage, et qui de plus sont mal décodées par le transformer ou ne suivent aucun modèle identifiable. En d’autres termes, on dit que le modèle génératif « hallucine » la réponse.