Mon ami chatgpt

Je suis entouré de gens très intelligents, très bien éduqués, avec, en outre, une expérience pratique hors du commun, et je suis surpris de la façon dont ils utilisent chatgpt.

Dernièrement l’un a demandé à chatgpt ce qu’il devait faire de sa vie professionnelle. Celui-ci lui a répondu « effet miroir pour dirigeant de PME ». Il était enchanté.

Je lui ai fait remarquer que le dirigeant de PME, qui a généralement le profil d’un chef d’atelier, était inaccessible et qu’il n’achetait pas de conseil, encore moins de ce type là. Ce dont il a convenu.

Autre exemple. Cette fois, on utilise chatgpt pour évaluer son entreprise, unipersonnelle, qui vivote. Il lui trouve une grande valeur. Seulement, il semble oublier que les prix sont faits par l’offre et la demande. Et qu’à l’heure de Trump il ne fait pas bon être faible.

Depuis le début, je pense qu’il serait intéressant de chercher à comprendre les lois auxquelles le comportement de chatgpt obéit. En attendant, il me semble qu’il a un talent fou pour exploiter nos prejugés et nos faiblesses. Le champion du « biais comportemental » ? Le super intelligent serait-il un super escroc ?

Wicalomnie

Je suis un lecteur de wikipedia à mes heures perdues. C’est un formidable « who’s who » des « people » de tous les temps.

Ce qui me frappe est, quelle que soit la personne considérée, la liste des insinuations que l’on y trouve, toutes appuyées sur des publications (mais suffit-il qu’un texte soit publié pour qu’il dise la vérité ?). Même lorsqu’une personne gagne un procès, ou qu’une enquête la blanchit, il reste la trace, beaucoup plus longue et détaillée que le jugement, de l’accusation.

Cela tape dans tous les sens. Il y a, d’une part, le (possiblement) sinistre personnage qui a les moyens de gagner tous les procès qu’on lui intente (c’est le cas d’un certain « Diddy », qui fait la une de la presse anglaise). Et, de l’autre, l’individu qui n’a pas d’idées suffisamment « socialement avancées » (par exemple, un pape).

Je me demandais s’il n’y avait pas là un détournement de l’esprit des lois. Et la présomption d’innocence ?

(Et ce serait le terrain d’apprentissage de chatGPT. L’école de la médisance ?)

Les dessous de l’artificiel

Un « grand universitaire », spécialiste de l’analyse de données, me fait un commentaire utile quant aux dessous des techniques à la mode :

Ton article court mais percutant pose effectivement le problème clef de la fiabilité de l’apprentissage des LLM (Large language Models) type ChatGPT (IA. Générative) (même  dans ses dernières versions payantes, mais qui sont largement  les plus performantes). En effet comme tu le signales il faut beaucoup (voire trop ?) de données pour étalonner correctement un LLM dans sa phase apprentissage (des billions de documents et des  « fact sheets »  en énormes  « data repositories ») d’une part, et d’autre part des étiqueteurs  humains (qui se comptent par dizaines de milliers dans des pays comme le Kenya, le Nigéria, l’Inde etc.) pour corriger et affiner les données brutes de catégorisation afin de valider la cohérence les documents stockés. Actions auxquelles bien sûr il faut rajouter la précision et la qualité des questions, qui dépendent elles-mêmes de la qualité des « prompts », ces scénarios décrivant le contexte des questions à poser aux modèles pour préciser et améliorer la qualité des réponses de l’outil d’IA et de son modèle latent.
C’est ainsi que ChatGPT d’OpenAI a eu quelques jolis succès quand il est sorti, par effet de surprise et gains de temps constatés chez ceux qui l’ont utilisé au départ. Ce succès repose sur l’investissement monstrueux et très coûteux consenti en stockage de gigantesques masses de données et en petites mains nombreuses associées à la catégorisation des documents, et également en temps passé à réaliser le travail global d’intégration des différents composants des modèles. Ce n’est pas le cas de tout le monde, par exemple le cas de GEMINI de Google est moins «successfull » que celui de OpenAI, ils sont en train de l’affiner et de l’améliorer, ce qui prouve d’ailleurs qu’il faut beaucoup travailler au départ sur l’architecture du processus. 
En fait nombreux sont ceux qui ont été agréablement surpris  par les performances de ChatGPT sur des questionnements (chats)  généralistes, mais il semble qu’il y ait eu un début de prudence voire un début de doute auprès des experts qui l’utilisent en tant que processus de travail, ils ont eu du mal à être tout à fait convaincus, et après l’effet de surprise, semblent plus nuancés vis à vis d’une adoption inconditionnelle (biais cognitifs d’une part, hallucinations inexpliquées d’autre part). Mais une autre tendance se fait jour actuellement, après l’engouement des premiers mois, c’est la question que se posent  des entreprises de grande taille qui, surfant sur  la vague de fond  (un peu marketing) de la mode IA, s’aperçoivent que la partie « prompting » (c’est-à-dire la préparation du cadre  contextuel pour mutualiser l’usage de l’IA Générative  à une grande partie des cadres en interne) prend beaucoup plus de temps qu’ils ne l’avaient  estimé. D’ailleurs des entreprises comme Databricks (produit Azure) ou Snowflake, parmi d’autres, se positionnent  comme préparateurs et stockeurs de données en vue de les aider dans l’utilisation industrielle des modèles d’IA, également sur le  choix des données essentielles, etc.
Le second problème concerne le volume des données à échanger, à stocker, à valider, même dans un contexte spécialisé, afin de garantir une rapide adaptation contextuelle des modèles d’IA Générative et la connexion avec les outils de gestion « as usual » des processus internes. L’ensemble complexe des ressources  à mettre en jeu par les créateurs de modèles  type OPenAI (: apprentissage, stockage, checking par des étiqueteurs, utilisation de prompts dédiés par les utilisateurs) nécessitent des investissements lourds, des consommations énergétiques croissant exponentiellement, des machines de traitement aux processeurs parallèles type Nvidia, et beaucoup de temps, bref des efforts que peu pourront maintenir sur le long terme et c’est là que les outils à prévalence mathématiques d’aide aux choix où des optimisations mathématisées ad hoc pourront être clef. C’est le cas du chinois DeepSeek, très attendu des experts  (que tu signales dans ton post) et qui a introduit à l’intérieur de leur modèle d’IA des composantes mathématiques d’optimisation et de clustering pour automatiser certains types de traitements (disent-ils). Ils se distinguent des Américains qui privilégient la force brute plutôt  que de nouvelles approches de décomposition des problèmes et un certain raffinement méthodologique. 

Paradis artificiel

Présentation des applications de l’intelligence artificielle par un expert israélien (qui dit mieux ?).

Qu’en retiens-je ? Open AI, ce n’est que du matériel, de la capacité de calcul. Tous les investissements actuellement vont dans « l’infrastructure ». « Aucune grande entreprise n’a mis en oeuvre l’IA générative » ! Aucune application n’a fait la démonstration qu’elle pouvait « créer de la valeur » !

L’IA générative c’est, surtout, beaucoup de travail pour celui qui l’utilise. « Il faut beaucoup tester ». Elle est soumise (comme l’a immédiatement vu ce blog) à « l’hallucination ». Mais aussi au « drift ». C’est à dire à des dérives multiples. Ce qui demande de l’entraîner en permanence, et de contrôler ses résultats. Autrement dit, elle n’est rien sans l’homme !

Son utilité ? Apparemment, elle permet de gagner un temps fou dans des types de tâches qui demandent de récupérer des masses de données sur Internet, ou ailleurs, et de les remettre en ordre. En vertu de quoi cela pourrait permettre à des gens peu qualifiés de remplacer des gens qui le sont beaucoup plus. Seulement, l’intelligence artificielle utilisant les connaissances humaines, si l’homme ne sait plus rien, ne risque-t-elle pas de devoir se nourrir d’elle-même, et d’halluciner ? La présentation ne le disait pas. De mon expérience de la traduction, je pense que, au contraire, l’IA demande une très haute qualification, car elle doit être contrôlée, et que ses erreurs sont rares et subtiles. (Un cauchemar à vérifier.) En outre, pour avoir comparé le travail d’une personne qui utilisait l’IA avec celui d’un groupe qui ne l’utilisait pas, je constate que l’on est étonné au début par l’IA, mais ses résultats ne résistent pas à un examen sérieux. D’ailleurs, j’ai découvert qu’une nouvelle science émergeait, celle de « prompt engineer » : on a constaté que le système était d’autant plus efficace qu’on lui posait des questions intelligentes…

En tous cas, même s’il y a des gains de productivité notables, leur coût semble l’être aussi : l’IA a besoin de beaucoup de matériel et d’une quantité d’énergie considérable. Le jeu en vaut-il la chandelle ?

Conclusion ? Si ce que je dis est juste, c’est effrayant. Car toute l’économie mondiale, toutes les politiques ne sont que du vent. La raison en est claire : « l’homme qui a vu l’homme qui a vu l’ours ». Notre société est dépouillée de tout sens critique. Exemple, Cédric Villani déclarait, pour nous convaincre de nous engager dans un programme d’IA, que, si nous ne le faisions pas nous allions être dépassés par les Chinois ! Et c’est avec ce type de raisonnement que l’on obtient la médaille Fields ?

China deploys censors to create socialist AI
Chinese government officials are testing artificial intelligence companies’ large language models to ensure their systems “embody core socialist values”, in the latest expansion of the country’s censorship regime.

Financial Times breaking news du 17 juillet.

Du bon usage de l’IA

Un ami me disait que l’IA générative faisait un travail impeccable en termes d’écriture de programme informatique.

(Ce qui est une bonne nouvelle pour moi : cela fait fort longtemps que je ne sais plus programmer, alors que j’ai pas mal d’idées de programmes. Cela m’ouvrirait-il de nouvelles perspectives ?)

Une amie, historienne, me disait le contraire : elle a interrogé ChatGPT sur un chercheur qu’elle étudie, et l’IA a mélangé, dans sa réponse, tous les travaux des savants de son époque, qui travaillaient dans sa spécialité.

Pourquoi l’IA générative est-elle aussi désastreuse dans certains domaines et si géniale ailleurs ?

Par son principe même. Il consiste à compléter une phrase avec ce qui vient « le plus souvent » derrière : « qui va à la chasse… ».

Un code informatique laisse peu de place à l’improvisation. Ce n’est pas le cas ailleurs.

En revanche, ce manque de rigueur est un atout dès qu’il s’agit d’être créatif, sans faire preuve de génie.

IA générative

Un « data scientist » d’une multinationale disait qu’il n’y en avait que pour l’intelligence artificielle générative. Pas de place pour autre chose, dans la grande entreprise.

Malheureusement, l’on ne peut pas savoir si elle n’a pas inventé ce qu’elle dit. Si quelqu’un pouvait mettre au point un algorithme démontrant ses dires, il ferait fortune !

Ce à quoi j’ai failli répondre que c’était à l’homme de faire ce travail.

En bref, l’IA générative est un désastre. Un autre participant à la discussion remarquait que c’était une mode comme celle qui l’ont précédée. Le « big data », en particulier, aurait tenu 4 ans.

Si l’on avait encore des scientifiques, il y aurait là, pour eux, une question à étudier : comment de telles modes peuvent-elles s’installer ? Effet pervers de la vie en société ? L’individu y perd le sens critique ? D’abord, il y a de très puissants intérêts économiques et des professions entières, consultants en tête, qui ne vivent que de la nouveauté pour la nouveauté ? Puis, le client, qui, pour triompher dans la lutte au perchoir ou faire croire à l’actionnaire qu’il fait des miracles, a besoin du père Noël ? Finalement, l’actionnaire-spéculateur sent ce que va aimer le marché ? Rien de bien différent de la mode vestimentaire, au fond ?

ChatGPT démasqué

Passionnante vidéo qui explique tout ce que j’ai observé de chatGPT.

ChatGPT, c’est un « truc ». C’est chercher les mots qui sont associés à d’autres mots, ceux de la question. Le but est que l’association semble « vraisemblable ».

C’est la raison pour laquelle chatGPT est aussi créatif. Par exemple, il a compris que, vu le type de travail que je fais, je devais avoir inventé une méthode de conseil dont le nom serait du meilleur effet sur la couverture d’un livre. Un nom qui fleure la « mode de management ». Il est aussi à son meilleur pour inventer des titres de références scientifiques. (Ce qui m’a rappelé Jules Vallès, qui pissait de la copie pour remplir un dictionnaire, et qui inventait des citations littéraires.)

L’explication de ce qu’il semble un rien mièvre tient à ce qu’on peut lui demander de répondre comme si il était x ou y. Dans ce cas, on lui a dit probablement de se comporter comme s’il ne voulait choquer la sensibilité de personne.

chatGPT n’est pas dressé pour trouver la vérité, mais pour en « foutre plein la vue ». Ce faisant, c’est un extraordinaire outil de marketing. Si quelqu’un doit avoir peur, c’est peut-être bien ceux dont le métier est de nous faire prendre des vessies pour des lanternes ?

IC

Lors d’un procès, chatGPT aurait inventé dix pages de décision de justice.

Voilà qui rappelle un article de ce blog : chatGPT m’a attribué l’invention d’une méthode de conduite du changement, extrêmement bien argumentée, et un cabinet de conseil. Je pensais qu’il y avait confusion. mais je n’ai pas réussi à trouver à qui il aurait pu emprunter ces idées. Comme dans le cas du procès, il semble que cela ait été une pure invention.

j’ai amèrement regretté de ne pas avoir rencontré chatGPT vingt ans plus tôt. Mon sort en eût été changé. Ses idées étaient excellentes.

chatGPT est un génie du marketing ! Voilà qui mériterait une étude approfondie. La théorie de la complexité parle d’émergence. Et si chatGPT était parvenu à faire « émerger » la créativité ? Voilà qui serait un tremblement de terre.

(chatGPT, j’ai noté, est extrêmement poli et prudent. Serait-ce l’essence du marketing ? Parler du monde comme la société aimerait qu’il soit ?)

Les pathologies de l’IA

Wikipedia (anglais) reconnaît que chatGPT souffre de « pathologies ». Elles auraient un nom : « hallucinations ». Et au moins une cause : la « loi de Goodheart ». Cela vient des biais introduits par la technique d’éducation du robot.

En outre, l’IA tend aussi à reproduire les biais des données à partir desquelles elle a été formée.

Un signe que l’IA devient humaine ? Elle découvre l’erreur ?

(OpenAI acknowledges that ChatGPT « sometimes writes plausible-sounding but incorrect or nonsensical answers ». This behavior is common to large language models and is called « hallucination ». The reward model of ChatGPT, designed around human oversight, can be over-optimized and thus hinder performance, in an example of an optimization pathology known as Goodhart’s law.)