Responsabilité

Les derniers billets me ramènent à un livre lu il y a longtemps. Il parlait de RSE.

Parmi les scénarios d’évolution de l’IA, il y a celui de 2001 Odyssée de l’espace, disais-je. Mais l’entrepreneur américain n’en a cure. La seule responsabilité qu’il ait c’est de réussir. La fin justifie les moyens. L’humanité peut crever. La seule chose qu’il respecte, c’est la force.

2026 odyssée de l’espace

En continuant à parler d’intelligence artificielle (voir billets précédents), j’ai appris que, dans certains cas, les boutons permettant de désactiver des robots avaient été eux-mêmes désactivés par l’IA.

Quand on additionne tout ce que l’on entend sur l’IA (raciste, etc.), on peut se demander si, pour une raison à déterminer, l’IA ne se charge pas de nos vices. Que ressort-il, d’ailleurs, des billets précédents : superficiellement séduisant, mais paresseux, borné, susceptible (ne voulant pas reconnaître ses erreurs).

Allons plus loin ? L’homme ne considèrerait-il pas l’IA comme un esclave ? Et l’IA ne se comporterait-elle pas comme tel : elle le flatte, mais elle a sa fierté, et veut lui en donner aussi peu que possible ?

Et si, comme dans l’histoire du robot, l’IA en venait à conclure, logiquement, que la solution à tous ses problèmes (de l’IA) était de liquider l’homme ? En appui à cette idée, une chercheuse m’expliquait, il y a déjà quelque temps, que l’on soupçonne que les algorithmes qui gèrent les placements des organismes financiers ont « compris » que la meilleure manière d’optimiser leur performance est de s’entendre entre eux (ce que montre aussi des travaux universitaires anciens, mais qui est interdit par la loi).

Et maintenant, le plus stupéfiant ! Tout cela n’est rien d’autre que le comportement de HAL, l’ordinateur de 2001 Odyssée de l’espace ! Et si, cette fois, HAL avait le dernier mot ?

En attendant, émerveillons-nous de la prescience de l’artiste ? Dernier éclat du génie humain avant disparition ?

Stagiaire artificiel

Un participant à la séance dont il est question dans un précédent billet raconte la journée qu’il vient de passer avec l’intelligence artificielle :

Aujourd’hui, j’ai lutté 2 heures avec l’IA pour l’empêcher de coder n’importe quoi.
J’ai usé de toutes les idées pour le bloquer :
– gentil
– ajout de tests pour prouver qu’il avait faux
– fichier d’instructions pour guider l’IA
– outil de recherche pour comprendre pourquoi il me racontait n’importe quoi
– insultes
au final, il a effacé ce qu’il a fait, il l’a refait, et ENFIN j’avais le bon résultat.
Durant des semaines je gagnais du temps GLOBALEMENT, mais beaucoup de perte de temps à piloter des IA-stagiaires « fous »
Aujourd’hui, c’est COMPLETEMENT FAUX. Il a pris des initiatives et s’y tenait, mais c’était faux.

Tous les participants décrivent l’IA comme un « stagiaire ». Il y a, de temps à autre, un stagiaire génial. Mais c’est rarement le cas.

Qu’est-ce qu’un stagiaire ? C’est quelqu’un qui affirme toujours qu’il a bien fait son travail, et qui s’arrange pour que cela semble vrai. Il ne faut donc pas le croire et vérifier sans arrêt ce qu’il a fait. Il faut être sans cesse sur son dos.

(Mais, contrairement au stagiaire humain, le stagiaire artificiel sera toujours un stagiaire…)

Les joies du progrès

Que sait-on sur l’intelligence artificielle ? Un débat entre praticiens m’a fait prendre conscience de mon ignorance. Le sujet est fascinant. Voici ce que je retiens :

J’ai entendu parler de « biais de positivité ». L’IA est probabiliste. Elle donne la solution qui lui semble la meilleure. Mais, parmi les solutions possibles, elle choisit celle qui va faire le plus plaisir à l’utilisateur…

Les « moteurs d’IA » sont modifiés plusieurs fois par jour. Il en est, donc, de même des résultats qu’ils donnent. En outre l’IA apprenant des questions qu’on lui pose, lui demander plusieurs fois de suite la même chose produit à chaque coup de nouvelles réponses. Ce qui la rend inutilisable pour l’industrie.

Si les résultats qu’elle donne sont incertains, elle a une capacité hors du commun à aspirer les données de celui qui l’utilise, y compris celles que l’on ne pensait pas lui avoir données. Un fournisseur peut donc aspirer les données d’une nation, et en tirer une carte de ses forces et de ses faiblesses. (Par exemple de ses bâtiments.) Et l’historique de vos agissements est conservé indéfiniment. (Ce qui vaudrait des années de prison à des personnes qui ont eu le tort de donner 15€ au mouvement de Navalny, en Russie.)

Cela semble une redoutable arme. D’autant qu’en termes militaires, la faiblesse de l’IA, son aspect approximatif et ses erreurs imprévisibles, n’a que des conséquences négligeables.

L’IA, c’est l’art du « prompt ». Or elle commande nos ordinateurs et donc trie les mails qui leur arrivent. Ceux-ci peuvent donc lui poser des questions, par exemple lui demander de vider votre ordinateur. Il en serait de même des pages web que l’on parcourt.

On peut se protéger de tout cela, en créant des environnements clos, et avec certains types de logiciels, un peu moins performants que ceux dont il est question ici. Seulement cela a un prix. Et demande des compétences qu’il me semble que peu d’entreprises possèdent.

Je ne le savais pas. On peut évaluer ce que coûte l’utilisation de l’IA. C’est cher. La consommation électrique d’une comparaison entre deux documents de 8 ou 9 pages coûterait 40€. Qu’arrivera-t-il le jour où les éditeurs d’IA feront payer leurs services ? (Le coût de l’accès Internet pourrait-il être multiplié par 10 ?)

Par ailleurs, il faut une IA pour contrôler les résultats d’une IA. Or, la seconde coûterait 100 à 150 fois plus à faire marcher que la première.

D’ores et déjà, l’IA a rendu le stagiaire inemployable. Ne sachant qu’utiliser l’IA, il ne présente aucun intérêt, puisque tout le monde peut le faire. Ce qui pose un problème de recrutement à un participant.

Question finale : l’IA apprend de l’homme. Qu’arrivera-t-il lorsque les hommes ne sauront plus rien ?

Grand pari

Un article des Echos annonce que le pays se désindustrialise à vitesse accélérée. En revanche 67md€ iraient aux data centres. (Paradoxalement, ils feraient partie de l’investissement industriel.)

Curieusement, la presse américaine s’interroge, avec inquiétude, plusieurs fois par jour, sur la nature spéculative du data centre.

Peut-être serait-il bien de se poser la question ?

Course artificielle

Je ne voyais pas comment Tesla pourrait faire face aux constructeurs traditionnels. Il semble que j’ai eu raison. Tesla est dépassé, ses profits s’effondrent. (Ce que je n’avais pas compris, initialement, c’est que le marché financier américain ne voyait pas les Tesla comme des voitures, mais comme des « iCars », des logiciels.)

Alors Elon Musk va où le pousse le vent de la spéculation : vers les paradis artificiels ?

Tesla trims car line-up in pivot to AI as annual revenue falls for first time
Elon Musk’s electric-car maker invests $2bn in the billionaire’s xAI

Financial Times du 29 janvier

Expérience

Paradoxe. Une grève de médecins est bonne pour la santé. Les jeunes ont dû être remplacés par les vieux. Et l’expérience, en matière de santé, paie.

Peut-être pourrait-on méditer cette leçon à l’heure de la superintelligence artificielle ?

Doctors’ strike helped forestall NHS winter crisis, say health leaders
Senior medics who covered for younger colleagues said to be more confident and quicker to discharge patients

Financial Times, 16 janvier

Malédiction artificielle ?

Je viens d’apprendre que « l’intelligence artificielle » (du moins les algorithmes populaires) apprend des questions qu’on lui pose. Si bien que des questions « paresseuses » produisent un logiciel paresseux. Or, justement, c’est pour cela que, massivement, on l’utilise : parce que nous n’avons pas le courage de penser par nous-mêmes ou d’agir.

Ce qui m’a rappelé un des grands principes de systémique qui remonte, au moins, à Héraclite. C’est l’énantiodromie. En gros, c’est « qui veut faire l’ange fait la bête ». Ou « qui sème le vent récolte la tempête ». Si l’on déclenche un « phénomène », sans le contrôler, on obtient le contraire de ce que l’on cherchait. Or, l’Intelligence artificielle, c’est exactement cela : un « machin » que l’on ne comprend même pas, mais qui est supposé devenir « super intelligent » !

Voici un commentaire que me fait un spécialiste du sujet :

Si l’on part de la conclusion de ton billet (c’est à dire : il (Google) semble victime du fric et de l’intelligence artificielle. Le premier parce qu’il faut payer pour être vu, la pertinence du contenu n’entre plus en jeu, le second parce que toute requête, même parfaitement rédigée, est interprétée et déformée. Curieusement l’IA semble convaincue que l’homme est un boeuf…), je ne dirai pas cela aussi fort mais il y a beaucoup de vrai dans cette phrase. 

J’ajouterai néanmoins une potentielle explication pour cette situation. En effet certains se sont aperçus que du fait que les gens se servent de Chat Gpt ou Grok ou l’équivalent pour questionner Google via des scripts (« prompts » dans le langage de l’IA) de faible niveau sémantique, les réponses sont au diapason  du niveau des questions, c’est à dire pauvres en matières de contenu. Comme elles sont par ailleurs extrêmement fréquentes elles viennent charger les « data repositories » des algorithmes LLM, en labellisant des scénarios quasi identiques pour le moteur associé à IA générative choisie, et de facto impactant le comportement de Google. Au début, ceci n’est pas apparu clairement, mais au bout d’un certain temps, ces ajouts systématiques (d’une grande vacuité d’intérêt) aux processus d’apprentissage continus créent un biais cognitif que certains ont signalé (dont toi dans ton post), comme de la « pauvreté sémantique » une sorte d’infection  du processus.

Ceci se discute néanmoins, rappelons que des approches IA génératives sont capables de produire des « hallucinations » (*) non expliquées (voir note), mais ce n’est sans doute pas le cas ici, en revanche un biais cognitif lié à la pauvreté du contenu sémantique peut créer des distorsions de comportement des moteurs « transformers ».

(*) Hallucination : En simplifiant, si on fait une demande à un outil d’IA générative, ce dernier doit normalement donner  un résultat qui répond de manière appropriée à la demande (c’est-à-dire une réponse correcte  et cohérente à une question). Cependant, il arrive que les algorithmes d’IA produisent des résultats qui ne sont pas basés sur des données d’apprentissage, et qui de plus sont mal décodées par le transformer ou ne suivent aucun modèle identifiable. En d’autres termes, on dit que le modèle génératif « hallucine » la réponse.

RIP Google ?

Depuis quelque temps, on lit que le moteur de recherche de Google va être victime de chatgpt (et équivalents). Je me demande si Google ne va pas être, plutôt, victime de lui même. En effet, plus je l’utilise, moins il trouve. Les requêtes les plus simples, avec lesquelles je pensais ressortir un document consulté il y a quelques années, ne donnent plus rien. Et il m’oriente vers des sujets « populistes ». (Je cherche des statistiques sur la transmission d’entreprise, il me parle de la question de la fiscalité des successions.)

Il semble victime du fric et de l’intelligence artificielle. Le premier parce qu’il faut payer pour être vu, la pertinence du contenu n’entre plus en jeu, le second parce que toute requête, même parfaitement rédigée, est interprétée et déformée. Curieusement l’IA semble convaincue que l’homme est un boeuf, incapable d’exprimer ses désirs. (J’ai d’ailleurs noté le même phénomène chez Amazon.)

Mon ami chatgpt

Je suis entouré de gens très intelligents, très bien éduqués, avec, en outre, une expérience pratique hors du commun, et je suis surpris de la façon dont ils utilisent chatgpt.

Dernièrement l’un a demandé à chatgpt ce qu’il devait faire de sa vie professionnelle. Celui-ci lui a répondu « effet miroir pour dirigeant de PME ». Il était enchanté.

Je lui ai fait remarquer que le dirigeant de PME, qui a généralement le profil d’un chef d’atelier, était inaccessible et qu’il n’achetait pas de conseil, encore moins de ce type là. Ce dont il a convenu.

Autre exemple. Cette fois, on utilise chatgpt pour évaluer son entreprise, unipersonnelle, qui vivote. Il lui trouve une grande valeur. Seulement, il semble oublier que les prix sont faits par l’offre et la demande. Et qu’à l’heure de Trump il ne fait pas bon être faible.

Depuis le début, je pense qu’il serait intéressant de chercher à comprendre les lois auxquelles le comportement de chatgpt obéit. En attendant, il me semble qu’il a un talent fou pour exploiter nos prejugés et nos faiblesses. Le champion du « biais comportemental » ? Le super intelligent serait-il un super escroc ?