Ce qui est connu de la plupart, quand on parle de nos jours d' » intelligence artificielle « , ce sont des systèmes tels que ChatGPT, Claude, Grok, LLama, etc., qui sont en fait de grands modèles de langage (LLM en anglais : Large Language Models). De tels systèmes sont des réseaux de neurones profonds, construits pour apprendre des statistiques du genre » tel mot suit tel autre avec une probabilité de x% » à partir d’exemples tirés de textes réels. On parle également de » robots conversationnels « . Ce sont des programmes, qui doivent d’abord être entraînés et paramétrés : c’est la phase d’apprentissage, plus ou moins longue, lors de laquelle ils tournent sur des volumes de données gigantesques (dont la taille se compte en milliards de milliards). Après cette phase d’apprentissage, les LLM sont ensuite utilisables par des non-spécialistes pour répondre à leurs requêtes.
En pratique, ce sont des programmes informatiques tellement énormes qu’il est devenu illusoire de les comprendre dans leur totalité (notamment en ce qui concerne les couches les plus profondes du réseau de neurones). Mais ils sont de même essence que d’autres programmes, comme par exemple un système
d’exploitation d’ordinateur comme Windows ; s’ils en diffèrent, c’est par leur taille et leur complexité, et bien sûr par l’usage auquel ils sont destinés, mais non par leur nature de code informatique.
Le livre de Parmy Olson, paru en 2024 et non (encore) traduit en français, Supremacy : AI, ChatGPT and the race that will change the world, met bien en évidence la lutte entre deux des actuels acteurs principaux de l’intelligence artificielle : OpenAI de Sam Altman, et Deep Mind de Demis Hassabis. L’autrice montre avec clarté l’inflation psychique phénoménale qui sous-tend leur ambition de créer un système d’intelligence artificielle généraliste capable de répondre à toutes les demandes, comme par exemple la manière de résoudre la crise climatique que nous vivons (que l’existence même de ces systèmes contribue à aggraver), ou même la question de l’existence de Dieu ! Elle montre aussi comment le besoin de sommes d’argent
gigantesques, nécessaires pour espérer mener à bien ne serait-ce qu’une partie de ce programme, a conduit ces acteurs à s’inféoder à des entreprises comme Microsoft et Google, dont le seul but est d’engranger toujours plus de profit, et donc comment le développement de l' » intelligence artificielle » est intimement lié
au système capitaliste actuel.
Sans même aborder le coût humain du développement des LLM puis de leur utilisation actuelle et à venir, plusieurs points me font dire que ces systèmes posent de sérieux problèmes d’éthique de par leur conception même, quel que soit l’usage qui puisse en être fait par la suite :
— D’où viennent les données de la phase d’apprentissage ? Les compagnies qui travaillent sur ces langages ne les rendent généralement pas publiques. Sont-ce des textes déjà publiés ? Si oui, les droits d’auteur ont-ils été respectés ? Est-ce nos publications quotidiennes sur les réseaux sociaux ? Dans ce cas, comment cela
s’articule-t-il avec notre droit à la vie privée et à la protection de nos données personnelles ?
— Quels sont les biais sous-jacents aux données utilisées (par exemple la sur- ou sous-représentation d’une catégorie de personnes ayant initialement créé ces données, ou présente dans les données initiales), qui vont biaiser l’apprentissage puis être reproduits et amplifiés dans les réponses fournies ? On pense ici par exemple aux biais de genre ou à la sous-représentation de personnes de couleur, LGBTQI+ ou handicapées.
— La phase d’entraînement nécessite toujours plus de capacité de stockage et de calcul. Son coût est élevé, notamment en énergie et en eau : on commence à voir des conflits d’accès à l’énergie et à l’eau, ce qui conduit ainsi certaines compagnies, dans une course au » toujours plus » sans limites, à envisager de construire des réacteurs nucléaires dédiés (en ignorant tous les problèmes que la dissémination du nucléaire pose, notamment pour la sécurité et la gestion des déchets nucléaires).
— N’oublions pas que les LLM ont un taux d’erreurs effarant, de l’ordre d’une fois sur deux pour certains systèmes parmi les plus répandus. La raison en est simple : ils sont déconnectés de la réalité, et ne font guère que déterminer puis stocker des statistiques à partir des données d’entraînement ; par contre ils savent très bien enchaîner un mot après l’autre s’ils ont rencontré suffisamment souvent cet enchaînement. Les chercheurs et chercheuses ont aussi remarqué qu’ils peuvent présenter ces enchaînements comme des faits avérés ; c’est ce qu’on appelle des hallucinations. Par exemple, à la question de savoir quels livre a écrit un auteur ou une autrice célèbre, ils peuvent inventer des livres jamais écrits, ou bien ils vont inventer une jurisprudence lorsque des juristes cherchent à faire le point sur une question… Pire, le taux d’erreurs augmente lorsque les concepteurs de ces systèmes cherchent à les rendre plus » performants » ! [Pour celles et ceux qui lisent l’anglais, une lecture édifiante est le blog, qui fourmille d’exemples, de Gary Marcus, professeur émérite de sciences cognitives.] Résultat : des études ont montré qu’une requête posée à un LLM consomme environ trois fois plus d’énergie qu’un simple requête google (avant IA), mais que la réponse fournie est nettement moins fiable…
Enfin, ne tombons pas dans l’erreur de croire qu’un LLM, ou tout autre système actuel d’IA, pourrait avoir une conscience. La notion de conscience n’est pas facile à définir et a varié au cours de l’histoire ; il en existe plusieurs définitions. Mais il est clair pour moi qu’elle est liée à la vie, humaine ou non — or une machine n’est pas vivante. Les neuro-sciences distinguent plusieurs variétés de consciences ; un consensus semble cependant s’établir dans ce domaine pour dire que la conscience est liée à l’établissement d’un modèle du monde qui nous entoure, modèle qui nous permet de faire des prédictions et que notre cerveau adapte en permanence, en fonction des informations nouvelles qu’il reçoit (voir par exemple le livre d’Anil Seth : Être soi. Une nouvelle science de la conscience). Mais si une simple base de données possède un modèle du monde, très simplifié et partiel, les LLM, qui ne sont qu’un gigantesque ensemble de statistiques, n’en ont pas. C’est précisément cette absence de modèle du monde qui produit les hallucinations — de simples erreurs statistiques — et qui rend par exemple un LLM, entraîné pour jouer aux échecs, capable de violer allègrement des règles de base et d’autoriser une reine à sauter par-dessus une autre pièce — ce que ne fera jamais un programme » classique » spécifiquement entraîné pour jouer aux échecs.
Cependant, force est de constater que l’utilisation de ce que le grand public appelle » l’intelligence artificielle » (et qui est certainement artificiel, bien que l’intelligence soit plutôt du côté de leurs concepteurs) s’accroît dans un nombre toujours plus grand de domaines. Dans une deuxième partie, je me poserai la question de
savoir si les programmes informatiques de type LLM pourraient malgré tout rendre des services dans mon domaine : l’analyse de rêves selon l’approche de Carl Gustav Jung et ses successeurs en psychologie des profondeurs.
Je remercie Emmanuelle Frenoux dont les remarques sur des versions préliminaires de ce texte ont grandement contribué à son amélioration.