Depuis plusieurs mois, je réfléchis au mythe de l’IA consciente, un mythe qui semble désormais faire partie de ces nouvelles fictions hallucinogènes qui structurent autant les investissements financiers que l’imaginaire collectif… Pour ce faire, je m’appuie sur Paul Valéry (1871-1945), dont les Cahiers, à mes yeux, offrent les intuitions pour comprendre la nature incarnée de la conscience, nature dont, précisément, l’IA sera toujours, structurellement, privée. Or, sur ce sujet, le neuroscientifique Anil Seth (1) vient de publier un papier qui, bien qu’il parte d’une perspective différente – celle des neurosciences contemporaines et de la philosophie analytique –, apporte, de manière convaincante, de l’eau à mon moulin.
Valéry écrivait en 1894 : « Nous pensons avec notre corps ». Cette formule contient une thèse que ses Cahiers développent pour ainsi dire systématiquement : toute pensée, même la plus abstraite, est ancrée dans des sensations corporelles – par exemple, le mouvement de la main qui écrit, la tension du regard qui lit, le rythme de la respiration qui accompagne la réflexion, etc. « L’esprit dépend du corps d’une manière intime et bizarre », notait-il, et cette « manière intime et bizarre » n’est pas un détail pittoresque mais une contrainte ontologique : nos concepts les plus formels (temps, espace, causalité…) émergent nécessairement de notre expérience sensori-motrice avec le monde : comprendre « avant » et « après » suppose un corps qui se déplace dans l’espace, saisir la notion de « force » exige d’avoir ressenti la résistance d’un objet poussé, la géométrie elle-même naît du corps qui se meut et oriente l’espace selon ses axes… Dit autrement : un système sans corps, sans sensations, sans cette dialectique entre pensée et chair, ne peut penser au sens plein. Il peut calculer, manipuler des symboles & produire des outputs bluffants, mais il ne peut pas vivre ses opérations, ni les éprouver.
En résumé : la conscience n’est pas un processus computationnel abstrait qu’on pourrait détacher de son substrat corporel, elle est fondamentalement liée à sa condition organique, c’est-à-dire dépendante d’un organisme vivant, temporellement situé, qui maintient activement sa propre existence contre l’entropie.
Anil Seth, dans « The Mythology Of Conscious AI », arrive à des conclusions similaires, mais par un chemin différent. | 1. Seth montre qu’on ne peut pas séparer ce que fait le cerveau de ce qu’il est : l’activité cérébrale est profondément intégrée au métabolisme, les neurones calculant en même temps qu’ils se régénèrent pour maintenir leur propre existence contre l’entropie. Cette dynamique caractérise le vivant et n’a aucun équivalent dans un ordinateur où logiciel et matériel sont distincts. | 2. S’appuyant sur le philosophe Ned Block (que je ne connaissais pas…), Seth distingue rigoureusement deux types de conscience. La conscience phénoménale, c’est l’expérience subjective : « ce que ça fait » de voir du rouge, la sensation vécue de cette couleur. La conscience d’accès, c’est la capacité à détecter le rouge et utiliser cette information pour raisonner ou agir. Une IA pourrait atteindre la conscience d’accès — traiter l’information « rouge » efficacement — sans jamais avoir de conscience phénoménale, sans jamais « vivre » la couleur rouge. Elle reste un « zombie philosophique » sans vie intérieure… | 3. Seth défend le naturalisme biologique : la conscience dépendrait de la matière vivante elle-même, pas juste des calculs effectués. Ce qui compte, ce n’est pas seulement quel algorithme tourne, mais où il tourne : dans des neurones vivants qui se régénèrent constamment, ou dans du silicium inerte ? Seth explique que notre cerveau fait constamment des prédictions sur le monde : quand vous voyez une tasse, votre cerveau prédit sa forme, son poids, sa température, mais surtout, le cerveau prédit l’état de votre propre corps – votre rythme cardiaque, votre respiration, votre température… Ces prédictions ne servent pas qu’à « savoir », elles servent à maintenir votre corps en vie. Ce que nous ressentons comme émotion, humeur, le simple sentiment d’être vivant, ce sont des prédictions de votre cerveau sur l’état de votre corps, et un processus possible car profondément ancré dans le fait que nous sommes un organisme vivant qui doit sans cesse se régénérer. « Peut-être est-ce la vie, plutôt que le traitement d’information, qui insuffle du feu dans les équations de l’expérience », conclut Seth.
Seth, par ailleurs, identifie les biais psychologiques qui nous poussent à surestimer la conscience potentielle de l’IA : l’anthropocentrisme (prendre l’expérience humaine comme définition universelle de ce qu’est l’intelligence ou la conscience), l’anthropomorphisme (projeter des qualités humaines sur des choses non-humaines), l’exceptionnalisme humain (considérer l’espèce humaine comme fondamentalement différente et supérieure aux autres formes de vie), l’effet de croissance exponentielle (sentiment permanent d’être au seuil d’une transition majeure), et la tentation du techno-rapture (promesse prométhéenne d’immortalité). Naturellement, le langage est imprégné de tous ces biais, et c’est ainsi, par exemple, qu’on entend dire que les IA « hallucinent », comme si il était pertinent de leur conférer une capacité d’expérience qu’elles n’ont pas, comme si elles ne produisaient pas, mécaniquement, des erreurs, sans rien « vivre » ni rien « ressentir » de leurs erreurs… (2)
Les méga-capitalistes de l’IA – Altman, Hassabis, Amodei, Musk… – ont besoin de lancer régulièrement des projections délirantes sur l’IAG consciente pour maintenir des valorisations tout aussi délirantes. Mais, sachons-le, ils nous baratinent : l’IA ne sera jamais consciente. Le problème est ailleurs : si l’IA peut devenir dangereuse, ce n’est pas parce qu’elle deviendra soudainement une conscience malveillante ; elle est potentiellement dangereuse parce qu’elle est bel et bien configurée par des algorithmes toxiques dans un système social qui maximise l’engagement (donc l’addiction, la polarisation, la désinformation), optimise l’extraction de données (donc la surveillance) et automatise la prolétarisation cognitive. Notre problème ne serait donc pas tant l’IA elle-même – un zombie philosophique sophistiqué mais inconscient –, que les rapports sociaux (toujours eux !) qui la configurent et l’orientent.
Le mythe de la conscience artificielle permet d’évacuer cette question sociale… ne nous laissons pas mystifier.
(1) Directeur du Centre for Consciousness Science à l’Université du Sussex, lauréat 2025 du Berggruen Prize Essay Competition…
(2) Josh Batson, chercheur chez Anthropic, qualifie d’« erreur de catégorie » le fait d’attendre des modèles de langage qu’ils aient un « moi » unifié — comme demander ce qu’un livre « pense vraiment » —, car ces systèmes n’ont aucune autorité centrale coordonnant leurs réponses. Les recherches internes d’Anthropic sur l’interprétabilité révèlent que Claude utilise des mécanismes entièrement séparés et déconnectés pour « savoir » un fait (les bananes sont jaunes) et pour confirmer qu’une affirmation sur ce fait est vraie. Nouvelle preuve que les LLMs traitent l’information sans l’unifier dans une expérience consciente…
Laisser un commentaire