Aujourd’hui, les unes des journaux, les conversations de café, les colloques universitaires, les débats politiques : tout tourne autour de ChatGPT et de ses successeurs, des performances des modèles de langage, des robots humanoïdes qui commencent à entrer dans les usines ou encore du bullshit d’une AGI (intelligence artificielle générale) qui surpasserait l’intelligence humaine dans tous les domaines. Les optimistes y voient la promesse d’une abondance post-rareté ; les pessimistes agitent le spectre de l’extinction humaine.
L’IA capte l’attention totale, monopolise l’anxiété collective, structure l’imaginaire du futur.
Pendant ce temps, dans une relative discrétion, quelque chose d’autrement plus profond se met en place : l’infrastructure de la tokenisation généralisée.
Les banques centrales avancent méthodiquement dans le déploiement des CBDCs (monnaies numériques de banques centrales) ; la Chine a déjà largement déployé le yuan numérique, l’UE teste l’euro digital, la Fed américaine mène ses expérimentations. Les actifs du monde réel — immobilier, matières premières, œuvres d’art, créances — sont progressivement tokenisés via des protocoles blockchain. Les grandes institutions financières, qui se moquaient du Bitcoin il y a 5 ans, créent maintenant leurs départements “digital assets” et proposent à leurs clients fortunés d’investir dans des tokens d’infrastructure. Les premiers pays commencent à exiger que certaines transactions administratives passent par wallets digitaux. Les startups développent des protocoles pour tokeniser à peu près n’importe quoi : votre maison, votre voiture, vos qualifications professionnelles, votre réputation sociale, vos données de santé. Tout cela avance, non pas secrètement — les informations sont publiques pour qui veut les chercher — mais dans une invisibilité de fait… parce que personne ne regarde.
L’IA fait le spectacle pendant que le changement structurel profond — la tokenisation — avance sous le radar. L’arbre qui cache la forêt, autrement dit : un arbre impressionnant, qui parle, qui crée des images, qui semble presque penser, captant tous les regards, pendant que la forêt entière se transforme silencieusement derrière…
Que l’IA capte toute l’attention alors que la tokenisation, pourtant plus structurante, reste dans l’ombre, est somme toute, assez logique. D’abord, la tentation naturelle à l’anthropomorphisme : l’IA parle, écrit, semble comprendre, produit des images qui nous émeuvent ou nous troublent, et nous pouvons dialoguer avec elle, nous projeter en elle, nous demander si elle “pense” vraiment. C’est spectaculaire au sens debordien : cela produit des images fascinantes, des performances impressionnantes, des démonstrations qui se partagent viralement. La tokenisation, elle, est technique, aride, incompréhensible pour qui n’a pas de formation en finance ou en cryptographie. Des smart contracts qui s’exécutent automatiquement, des actifs fractionnés en milliers de parts, des protocoles de liquidité décentralisée : tout cela ne produit pas d’images captivantes, ne se laisse pas facilement raconter et ne suscite pas d’identification émotionnelle.
Ensuite, l’IA pose des questions apparemment métaphysiques qui détournent des questions politiques réelles. Le débat se focalise sur : l’IA peut-elle devenir consciente ? Pourra-elle souffrir moralement ? A-t-elle des droits ? Représente-t-elle un risque existentiel pour l’humanité ? Autant de questions, aussi fascinantes soient-elles — en dépit de leur absurdité —, qui occultent les questions concrètes : qui possède l’IA ? Qui contrôle les données qui la nourrissent ? Qui profite de sa productivité ? Quelle infrastructure économique et politique se construit autour d’elle ?
Le débat métaphysique sur la “conscience” de l’IA masque le débat politique sur la propriété de l’IA. Nous discutons gravement de savoir si GPT possèdera une intériorité subjective pendant que quelques entreprises monopolisent l’accès aux capacités computationnelles massives nécessaires à son entraînement et structurent ainsi le futur selon leurs intérêts.
La tokenisation, elle, ne prête pas à ces débats métaphysiques détournants. Un token n’est évidemment pas conscient, ne pose aucune question philosophique excitante. Il est platement ce qu’il est : une inscription numérique représentant une valeur. Précisément parce qu’il est si prosaïque, il échappe à l’attention collective. Personne ne manifestera contre “l’automatisation des smart contracts de tokenisation d’actifs réels” comme on s’insurge contre l’IA. Personne n’écrira de roman dystopique captivant sur “la blockchain des CBDCs” — et pourtant… — comme on en écrit sur les robots tueurs ou la singularité technologique.
La tokenisation avance dans l’indifférence parce qu’elle ne produit ni récit dramatique, ni peur existentielle, ni aucune fascination anthropomorphique.
Pourtant, revisitant Stiegler, on pourrait dire que si l’IA accomplit la prolétarisation cognitive — nous perdons progressivement les savoir-faire d’écrire, de calculer, de chercher de l’information, de penser par nous-mêmes puisque l’IA le fait pour nous —, la tokenisation accomplit quelque chose de plus profond encore : la prolétarisation existentielle. Ce n’est plus seulement nos savoirs qui nous seront expropriés mais notre être-même, transformé en portfolio de tokens à valoriser.
La première prolétarisation, cognitive, est débattue pendant que la seconde, existentielle, avance silencieusement. L’arbre spectaculaire de l’IA cache la forêt structurelle de la réification totale.
Revisitant Debord cette fois, on pourrait dire que l’IA constitue le nouveau spectacle par excellence — des performances éblouissantes, des démonstrations virales, des débats passionnés sur son statut ontologique — pendant que la tokenisation constitue la restructuration réelle et profonde du capital. Le spectacle a toujours eu cette fonction : non pas simplement mentir ou cacher, mais capter l’attention, fasciner, produire des images si puissantes qu’elles occupent entièrement le champ de vision, rendant invisible ce qui se passe en dehors du cadre. L’IA accomplit cette fonction spectaculaire avec une efficacité inédite. Pendant ce temps, les décisions structurantes sur l’architecture économique et politique du futur — quel système monétaire, quelle forme de propriété, quel type de transactions, quelle traçabilité de l’existence — se prennent dans des comités techniques, des groupes de travail de banques centrales, des consortiums industriels, loin des projecteurs, loin du débat public.
Cette complémentarité fonctionnelle entre IA spectaculaire et tokenisation structurelle n’est pas simplement coïncidence temporelle mais nécessité systémique.
À l’IA, la capacité de traitement qui analyse des quantités massives de données, optimise des processus complexes, personnalise des expériences, prédit des comportements ; à la tokenisation, l’infrastructure de valorisation qui convertit tout en actifs négociables, enregistre toutes les transactions, permet la spéculation généralisée, monétise chaque interaction.
L’une sans l’autre n’aurait guère de sens dans le monde capitaliste : l’IA sans tokenisation ne pourrait pas capturer la valeur qu’elle crée ; la tokenisation sans IA ne pourrait pas gérer la complexité des milliards de tokens et d’interactions. Ensemble, elles accomplissent ce que nous avons appelé la réification algorithmique : la transformation de l’existence entière en données optimisables et en actifs spéculables.
La fonction idéologique de cette focalisation sur l’IA est donc, somme toute, assez claire. Elle déplace les questions : du “comment le système économique nous exploite et nous réifie” vers “l’IA va-t-elle nous remplacer ou nous augmenter”. Elle individualise l’anxiété : chacun se demande “vais-je être remplacé” plutôt que “comment nous organiser collectivement face à la restructuration capitaliste”. Et c’est ainsi que nous débattons de scénarios de science-fiction sur la singularité technologique pendant que des décisions très concrètes sur l’architecture monétaire et la propriété des actifs se prennent maintenant, déterminant le monde dans lequel nous vivrons dans dix ans.
Quel est alors le rôle de la critique aujourd’hui ? Peut-être précisément celui-ci : détourner le regard de l’arbre spectaculaire pour voir la forêt structurelle. Non pas ignorer l’IA — ses implications sont réelles et méritent attention, voire usage —, mais refuser que l’IA monopolise toute l’attention au détriment de transformations plus profondes.
Insister pour rendre visible ce qui avance dans l’ombre : l’infrastructure de la tokenisation qui se construit bloc par bloc, protocole par protocole, régulation par régulation. Montrer comment IA et tokenisation fonctionnent ensemble pour accomplir la réification algorithmique totale de l’existence.
Nommer ce qui ne veut pas être nommé : que nous ne sommes pas face à une “révolution technologique neutre”, mais face à une restructuration du capitalisme qui pousse à son paroxysme la logique de marchandisation, de quantification, de spéculation généralisée – et que cette restructuration utilise l’IA comme spectacle captivant pendant qu’elle construit, dans l’indifférence générale, l’infrastructure tokenisée qui fera de nos vies des portfolios à optimiser.
Ne pas poser les bonnes questions maintenant, c’est accepter par défaut les réponses que le capital est en train de nous imposer silencieusement.
Laisser un commentaire