.[notes & articles pour une dérive contrôlée].

[note] Tokenisation et subsomption : le paroxysme de la réification ?

La tokenisation accomplit ce que Lukács diagnostiquait en 1923 comme réification des rapports sociaux, mais en le poussant à son point limite. Là où la réification classique transformait les relations entre personnes en relations entre choses, laissant subsister des domaines d’exception – l’art, la nature sauvage, l’intimité –, la tokenisation fragmente ces exceptions elles-mêmes en unités négociables [autre terme possible pour désigner ce processus : réification algorithmique intégrale].

[à creuser] — la lecture de Minima Moralia fournit un terme qui manquait : subsomption | le NFT & l’œuvre d’art : il tokenise son unicité même, il transforme ce qui résistait structurellement à l’échange (le caractère unique) en produit spéculatif, mais, ce faisant, en forçant le particulier irréductible à entrer dans des catégories universelles manipulables, ne fait-il pas pure opération de subsomption — gravée automatiquement, des milliards de fois par seconde, dans le silicium des puces et le béton des data centers ?

Paroxysme ou une simple intensification de la réification ? 1) réification du processus de réification lui-même : le capital a construit une infrastructure technique qui subsume automatiquement, sans nécessiter d’intervention humaine à chaque opération. L’infrastructure algorithmique n’est donc pas un agent autonome qui aurait échappé au capital, c’est du capital congelé qui commande, des rapports sociaux d’exploitation cristallisés dans le code. Ou quand la subsomption, toujours produite par les rapports capitalistes s’est sédimentée en capital fixe – travail mort cristallisé qui encode la logique de valorisation dans ses protocoles mêmes… 2) réification jusqu’à la résistance elle-même : ou quand la critique de la plateforme devient engagement, métrique, valeur pour cette même plateforme — plus de position d’extériorité d’où penser la réification, puisque le geste même de penser est déjà capté, profilé, subsumé dans l’espace algorithmique. 3) réification via la granularité infinitésimale : où chaque fraction de seconde d’attention, chaque molécule de relation sociale, devient unité négociable autonome. Ou quand chaque particulier est immédiatement universel (token standardisé), mais au prix de la destruction de sa singularité…


En savoir plus sur pointsdancrage.fr

Subscribe to get the latest posts sent to your email.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

En savoir plus sur pointsdancrage.fr

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture

En savoir plus sur pointsdancrage.fr

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture