.[notes & articles pour une dérive contrôlée].

[note] Suivre les lignes d’extension du capital : cartographier la tokenisation intégrale…

Le marxisme classique, tel qu’il s’est constitué au XIXe siècle et consolidé au XXe focalisait légitimement et nécessairement son analyse critique sur la sphère de la production : l’exploitation du travail salarié, l’extraction de plus-value, le rapport antagonique entre capital et travail. Cette focalisation correspondait à la réalité historique du capitalisme industriel où la valorisation du capital s’accomplissait dans la production de marchandises matérielles via l’exploitation directe de la force de travail. Cette analyse demeure rigoureusement vraie et fondamentale : sans production, sans exploitation du travail vivant créant de la valeur nouvelle, il n’y a pas de reproduction du capital – toute critique qui oublierait ou relativiserait ce fondement tomberait dans l’idéalisme.

Cependant, le capitalisme, dès ses origines mais de façon toujours plus intensive et extensive, ne s’est pas contenté d’exploiter le travail dans l’usine : il a colonisé progressivement toutes les sphères de l’existence sociale, transformant en marchandises ou en sites d’extraction ce qui lui était auparavant extérieur ou résistait à sa logique. Du reste, Marx lui-même ne limitait pas son analyse à la production : le premier chapitre du Capital sur le fétichisme de la marchandise analysait comment les rapports sociaux entre personnes apparaissent comme rapports entre choses dans la sphère de la circulation et de l’échange, pas dans la production elle-même. Quant aux Manuscrits de 1844, ils décrivaient une dépossession qui affecte l’être générique de l’humain dans sa totalité, pas seulement le travailleur à son poste.

Cette extension de la critique marxiste au-delà de la seule production n’a rien de nouveau théoriquement. Georg Lukács, dans Histoire et conscience de classe (1923), généralisait explicitement l’analyse de la réification marchande à toutes les sphères de la vie sociale sous le capitalisme, montrant comment la rationalité instrumentale et la quantification calculatrice envahissaient progressivement les relations humaines, la culture, la conscience elle-même. L’École de Francfort a prolongé cette analyse en identifiant les industries culturelles qui transformaient les loisirs, l’art, le divertissement en marchandises produites industriellement selon la même logique que les biens matériels, créant ce que Marcuse appelait « l’homme unidimensionnel » dont la subjectivité même était colonisée et réifiée par la rationalité marchande… Quant au concept de réification, il désignera alors précisément cette tendance du capital à transformer l’ensemble des conditions de vie et pas seulement le procès de travail immédiat.

Nous sommes aujourd’hui les témoins d’une radicalisation technique de ce processus. Avec le numérique et désormais la tokenisation blockchain couplée aux agents intelligents autonomes, le capitalisme colonise des dimensions de l’existence qui échappaient jusqu’ici largement à la marchandisation directe et systématique : l’attention, les loisirs, les relations sociales, la nature, la cognition, la subjectivité elle-même. Le capitalisme contemporain est ainsi sur le point de coloniser la totalité de la vie sociale – circulation, reproduction, nature, subjectivité – pour y prélever des rentes via le contrôle monopolistique des infrastructures, pour fixer algorithmiquement des prix s’écartant de la valeur créée, pour surveiller et façonner les comportements et pour fragmenter, quantifier et soumettre à la spéculation permanente toutes les dimensions de l’existence via des infrastructures algorithmiques qui opèrent en continu.

Le capitalisme numérique radicalise, en somme, ce que les critiques précédentes avaient identifié : avec les tokens, les smart contracts (pour prélever des rentes automatiquement), les algorithmes (qui décident déjà à notre place), les plateformes : l’aliénation et la réification ne concernent plus seulement le travailleur dépossédé du produit de son travail dans l’usine, mais s’étendent à toutes les dimensions de l’existence. Et ces sphères ne sont pas de simples superstructures passives : en fragmentant systématiquement, en quantifiant, en optimisant, en spéculant, en contrôlant, agissent en vecteurs actifs de valorisation qui rétroagissent sur la production elle-même.

Ce que la tokenisation accomplit concrètement peut se mesurer par contraste avec les formes antérieures de commodification : là où les industries culturelles marchandisaient les loisirs mais laissaient encore des interstices non-valorisés, la tokenisation de l’attention monétise littéralement chaque seconde de focus cognitif et transforme le scrolling en travail extractif permanent ; là où le capitalisme de surveillance collectait des données comportementales pour les revendre à des tiers, la tokenisation fragmente l’identité elle-même en identity tokens négociables, les compétences en skill tokens dépréciables, la santé en health tokens fluctuants déterminant l’accès aux soins ; là où le travail de reproduction restait invisible et non-payé, les care tokens et emotional labor tokens le rendent visible précisément pour l’extraire et le soumettre à la spéculation ; là où les relations sociales échappaient largement à la quantification marchande directe, les social tokens valorisent le réseau relationnel et permettent de vendre littéralement ses amitiés et connexions professionnelles ; là où le génome restait hors-marché pour des raisons éthiques et légales, les genetic tokens le fragmentent et le rendent spéculable sur des plateformes algorithmiques ; là où les écosystèmes naturels résistaient partiellement à la commodification intégrale, les biodiversity tokens et carbon credits achèvent leur transformation en actifs financiers négociables ; là où la subjectivité conservait une certaine autonomie décisionnelle, les agents intelligents autonomes couplés à la blockchain exproprient l’agentivité économique elle-même en décidant et exécutant automatiquement les transactions sans intervention humaine consciente…

Ce que j’essaye donc de faire, c’est de prendre la mesure théorique de cette transformation. En montrant que la tokenisation blockchain couplée aux agents intelligents autonomes radicalise, unifie techniquement et accélère tous ces processus de colonisation que les critiques précédentes avaient identifiés mais de façon dispersée. Une ambition qui correspond à la réalité d’un système qui ne laisse plus rien hors de sa portée extractive et qui dispose désormais des moyens techniques pour opérer effectivement cette extraction dans toutes les sphères simultanément, créant ainsi une forme inédite de domination.

Il faut préciser ici un point concernant la démarche conceptuelle elle-même : il ne s’agit pas d’offrir aujourd’hui une définition close et exhaustive de la tokenisation comme si celle-ci était un objet stabilisé, entièrement déployé et saisissable dans une formule définitive. La tokenisation n’est pas un bloc monolithique invincible mais un processus traversé de tensions – entre acteurs capitalistes concurrents, entre États et plateformes privées, entre normalisation et résistances sociales, entre promesses technologiques et limites matérielles – qu’une analyse fine doit identifier pour repérer quels domaines résistent encore et quelles stratégies de résistance collective ces interstices permettent avant leur fermeture probable.

Ce que j’essaye de comprendre également, c’est la dimension temporelle de cette transformation : contrairement aux processus historiques longs que le marxisme classique analysait sur des siècles (enclosures, prolétarisation, industrialisation), la tokenisation intégrale de l’existence s’accomplira pribablement en 10 à 15 ans seulement. La convergence synchronisée de multiples facteurs en 2025 – BlackRock annonçant la tokenisation massive des actifs réels, Block préparant les paiements quotidiens en Bitcoin avec frais zéro pour 2026, les blockchains de troisième génération atteignant la scalabilité nécessaire pour traiter des millions de transactions simultanées, les agents intelligents autonomes devenant capables de prendre des décisions complexes, les régulations favorables émergentes dans plusieurs juridictions – crée une conjonction exceptionnelle de circonstances où toutes les conditions techniques, économiques et politiques se mettent simultanément en place pour permettre le basculement rapide vers la tokenisation généralisée.

Conclusion #1 : l’accomplissement technique d’une tendance historique | La tokenisation blockchain couplée à l’intelligence artificielle autonome accomplit techniquement, en l’espace de dix à quinze ans seulement (2025-2040), ce que des générations de théoriciens critiques avaient identifié comme tendances longues du capitalisme : la réification généralisée analysée par Lukács, les industries culturelles décrites par l’École de Francfort, le travail de reproduction invisible révélé par le féminisme marxiste, la commodification de la nature dénoncée par l’écologie politique, le capitalisme de surveillance documenté par Zuboff. Toutes ces analyses partielles et dispersées convergent et s’unifient dans une infrastructure technique qui permet désormais de fragmenter, quantifier et rendre spéculable absolument toute dimension de l’existence humaine et naturelle, accomplissant ainsi la commodification intégrale que le capital visait structurellement depuis toujours mais qu’il ne pouvait techniquement réaliser avant l’émergence de ces technologies.

Conclusion #2 : l’élargissement nécessaire de la critique sans abandon de son fondement | Cette transformation objective exige d’élargir radicalement la critique marxiste du capitalisme au-delà de la seule sphère de la production pour couvrir toutes les dimensions que le capital colonise désormais effectivement : la circulation où se forment les prix algorithmiques et s’extraient les rentes monopolistiques, la reproduction sociale où se marchandisent les relations et les affects, la nature fragmentée en tokens spéculables, la subjectivité expropriée par les algorithmes décisionnels. Cet élargissement n’abandonne nullement la centralité de la production – la valeur provient exclusivement du travail exploité et se crée uniquement dans cette sphère –, mais reconnaît que le capitalisme contemporain ne se limite plus à cette extraction fondamentale : il prélève désormais des rentes dans toutes les sphères de l’existence via la tokenisation algorithmique, créant ainsi une totalité dynamique où exploitation directe, extraction rentière, surveillance et contrôle s’articulent pour accomplir l’aliénation intégrale.

Conclusion #3 : problématiser plutôt que définir, cartographier plutôt que clore | Problématiser la tokenisation selon une démarche deleuzienne signifie refuser toute définition close et prétendument exhaustive d’un phénomène encore partiellement émergent dont les formes futures restent à découvrir. Il s’agit plutôt de tester et expérimenter les contours d’un processus en cours, d’explorer ses extensions dans des domaines qu’on ne pensait pas tokenisables, d’identifier ses modalités concrètes et ses points de fragilité, de tracer une cartographie provisoire d’un territoire en expansion rapide. Cette approche conceptuelle expérimentale évite le double écueil du réductionnisme qui verrait dans la tokenisation un simple épiphénomène technique sans importance structurelle, et de l’hypostase qui en ferait une essence métaphysique expliquant tout et partout. La tokenisation n’explique pas tout le capitalisme contemporain – l’exploitation directe du travail salarié dans la production reste fondamentale –, mais elle constitue une modalité technique décisive par laquelle celui-ci accomplit aujourd’hui sa tendance historique à la commodification intégrale.

Conclusion #4 : une fenêtre temporelle critique | La compression temporelle distingue radicalement cette transformation des processus historiques longs que le marxisme classique analysait sur des siècles : là où les enclosures, la prolétarisation ou l’industrialisation s’étalaient sur des générations laissant le temps de l’observation, de la délibération et de l’organisation collective, la tokenisation intégrale s’accomplira en une ou deux décennies. Cette urgence absolue transforme l’analyse critique en nécessité politique immédiate : comprendre la tokenisation n’est pas une curiosité intellectuelle mais la condition pour identifier où et comment intervenir avant que les infrastructures ne soient consolidées, les habitudes figées, les dépendances établies et les résistances rendues quasi impossibles.


En savoir plus sur pointsdancrage.fr

Subscribe to get the latest posts sent to your email.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

En savoir plus sur pointsdancrage.fr

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture

En savoir plus sur pointsdancrage.fr

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture