Lu (via Hubert Guillaud) l’article de David M. Berry “Synthetic Media and Computational Capitalism” (AI & Society, 2025) – un texte qui tombe à point nommé pour qui peine à nommer nos mutations présentes.
Nous sommes, selon Berry, à l’aube d’un basculement civilisationnel : l’expérience humaine, la culture et l’économie ne sont plus seulement médiatisées par la technique, mais générées et remodélisées en temps réel par des systèmes algorithmiques. Il appelle “capitalisme computationnel” cette subsumption de la production culturelle sous des logiques computationnelles. La question ne serait plus de savoir si la machine imite l’homme, mais si l’homme ne finirait pas lui-même par imiter la machine…
Longtemps, on a conceptualisé l’impact de la technologie sur la culture à travers le prisme de l’“industrie culturelle” (Adorno & Horkheimer). Berry repère un saut qualitatif qu’il nomme genèse algorithmique – ou, plus techniquement, “diffusionisation”. Les formes culturelles ne sont plus seulement standardisées ; elles sont probabilistiquement dissoutes, puis reconstituées dans des espaces latents.
Pour comprendre la rupture, il faut revenir à Stiegler et sa “grammatisation” : le processus par lequel gestes et connaissances humaines sont encodés dans des formes techniques. La grammatisation capturait l’enregistrement et la reproduction – le phonographe une voix humaine, la caméra une scène réellement advenue –, maintenant des relations stables entre symboles discrets. Mais la genèse algorithmique de Berry va au-delà : là où la reproduction mécanique créait des copies d’œuvres existantes, et où la grammatisation encodait les gestes et connaissances humaines dans des formes techniques, les systèmes algorithmiques génèrent maintenant du contenu culturel à travers des processus techniques automatiques sans référent humain préalable. Ce passage de la reproduction à la génération est, selon Berry, la subsomption réelle appliquée à la sphère culturelle : le capital ne se contente plus de coordonner la culture existante, il reconfigure sa matrice même.
Si la genèse algorithmique désigne le résultat (contenus autogénérés), la diffusionisation nomme le processus technique sous-jacent : la soumission de la connaissance et de la production culturelle à la représentation vectorielle et à la manipulation de l’espace latent. Ces abstractions mathématiques permettent aux systèmes d’intelligence artificielle de mélanger, de métamorphoser et de générer de nouvelles formes culturelles à travers des distributions de probabilité plutôt que des règles déterministes ou une simple reproduction. Cela marque un passage profond de la simple discrétisation et encodage vers la génération autonome de variations synthétiques qui n’ont aucun référent original dans l’expérience humaine. Le produit n’a plus de référent originaire, il est façonné à partir d’une matière humaine si diluée qu’elle devient intraçable. Un passage de la reproduction à la génération qui rappelle l’analyse de Marx sur la transition de la subsomption formelle à la subsomption réelle sous le capital, mais cette fois au niveau de la production culturelle elle-même…
Le tournant repose sur ce que Berry baptise l’Inversion. Les ingénieurs YouTube l’ont mesurée dès 2013 : le trafic de robots atteint la parité avec le trafic humain, et les filtres anti-fraude menacent de classer le comportement humain comme “anormal”. L’Inversion désigne le seuil où les automatismes deviennent la réalité de référence et l’humain, le bruit. Ce n’est plus une métaphore, c’est déjà un phénomène mesurable.
Berry recourt à une métaphore musicale pour l’éclairer. En théorie musicale, inverser un accord (comme le fait Bach dans son Prélude en do majeur) maintient son identité fondamentale tout en réorganisant sa structure ; l’oreille croit entendre la même harmonie pendant que la main en joue une autre… De même, les systèmes algorithmiques maintiennent des formes culturelles reconnaissables tout en réorganisant leur mode de production — créant une instabilité structurelle sous une surface familière.
Cette inversion se cristallise dans la “production automimétique” : des contenus synthétiques produits et consommés par des algorithmes afin d’extraire de la valeur. L’exemple-type est le streaming musical : des bots écoutent en boucle des morceaux eux-mêmes composés par des IA, déclenchant des micropaiements Spotify. En 2021, jusqu’à 10 % des streams mondiaux étaient déjà suspectés d’être générés par de tels circuits fermés. Ce mécanisme illustre la subsomption réelle de la culture : la plate-forme ne se contente plus de distribuer la musique, elle en transforme la nature afin d’optimiser l’échelle probabiliste de l’espace latent. L’audience est synthétique, le créateur algorithmique, l’auditeur biologique accessoire. Chaque seconde d’écoute devient une unité comptable, immédiatement horodatée, géolocalisée, convertie en millième de centime. L’expérience esthétique n’est plus qu’un résidu statistique dans un processus d’extraction auto-référentiel.
Une deuxième manifestation : les grands modèles de langage capables de générer de l’écriture académique sur eux-mêmes. Quand ChatGPT peut produire des articles apparemment convaincants sur ChatGPT, ou que DALL-E crée des variations infinies de styles artistiques, nous confrontons non pas une simple simulation mais une reconstruction algorithmique de la réalité au niveau de la pratique sociale.
Berry pousse le curseur jusqu’à la “post-conscience” : un état où la conscience se reconfigure à partir de stimuli dont l’origine (humaine ou algorithmique) est indiscernable. Et c’est ici que sa contribution devient intéressante, car il distingue 3 états à ne pas confondre : la fausse conscience marxiste classique : les travailleurs méconnaissent leurs intérêts réels par mystification idéologique ; la conscience algorithmique : notre perception est filtrée, organisée par des algorithmes, mais nous restons conscients de cette médiation ; la post-conscience : un état qualitativement nouveau où la conscience elle-même devient partiellement synthétique, façonnée par l’exposition continue aux formes algorithmiques. Ce n’est plus une conscience médiatisée, mais partiellement synthétisée. Le sujet sait que ses affects sont formatés, et il y investit tout son émotionnel. Geert Lovink désignait déjà cette capture par l’“optionnalisme“ : l’agentivité réduite à des choix pré-câblés. Berry appelle cela la simulation de troisième ordre : non seulement la réalité mais la conscience elle-même devient sujette à la génération algorithmique. Or, quand les algorithmes deviennent arbitres de la vérité sociale, la prolifération des médias synthétiques entraîne une “crise de la vérification” structurelle. L’incertitude devient une structure du sentiment : chaque échange est précédé du soupçon qu’il pourrait être synthétique, inversant la charge de la preuve. Demain, ce sera à l’humain de prouver qu’il est “vrai” ? (1)
Autre point : la logique que décrit Berry – cette fragmentation computationnelle – ne s’arrête pas à la culture. Dans le cadre académique qui est le sien, Berry s’en tient rigoureusement à ce qui existe déjà, à ce qui peut être documenté. Mais ses concepts m’invitent à une question prospective qu’il ne peut pas poser institutionnellement : si cette logique ne rencontre aucune limite politique, où mène-t-elle ? Si la genèse algorithmique liquéfie déjà la production culturelle, pourquoi s’arrêterait-elle là, aux portes de l’emploi, du logement, des soins, des relations ? Imaginons la tokenisation (2) intégrale de l’existence – si tout devenait liquidité algorithmique : compétences, revenus futurs, identité, découpés en milliers de tokens échangeables 24/7 entre bots. En d’autres termes, l’inversion de Berry s’applique intégralement. Et la post-conscience devient la condition généralisée : le sujet ne se verrait plus qu’à travers la cotation algorithmique de ses propres fragments. Les algorithmes feraient loi, l’humain ne serait plus qu’anomalie statistique.
Face à cette dystopie en face de réalisation, Berry propose plusieurs approches. L’objectif, écrit-il, n’est pas simplement de démasquer l’idéologie, mais de tracer comment les systèmes numériques reconstruisent les fondements mêmes sur lesquels la critique a traditionnellement opéré. 1. l’analyse constellationnelle, inspirée de Benjamin parcourant les passages parisiens, circule entre architecture technique, production culturelle, économie politique et formes de vie. Berry la démontre concrètement en analysant Spotify : il examine simultanément l’architecture technique des bots, l’économie du streaming, la transformation des pratiques musicales et les nouvelles formes d’expérience (ou leur absence). C’est dans cette constellation que l’inversion devient visible. | 2. L’analyse inversionnelle trace comment les processus computationnels maintiennent et transforment simultanément les formes culturelles. Appliquée aux LLM : examiner non seulement leur architecture mais comment ils transforment la relation entre créativité, copie et synthèse – entre original et variation algorithmique. | 3. La critique récursive reconnaît que quand les IA peuvent inonder la culture d’analyses sur elles-mêmes, les approches traditionnelles sont remises en question. C’est une approche “pharmacologique” à la Stiegler : la technologie comme poison et remède. Berry insiste : l’inversion n’est pas que négative. La question n’est pas de “stopper” la tokenisation mais de la soigner – créer des régulations qui empêchent la tokenisation de détruire ses propres conditions de possibilité, l’expérience non-tokenisée qui lui sert de substrat. | 4. les humanités numériques constellationnelles cartographient les relations complexes entre systèmes techniques, formes culturelles et structures politico-économiques. Berry documente concrètement cette approche en examinant les rapports de Meta : 1,6 milliard de faux comptes supprimés trimestriellement – un chiffre qui mesure comment les métriques d’engagement deviennent majoritairement synthétiques et forcent les producteurs à adapter leur contenu pour les algorithmes plutôt que pour des humains.
La réification intégrale de l’existence n’est plus une métaphore, mais une réalité tangible où notre mémoire, notre conscience et nos interactions sociales commencent à être de plus en plus façonnées par des logiques computationnelles. Le défi n’est pas de rejeter la technique, mais de développer une réflexivité assez agile pour l’habiter sans être subsumé.
La question aujourd’hui, donc : le capitalisme computationnel est-il simple intensification d’une logique pluriséculaire (transformation du vivant en marchandise calculable), ou marque-t-il un seuil qualitatif où la conscience elle-même se reconfigure algorithmiquement ? La réponse dépendra de notre capacité collective à renverser les rapports sociaux de production avant que leurs contradictions ne deviennent invivables…
En attendant, une chose est sûre : la condition algorithmique n’est pas une évolution technique parmi d’autres ; c’est une refonte ontologique de l’authenticité, de la valeur, du réel. Ignorer ces dynamiques, c’est risquer de finir reliquat dans des systèmes qui, par leur seule logique interne, pourraient nous définir comme résidu et reléguer l’expérience humaine au rang d’artefact secondaire.
(1) À ce propos, mon billet sur le « constructivisme algorithmique » : le moment où les algorithmes, structurellement incapables de distinguer le vrai du faux, deviennent néanmoins les arbitres de ce qui sera socialement tenu pour vrai.
(2) J’utilise ce terme dans un sens élargi qui recouvre à la fois les tokens au sens ML (segmentation technique, embeddings) et les tokens au sens cryptographique (NFT, actifs échangeables), l’essentiel étant la mise en forme discontinue et calculable.
Laisser un commentaire