L’IA n’est pas « intelligente » comme nous le sommes – elle n’a ni conscience, ni corps, ni vie sociale incarnée. L’intelligence humaine inclut généralisation créative, abduction, improvisation, avec une forte dimension corporelle, émotionnelle et sociale qui demeure absente des systèmes computationnels.
Et non, l’IA n’est pas purement « artificielle » – elle est tissée du travail et de la créativité humains : artistes dont les œuvres nourrissent les modèles, annotateurs kenyans payés 2$/heure pour trier les données toxiques, modérateurs traumatisés, programmeurs dont le code est ingéré.
Pourtant, en novembre 2025, avec l’arrivée de GPT-5 et ses capacités de raisonnement approfondi, de traitement multimodal et d’action autonome, ces systèmes manifestent bel et bien quelque chose de nouveau : une forme de cognition computationnelle aux capacités émergentes qui dépassent la simple « complétion » (textuelle) ou prédiction statistique. GPT-5 résout des problèmes mathématiques qu’aucune donnée d’entraînement ne contenait explicitement, navigue dans des calendriers, génère des applications complètes.
Alors, entre réductionnisme et anthropomorphisme, comment en parler justement ? Faut-il accepter sans broncher l’expression « intelligence artificielle » (IA) ?
Comme le rappellent Jonathan Durand Folco et Jonathan Martineau dans l’introduction de leur livre Le capital algorithmique (1), l’informaticien Stefano Quintarelli a proposé l’acronyme SALAMI (Systematic Approaches to Learning Algorithms and Machine Inferences) pour déjouer l’anthropomorphisme : « Le SALAMI développera-t-il une conscience ? Peut-on tomber amoureux d’un SALAMI ? » Le ridicule apparent de ces questions révèle comment le langage façonne nos intuitions… :)
Mais cette stratégie de désenchantement terminologique a ses limites. D’abord, elle risque de nous rendre aveugles aux transformations réelles que ces technologies induisent : GPT-5 résout des problèmes mathématiques qu’aucune donnée d’entraînement ne contenait explicitement, manifeste des capacités émergentes qu’on ne peut réduire au « recyclage » de contenus humains. Ensuite, changer le nom n’abolit pas les structures de pouvoir ni les questions légitimes sur l’autonomie algorithmique, la prédation du capital, la concentration économique ou les saccages sociaux. Enfin, « IA » est définitivement entré dans le vocabulaire – politiques publiques, cadres juridiques, imaginaire collectif. Lutter contre cette réalité sociolinguistique gâcherait une énergie qu’on pourrait utiliser dans des combats plus importants.
Le mieux, disons, n’est donc ni dans l’acceptation naïve du terme, ni dans son rejet puriste, mais dans un usage réflexif : utiliser « IA » pour faciliter la communication tout en maintenant une vigilance critique. Concrètement, cela signifie contextualiser quand nécessaire (ainsi : spécifier qu’il s’agit de reconnaissance faciale, de LLM, d’algorithmes de décision), surveiller les verbes d’action qui anthropomorphisent (genre « l’IA décide »), et rendre visible l’infrastructure sociotechnique (entreprises, données biaisées, travail humain invisible). Il s’agit d’éduquer (de s’éduquer) sur ce que « IA » désigne vraiment, sans tomber dans le fétichisme technologique ni dans le déni de ses capacités…
Donc, oui, « utiliser IA de manière parcimonieuse pour faciliter la communication, tout en gardant en tête qu’elle n’est ni tout-à-fait intelligente, ni tout-à-fait artificielle » (1). Une formule simple qui ouvre l’espace critique nécessaire pour poser les vraies questions : non pas « est-ce vraiment intelligent ? », mais « qui contrôle ces technologies, à quelles fins, selon quelles modalités démocratiques, et comment préserver l’autonomie humaine face à ces nouveaux agencements sociotechniques ? »
(1) Le capital algorithmique : accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle / Jonathan Durand Folco, Jonathan Martineau. Les Éditions Écosociété, 2023, Collection Théorie (Montréal, Québec).
Laisser un commentaire