X

La vérité circulaire de l’information et sa négation

La question que je pose concerne la manière dont les différentes gouvernances globalement pertinentes sont capables d’accepter (et dans certains cas d’amplifier) la multiplication des régimes de vérité, tout en dictant les conditions de pertinence et de légitimité à cette multiplicité. L’hypothèse que je formule est que cette sélection se manifeste sous la forme d’une grammaire informationnelle, c’est-à-dire que l’organisation pratique des techniques n’est pas dictée par l’adhésion à un régime finaliste externe, mais plutôt par la capacité à rendre compte de leur contenu en tant qu’information, c’est-à-dire en tant que « données » qui préexistent à leur « collecte » et qui sont donc formellement traçables. Toute théorisation sur la base de laquelle « tout est information » ne doit donc pas être comprise comme une hypothèse ontologique, mais plutôt comme une indication performative qui s’adresse aux différents « techniciens » et impose la distinction entre les discours scientifiques et non scientifiques, et donc de plus en plus entre les discours légitimes et non légitimes : est scientifique celui qui décrit son propre produit comme de l’information, et donc seul ce qui peut être décrit comme une articulation de nombreuses (même nombreuses, et articulées de manière complexe) parties simples et séparées peut être considéré comme pertinent. 

Pour que cet approfondissement ait également un caractère offensif, j’ai besoin d’un concept plus large, c’est-à-dire que je veux que la production et le traitement de l’information soient des exemples contingents de quelque chose qui les dépasse. De cette manière, la prétendue exceptionnalité de la grammaire calculatoire devient une singularité dont les traits saillants peuvent être mis en évidence « par la négative ». Comme concept englobant, j’utiliserai la notion de diagramme, en me référant avec ce terme à la construction de sens qui ordonne un geste spécifique dans son occurrence. Je pourrai ainsi parler de possibilité dans un sens qui dépasse les notions probabilistes. Le diagramme introduit une asymétrie créatrice qui précède toute polarisation (par exemple celle entre sujets et objets). 
Quand on parle de diagramme, on se réfère à un horizon qui organise la contingence et donc à une manière choisie de façonner le réel : à travers le diagramme et sa diffusion/reproduction, une intentionnalité située circule. La production et le traitement de l’information correspondent à un schéma où les opérations permises ne sont que l’énumération ou la combinaison d’une liste prédéterminée de symboles, et où l’intention qui s’exprime est une injonction à trier et à classer. 

Une langue pour plusieurs mondes 

Le fait que nous évoluions dans un monde ontologiquement fragmenté apparaît aujourd’hui comme une banalité qui ne devrait être révélée à aucun gouvernement, mais c’est le terrain même sur lequel les gouvernements opèrent. Non seulement parce que la complexité croissante contribue à la possibilité de faire circuler les messages et les informations nécessaires aux circuits d’accumulation de la valeur, mais aussi parce qu’aucun système technique ou scientifique ne propose (ou n’aspire réellement à proposer) une vision unitaire des mondes. Qu’il s’agisse des sciences biologiques, médicales ou sociales, des systèmes physiques ou des infrastructures informatiques, les théories de la complexité prolifèrent et leurs conclusions accompagnent toutes les opérations gouvernementales : la contrepartie de ces théories est l’acceptation de la multiplication des régimes d’intelligibilité et la construction de langages capables d’extraire et de traduire l’information d’un contexte à l’autre, en attribuant une pertinence à ce qui est autorisé à être comparé. Toute règle « se nourrit de controverses » et travaille à imprimer aux situations contingentes des langages capables d’exprimer la controverse spécifique considérée sous la forme d’une comparaison ou d’une mesure. 

L’absence d’un cadre ontologique unitaire est ainsi récupérée par la construction d’un système opérationnel, d’une grammaire, que l’on peut résumer par le terme de « traitement de l’information ». Nous entendons par là la définition de variables catégorielles chargées de décrire la situation, et sur lesquelles une série d’opérations simples de sommation, de dislocation, de recombinaison, etc., peuvent être mises en œuvre. 

Cet échafaudage grammatical, c’est-à-dire la réduction du système traité à une série de variables simples et symboliques, est également à la base des systèmes algorithmiques, qui sont capables d’effectuer en peu de temps de nombreuses opérations élémentaires sur ces symboles. Nous pouvons interpréter de nombreuses actions de gouvernement et d’administration de l’espace, du temps et des corps comme une « purification » des situations de ces éléments intraduisibles qui refusent de se rendre visibles dans un système d’information ou qui résistent à leur réduction. 

Un premier élément de l’efficacité de cette capture linguistique découle du fait que les acteurs individuels (techniciens, experts ou simples « citoyens ») peuvent également participer à la traduction de leurs contextes et de leurs formes d’existence au sein de cette grille signifiante. Une grande partie du pouvoir de la gouvernance se déploie précisément dans l’injonction à se traduire comme un agrégat d’informations, comme une explication transparente du capital informationnel que l’on est
Même pendant la pandémie, les indications gouvernementales se référaient à des « vérités scientifiques » d’une manière si manifestement instrumentale qu’il est tout à fait naïf de penser que c’est la « crédibilité de la science » qui était le niveau auquel se jouait l’étroitesse de la situation. Au contraire, la régulation a joué d’une part sur le registre émotionnel (en stimulant la peur de manière étudiée), et d’autre part a fourni des indications impératives qui ont déployé une forme spécifique d’intelligibilité de l’urgence. En particulier, tout ce qui quantifie la situation par rapport aux opérations individuelles est légitime, et c’est à ce même niveau individuel que doivent être structurées les formes d’inclusion et d’exclusion. Il s’agit d’obtenir, par la statistique des corps individuels, une quantification globale du phénomène qui en est la seule explication acceptable. Toute description de contingences spécifiques ne permettant pas une comparaison immédiate à l’échelle du système était illégitime. 

Dans d’autres phases du développement des systèmes biopolitiques, l’opération principale des États consistait à organiser les territoires et la nature en fonction de leurs propres objectifs et analyses scientifiques. Ainsi, dans ce croisement métaphorique permanent entre le soin du corps social et le soin médical du corps individuel, les maladies qui ont été traitées grâce aux indications des théories hygiénistes et aux travaux de réorganisation territoriale (restructuration urbaine, mise en valeur des terres…) ont acquis une pertinence symbolique historique : une vision globale du monde qui a permis (et permet) l’identification et l’agression de certaines parties nocives du monde (ou de la ville) et leur élimination, même sans rendement économique immédiat. 

Dans un paradigme biopolitique informationnel, où le social est l’horizon qui doit organiser les output des acteurs individuels, une série d’opérations basées sur le contrôle et la réglementation des comportements acquièrent une plus grande centralité, dans le sens de la fourniture de la grille de valeurs à travers laquelle les sujets identifiés peuvent communiquer « librement » l’information dont ils sont constitués. C’est ainsi que la maladie symbolique de l’époque, la pandémie de Covid, a été traitée par une série d’indications exécutables et individuellement vérifiables[1].

Il n’y a pas d’autre vérité que le calcul 

Ce que nous avons décrit dans la sphère sociale comme un paradigme informationnel, dans la sphère technico-scientifique, nous pouvons le désigner plus précisément comme le paradigme du calcul ou de l’algorithme. 

« Nous disons qu’un problème à résoudre, une tâche à accomplir, a été algorithmé, lorsque la liste des opérations élémentaires a été établie, la liste des objets sur lesquels ces opérations élémentaires sont effectuées, et lorsqu’il a été déterminé avec précision dans quel ordre et sur quels objets les opérations doivent être effectuées. La formalisation intégrale d’une tâche, d’un calcul, nécessite l’explicitation de tous ses aspects […]. Une fois formalisées, les actions les plus familières perdent leur aspect habituel. La perception globale disparaît au profit d’une rigueur extrême dans l’explication et la description ; le découpage de la réalité ne se fait pas autour de pôles de sens, mais selon une logique purement opérationnelle. En informatique théorique, les termes “machine” ou “automate” ne désignent pas tant le dispositif physique qui effectue la transformation d’un message d’entrée en un message de sortie, que la structure logique de ce dispositif. La “machine” elle-même […] peut donc s’incarner aussi bien dans un calculateur à roues dentées, un microprocesseur ou une liste d’instructions qu’un esclave parfaitement obéissant exécute à la lettre. En fait, une “machine” est un algorithme, un programme »[2].

Au cours du XXe siècle, le paradigme du calcul est devenu hégémonique dans presque toutes les disciplines scientifiques, et la métaphore des objets d’étude comme « machines à traiter l’information » s’est généralisée : de la cellule au système nerveux, des systèmes sociaux complexes à certains systèmes physiques ; la distinction entre hypothèse ontologique et métaphore s’est souvent brouillée, sans jamais être résolue sans ambiguïté, et des notions telles que le « code génétique » montrent que la métaphore du software a pris une signification très profonde. 

Le développement technologique des machines à calculer a amplifié cette hégémonie méthodologique et a été circulairement favorisé par le paradigme algorithmique : les systèmes de calcul formel permettent de résoudre un large éventail de problèmes pragmatiques, depuis l’organisation des chaînes de montage ou la distribution logistique des marchandises, jusqu’à la résolution de problèmes arithmétiques, en passant par le traitement de l’information. Mais la raison principale de l’efficacité du paradigme du calcul se trouve à un niveau plus profond, dans la coïncidence qui s’établit entre vérité, finalité et opérativité : l’explication de l’évolution des espèces, du comportement des populations, du développement médical des maladies, etc., n’est pas à chercher dans une raison extérieure, mais dans une finalité désormais inscrite dans l’immanence (et la cohérence immanente) du système de description et de calcul. 

Le tournant dans les langages scientifiques qui ouvre à la conception des machines à calculer se produit dans la première partie du XXe siècle, dans la « crise » des fondements des mathématiques, lorsque Hilbert entre dans le débat logiciste en proposant une nouvelle définition non ontologique de l’« existence mathématique » : existe tout ce dont on peut démontrer l’existence[3] au sein d’un système logico-formel cohérent (c’est-à-dire non contradictoire). La vérité ne découle plus de finalités transcendantes (par exemple d’une idée d’équilibre biologique) ou d’intuitions liées à l’expérience (comme celle du lien entre l’espace géométrique et l’espace de l’expérience physique), mais de la simple nature non contradictoire des déductions, qui s’identifient à des calculs logico-formels. 
Au niveau du fondement, la proposition de Hilbert sera un échec, car les théorèmes de Gödel démontreront l’impossibilité de vérifier la cohérence et la complétude[4] des systèmes axiomatiques d’un certain niveau de complexité. Bien que cette idée de vérité ne « fonde » pas les langages mathématiques, c’est-à-dire qu’elle ne fournit pas une ontologie globale des mathématiques et des langages scientifiques, elle fournit une nouvelle relation pragmatique et mathématique avec les opérations techniques et leur signification immédiate : s’il est possible de décrire les termes et les opérations d’un système (une liste finie de données, de catégories, de recombinaisons, de sommes…), la non contradictoire, c’est-à-dire la possibilité opérationnelle d’effectuer un calcul formel, garantit l’existence de l’information traitée par le système lui-même. Ce qui ne peut être calculé (et le cœur des théorèmes de Gödel peut être reformulé précisément comme l’existence d’une vaste classe de fonctions non calculables) a une forme d’existence plus faible[5].

Si la particularité de l’émergence galiléenne des sciences était la possibilité d’une représentation dans laquelle les faits semblent parler d’eux-mêmes, dans laquelle, en d’autres termes, le comment suffit à expliquer un phénomène sans qu’il soit nécessaire de recourir à des pourquoi transcendants, le paradigme du calcul étend cette forme d’intelligibilité et la fragmente en un grand nombre d’opérations simples. 

Pauvreté de la critique anti-relativiste 

Les gestes avec lesquels nous traversons la réalité, et les diagrammes avec lesquels nous essayons de la rendre intelligible, se transforment en information en se « purifiant » des possibilités de bifurcation qui les habitent, c’est-à-dire en mystifiant leur inconclusivité pérenne et leur intentionnalité spécifique. Le temps expérientiel des gestes est un temps non conclu. Dans le diagramme qui organise le geste, on peut éprouver à la fois l’inconclusion de l’expérience – c’est-à-dire sa possibilité d’être autre chose et donc l’intention contingente qui l’anime – et la capacité de répétition que produit le diagramme lui-même une fois ses polarités fixées et la situation de son devenir oubliée. La transformation du diagramme en information consiste précisément dans la fixation de ses pôles identifiés comme nœuds irréductibles d’une opération, et dans la transformation de l’intentionnalité en nécessité. 

La puissance de la notion d’information réside précisément dans ce double niveau : elle est le véhicule d’une intention de classification et d’ordonnancement, mais en même temps elle peut permettre d’oublier cette intention et de présenter ses opérations comme relevant d’un état de nécessité. Les « faits » deviennent des « données », et dans cette distance étymologique réside une invisibilisation substantielle que les machines concrètes d’information s’emploient continuellement à renverser. La machine sociale peut ainsi être organisée à plusieurs niveaux, distribuant des différentiels de pouvoir à la classe technique et politique à travers la possibilité (ou non) d’accéder à certaines définitions catégorielles spécifiques[6].

Toute critique du paradigme calcul-information qui tente de rétablir un niveau d’information fondamental, précalcul, passe à côté de l’essentiel[7] : le succès des opérations classificatoires/statistiques tire précisément sa force de l’incomplétude persistante des paradigmes ontologiques. Puisque cette incomplétude est posée comme un problème, le paradigme du calcul fournit un moyen opérationnel de repousser l’insolvabilité permanente de ce problème. 

Considérons par exemple les critiques qui détectent des outputs racistes ou misogynes d’opérations effectuées par des algorithmes d’IA : si l’on décrit ces résultats comme le fruit d’un biais algorithmique, on suppose alors l’existence d’une donnée de départ non discriminante que la machine aurait mal détectée, mais est-il possible d’identifier cette donnée sans régénérer les mêmes apories que celles d’où l’on est parti ? En remontant la chaîne des définitions objectivantes structurant la machine, on s’aperçoit que la réduction des différences de race ou de sexe en données doit discriminer entre ses inputs, puisque c’est l’intention qui a structuré la machine elle-même (qu’il s’agisse de sélectionner des CV ou de choisir la caution appropriée à laquelle soumettre un détenu faisant l’objet d’une enquête). L’élimination du biais devrait donc passer par l’élimination pure et simple de l’information en question, ce qui provoque une autre aporie : dès lors que l’on cherche à mesurer la discrimination, il faut admettre que cette variable doit être corrélée avec les autres par lesquelles la machine a discriminé, faute de quoi son introduction n’aurait de « sens » pour personne et le problème du biais ne se poserait même pas. 

Plus généralement, à chaque ouverture de la boîte noire algorithmique, il est implicitement suggéré[8] que cette boîte était préalablement fermée, et qu’en approfondissant sa connaissance du déroulement du calcul, on peut découvrir un mécanisme préexistant : cette construction de sens – la « découverte » d’un « fonctionnement » – fait écho à celle inhérente au paradigme du calcul lui-même. L’algorithme explose alors en une myriade de sous-processus, tandis que la question des injonctions posées par son simple fonctionnement reste cachée. 

Toute critique de la technoscience risque de glisser dans le même sens que les exemples précédents, précisément parce que la différence entre technique et science en vient à se coaguler comme une séparation entre geste et théorie, entre opérations et données, et donc à traduire sur un plan théorique bancal le même présupposé opératoire que celui qui sous-tend le paradigme du calcul. 

La science comme conspiration permanente 

Le problème que nous nous posons est – au niveau de l’expérience et aussi au niveau de l’expérience de la « donnée sociale » – ce qui peut arriver lorsque l’application continue de la grammaire calculatoire devient hégémonique, menaçant toute « viscosité », tout régime de vérité qui ne se décompose pas en données, en informations et en valeurs. 
Nous voyons que ce que Camatte appelle l’anthropomorphisation du capital s’accompagne de l’hégémonie d’une classe technique qui, pour réorganiser des territoires, des activités et des formes de vie spécifiques, est capable de construire rapidement de nouveaux régimes symboliques, dans le but de décrire catégoriquement et computationnellement (c’est-à-dire de les inclure dans une grammaire informationnelle) les « objets » qu’elle entend articuler d’une nouvelle manière. L’épreuve de force de l’événement Covid s’est jouée sur la capacité à déployer une grammaire qui combinerait dans un langage individuel et opérationnel toutes les exigences et obligations imposées par la situation. Et sur la capacité à faire de ce langage le seul légitime.

Le rythme des opérations de réorganisation existentielle s’accélère et semble pouvoir déterminer la fin de tout régime spécifique qui résiste à la réduction dans une équivalence calculatoire. Chacun de ces régimes (ghetto, groupe criminel, ZAD, partialité séparée… mais aussi parc urbain dans le cadre d’un réaménagement urbain, environnement spécifique dans le cadre de la construction d’un nouveau parc, ou système de gestion de l’eau dans un territoire affecté par des projets de mégabassines d’eau) finit toujours par être représenté comme une exception locale, une niche limitée dans le temps destinée à devenir tôt ou tard un autre sous-ensemble d’objets délocalisables, ou d’acteurs du débat démocratique et de l’échange d’informations. 

L’incohérence la plus forte induite par l’accélération des opérations gouvernementales[9] est la perte de la relation entre les gestes subjectifs et l’information circulante, qui se traduit aussi par une perte de médiation entre les constructions locales, partielles, situées du sens et les formes de justification de la gouvernementalité, en premier lieu les formes scientifiques. Toute vérité qui n’est pas « fonctionnelle », c’est-à-dire qui ne produit pas sa propre raison circulaire, immédiatement traduisible, n’est pas légitime sur la scène publique. 

Les formes de réglementation des comportements et des discours prennent ainsi un caractère forcé, et une délégitimation explicite du doute s’affirme de plus en plus dans le débat public. C’est ici que naît la notion de complot, comme simplification criminalisable (et d’abord ridicule) de toute construction de sens qui ne serait pas pragmatique et ne respecterait pas les contraintes sur lesquelles s’est consolidé le consensus d’une communauté scientifique : potentiellement, toute interrogation sur l’état des choses qui voudrait déceler la présence d’une agentivité dans la structuration de la relation entre causes et effets, là où seule la nécessité doit exister, est un complot. Le conspirationnisme – catégorie extrêmement vague d’un point de vue descriptif – intègre donc vigoureusement l’injonction d’adhérer à une forme de discours avant d’adhérer à des vérités établies. Ce n’est pas un hasard si les conspirationnistes se reconnaissent davantage à la manière dont ils argumentent qu’à la démonstration de la fausseté de ce qu’ils expriment. 

Pour les raisons évoquées, toute distinction entre critique scientifique et « fantasmes conspirationnistes » se résout en une entreprise nominaliste, qui mystifie encore davantage les raisons incarnées qui orientent les gestes du conflit, même dans le domaine de la connaissance théorique. En examinant le rôle et les raisons des différents doutes, il est plutôt possible d’identifier certaines tendances qui brouillent la distinction entre critique et conspiration. Décrivons brièvement quelques-unes de ces tendances :

1. L’intuition que certaines élites techniques, politiques et économiques agissent au niveau de la vérité légitime, en sélectionnant les gestes, les formes et les informations pertinentes. Elles construisent le réel à partir de contraintes choisies, ces mêmes contraintes qui circulent ensuite socialement sous forme de nécessités naturelles. 

2. Une tentative de perforation de l’isolement mutuel des récits condamnés à l’insignifiance, par l’usage d’une même grammaire informationnelle hégémonique[10]. Il s’agit ici de la principale impasse rencontrée par toute « critique de la science » qui, comme nous l’avons décrit plus haut, ne reconnaît pas l’innovation théorique installée par le paradigme du calcul, et qui cherche à répondre à ce paradigme par une attitude de refondation ou de simple « dévoilement » de la vérité derrière la machine. 

3. Enfin, l’élément le plus intéressant réside dans les interrogations adressées aux résultats négatifs, aux inconclusions du sujet scientifique lui-même. Ces questions permettent de soulever « négativement » l’intentionnalité des élites déjà notée en (1) : pourquoi ne peut-on répondre à une épidémie d’arbres que par un abattage massif ? Comment un modèle climatique peut-il être « scientifiquement » vérifié s’il n’y a qu’une seule terre ? En quoi le vaccin était-il sûr si son essai a duré beaucoup moins longtemps que les précédents ? Il ne s’agit pas de nier le changement climatique ou l’efficacité du vaccin. Il s’agit cependant de constater que la clarification de tous les termes en question implique un découpage choisi des concepts utilisés, et que ce découpage a des conséquences concrètes à la fois sur l’utilisation de ces concepts, et sur leurs implications causales. 

La capacité à étendre cette attitude au-delà du simple « démasquage » peut être la clé pour réactiver des usages du langage et des techniques qui sont actuellement empêchés par l’hégémonie informationnelle. 

Remarque finale sur la dérive des techniciens

J’ai déjà constaté que la richesse non voilée des gestes est constamment passée au crible du jargon scientifique et de la logique informationnelle. Cet élément, que je viens d’aborder dans ses conséquences sur (la rupture du) consensus social, pose également problème dans le domaine de l’innovation technique. En effet, l’organisation des techniciens doit fournir des espaces de proximité et d’élaboration qui ne peuvent être réduits à la rhétorique de la Science et à sa mystification comme « enregistrement » du Réel. 

L’organisation concrète des classes techniques prévoit des îlots d’expertise au sein desquels il est possible de cultiver le surplus de discours technico-scientifique et de formuler des hypothèses sur les formes des objets d’étude, sur les paramètres des modèles et leur élasticité, et en général sur les espaces et les gestes qui façonnent l’action technique. Ce processus, pour ainsi dire créatif, est réintégré en aval dans une grammaire de la découverte et des données. C’est-à-dire que dans les communautés techniques se constituent des contraintes théoriques qui circulent ensuite sous forme de données en dehors des communautés qui les mettent en forme. 

La science devient donc aussi une grammaire commune à travers laquelle les différentes communautés disciplinaires organisent, y compris économiquement, leurs productions. 

Ici, cependant, la question de l’incomplétude des paradigmes scientifiques se pose à nouveau parmi les communautés techniques, comme un non-alignement entre différents régimes de vérités spécifiques. La construction subjective des « scientifiques » ou des « techniciens », qui auraient dû introduire une discipline discursive et institutionnelle, ne peut pas mettre fin à cette fragmentation ontologique. Au contraire, elle pose un problème urgent par rapport au cadre discursif technopolitique : les dérives des discours des techniciens doivent être contrôlées au moyen d’autres relations de pouvoir, qui ne sont pas reconnaissables dans la dialectique lisse de la méthode scientifique. 

À titre d’exemple, citons deux cas. 

Le renouveau nucléariste dans la sphère de la physique nucléaire italienne, c’est-à-dire le retour des hypothèses nucléaires dans les investissements énergétiques italiens, s’est présenté comme une solution au problème des sources d’énergie durables et écologiques. Dans ce cas, le succès de l’écologisme dominant s’est greffé sur les mécanismes d’autojustification d’une communauté disciplinaire spécifique et sur sa capacité à formuler un discours « solutionniste » en réponse à une question qui a fait date. 

Si la postulation de l’« écologie » de l’énergie nucléaire est problématique en soi, ce qui attire également l’attention est le fait qu’à ce stade de l’histoire, seuls les « physiciens nucléaires », considérés comme une communauté distincte, peuvent espérer une solution qui pose d’énormes problèmes de gestion, d’ingénierie et de formation des techniciens. Dans d’autres communautés de techniciens, il n’est pas surprenant que cette option n’ait pas du tout le même succès idéologique[11]. Mais nier « scientifiquement » l’enthousiasme nucléariste, c’est passer à côté de l’essentiel : une intentionnalité spécifique – d’une communauté technique spécifique – est visible à contre-jour, et l’appareil technogouvernemental global est incapable de l’inscrire dans un cadre de signification plus large. Pour la gouverner, il doit expliciter ses orientations techniques comme des conditions imposées. 

Le deuxième exemple est la crise survenue il y a quelques mois au sein de la société d’intelligence artificielle OpenAI. 

En résumé, une lutte de pouvoir interne à l’entreprise a vu s’affronter la partie techno-optimiste, qui exprimait le PDG Sam Altman, et la partie plus prudente et circonspecte sur la commercialisation des nouvelles machines. Cette seconde partie, plus nombreuse au sein du conseil d’administration, a d’abord limogé Altman, avant de revenir sur ses pas suite aux fortes pressions exercées par le principal investisseur : Microsoft. Au-delà des aspects purement corporatistes, il est intéressant de constater que les technoprudents ont développé une vision complexe du rôle des intelligences artificielles, faite d’imaginaires techno-catastrophiques et d’idéologies spécifiques (dont surtout celle de l’altruisme efficace), qui ne sont pas partagés au sein d’un même écosystème corporatif et conduisent d’ailleurs à des conflits sur les modalités et les finalités des politiques corporatistes. Ce dernier point est particulièrement crucial, car autour de la formulation technico-économique différente des problèmes auxquels la communauté technique est confrontée, il y a une bifurcation possible du cadre de sens qui organise le développement de ces machines. Il ne s’agit pas de voir dans l’altruisme efficace une forme d’anti-économisme, au contraire cette idéologie semble précisément ramener toute considération éthique sur le développement technologique à l’intérieur d’une grille d’évaluations quantitatives formulées en termes sociaux, et à l’échelle mondiale. Il est cependant pertinent que ce choc des visions ne semble pas avoir de points de synthèse, que même dans ce cas il n’y ait pas de discours techno-scientifique capable de médiatiser (et donc d’opacifier) les relations de pouvoir qui traversent les classes techniques.

Retrouvez le texte original sur https://www.nigredo.org/2024/02/25/la-verita-circolare-dellinformazione-e-la-sua-negazione/


[1] Il est intéressant de noter que cela s’est également produit grâce à une simplification de la représentation qui a une fois de plus le caractère d’une injonction illocutoire : l’identification entre la circulation du virus et l’infection des individus qui a accompagné la première diffusion des vaccins, et qui n’a jamais perdu sa pertinence interprétative malgré le fait que les analyses ultérieures ont changé la donne. La simplification consiste à identifier l’interface entre le virus et le corps par une frontière, puis à interpréter le cas exceptionnel du virus de la variole (où le vaccin a interrompu la circulation du virus) comme un exemple paradigmatique. Dans le cas des virus respiratoires comme le Covid, l’agent pathogène s’accumule dans les muqueuses, c’est-à-dire dans des zones non atteintes par la circulation sanguine. Aux interfaces possibles entre les agents viraux et infectieux, une myriade de contingences – intraduisibles les unes des autres – se cachent.

[2] D’après P. Levy, The Calculus Paradigm. Extrait de la collection From One Science to Another éditée par Isabelle Stengers.

[3] Selon la capacité à « construire » un exemple de l’objet en question, c’est-à-dire que même une démonstration par l’absurde suffit à fournir une preuve d’existence.

[4] La cohérence est la propriété d’une théorie de ne comporter que des affirmations non contradictoires. La complétude est la propriété selon laquelle chaque affirmation de la théorie est prouvée vraie ou fausse. Le premier résultat de Gödel implique l’impossibilité de prouver la cohérence avec les symboles et les règles de la théorie elle-même. Le second résultat implique l’existence d’une affirmation qui peut être à la fois vraie et fausse si le seul point de départ est constitué par les axiomes de la théorie. La construction d’un statut vrai ou faux pour l’assertion dépend donc de l’ajout d’une contrainte supplémentaire, donnée par exemple par la situation contingente étudiée, ou par un choix arbitraire.

[5] Il est clair que ces résultats négatifs sont absolument centraux dans le débat scientifique, et l’on pourrait dire que c’est précisément autour de ces résultats négatifs que prolifèrent les nouvelles définitions et les développements disciplinaires. Ce qu’il m’intéresse de noter, cependant, c’est que l’existence des résultats d’un calcul algorithmique peut être définie comme la performance même de l’opération calculatoire, et cette notion puise sa force dans l’hégémonie du geste calculatoire lui-même.

[6] Donnons quelques exemples simples de la structuration multi-niveaux dont nous parlons : le choix des critères qui distribuent les financements au niveau européen est aujourd’hui largement indépendant des bureaucraties nationales, de sorte que ces dernières subissent les critères comme des « données », tandis que les bureaucraties européennes construisent ces données ; la notion d’« expert » dans un domaine fournit sur le plan juridique, mais aussi de plus en plus dans le débat public, la légitimité ou non de la critique des  » données  » ; les différentes méthodologies médicales sont des objets d’étude pour les médecins et des outils de données pour le patient ; l’absence de pouvoir du « citoyen » est inscrite dans sa capacité à n’accéder aux choses que sous forme de données.

[7] Et ce, même si, d’un point de vue théorique, il est correct de dire que la machine à calculer, l’algorithme, ne fournit pas une description complète de la réalité.

[8] Il est clair que dans de nombreux cas, lorsqu’on parle d’« ouvrir la boîte noire », on se réfère simplement à la détection des utilisations qui sont faites (généralement le profilage à des fins commerciales, électorales ou policières) des classifications discriminantes véhiculées par la machine. Sans s’attarder sur le caractère performatif ou non de la machine. Il s’agit ici d’attirer l’attention sur le fait que le récit général des machines informatiques ne cesse d’induire des formes de datafication implicites dans leur fonctionnement

[9] J’identifie l’urgence sanitaire induite par l’événement Covid, et l’urgence climatique, comme des phénomènes globaux qui ont marqué des points de démarcation irréversibles.

[10] La faim d’être, guidée non pas par une expérience de la souffrance et le désir de la faire cesser, une passion, mais par sa seule annonce qui n’atteint que trop rarement le « champ de l’expérience », s’accroche aux catégories de la domination pour les reconduire. (Mohand)

[11] De plus, le problème auquel l’énergie nucléaire est censée apporter une solution ne peut qu’avoir une échéance totalement irréaliste en Italie par rapport à l’évolution de la crise climatique.

Retour en haut