X

La catastrophe algorithmique, revanche de la contingence

La magie de l’automatisation incline […] vers la littéralité […]
Un appareil conçu pour atteindre des objectifs ne cherchera pas forcément à atteindre nos objectifs à moins que nous le concevions expressément à cette fin, et que, par conséquent, nous prédisions toutes les étapes du processus d’exécution […]
Les châtiments réservés aux erreurs de prévision, aussi sévères soient-ils aujourd’hui, seront plus impitoyables encore lorsque l’automatisation sera appliquée à grande échelle.

Norbert Wiener[1]

Catastrophe et accident

Toutes les catastrophes sont algorithmiques, même celles de la nature, dès lors que l’on considère que l’univers est gouverné par les lois régulières et automatiques du mouvement et de l’émergence. Une catastrophe prend alors la forme d’une perturbation accidentelle générée par les lois internes de l’univers. Nous pouvons comprendre le terme « accident » de deux façons différentes : premièrement, en tant que propriété non essentielle d’une substance (comme la couleur rouge associée à une pomme), comme l’a souligné Aristote dans Les Catégories, ce qui veut dire que son arrivée ou sa disparition n’entraîne pas la destruction de la substance (par exemple, si la pomme n’est pas encore rouge, elle reste une pomme) ; secondement, un accident peut être considéré comme quelque chose apparaissant de manière contingente, ce qui est la définition la plus courante du terme[2]. Je montrerai plus loin que les catastrophes algorithmiques – que je définis comme toutes les catastrophes qui sont le produit d’algorithmes automatisés – découlent de la convergence de ces deux types ou deux compréhensions du terme accident. Nous sommes les témoins de nombreuses catastrophes causées par la technologie, en plus de celles causées par l’ignorance humaine ou de « l’immaturité technique » – comme la corrosion. Mais ces catastrophes matérielles ou technologiques ne sont pas des exemples de ce que je propose d’appeler les catastrophes algorithmiques. Le terme de catastrophe algorithmique ne renvoie pas à une défaillance matérielle, mais plutôt à une défaillance de la raison.

En novembre 2002, le philosophe français Paul Virilio a organisé une exposition à la fondation Cartier à Paris nommée Ce qui arrive. Dans cette exposition, Virilio voulait analyser l’arrivée d’un nouveau genre de catastrophe – celles causées par le développement technologique des dernières décennies – ; à cette occasion, il a aussi annoncé qu’un renversement de la distinction aristotélicienne entre la substance et l’accident avait eu lieu. Dans la perspective de la normalisation des catastrophes durant le XXIᵉ siècle, Virilio a souhaité revenir sur la question de la responsabilité et réfléchir au problème de l’industrialisation, qui est destructrice aussi bien du corps que de l’esprit. Virilio remarque que chez Aristote les accidents servent à révéler la substance. Pour Virilio, en revanche, la substance est toujours accidentelle. Les accidents donnent lieu à de nouvelles inventions pour les surmonter. Ainsi, les catastrophes sont structurellement nécessaires, elles sont ce qui motive le développement technologique. Il écrit : « Dès lors, le naufrage est bien l’invention “futuriste” du navire et le crash, celle de l’appareil supersonique, tout comme Tchernobyl l’est de la centrale nucléaire[3] ». Plus loin, Virilio observe que les accidents ont dépassé cette relation à la substance ; en effet, il écrit que si nous pouvons encore parler des « accidents de substances », maintenant « nous assistons à l’émergence fatale de l’accident des connaissances, dont l’informatique pourrait bien être le signe, par la nature même de ses indubitables “progrès”, mais aussi, parallèlement, par celle de ses incommensurables dégâts[4] ». La nouvelle forme d’accident que Virilio appelle « l’accident des connaissances » est dominé par la seconde définition du terme accident, c’est-à-dire l’arrivée constante de catastrophes surmontées par le « progrès » de la civilisation. Nous concevons « l’accident des connaissances » comme l’accident de la raison, ou plus précisément de la raison extériorisée, que nous appelons « algorithme ». La dialectique de l’accident et de l’invention conduit à la systématisation de la raison extériorisée, qui obtient son propre mode de contingence.

L’émergence de la catastrophe algorithmique, comme nous allons le voir, témoigne de la présence d’un système technologique mondial qui est ouvert à la répétition de catastrophes sans apocalypse. Par conséquent, la catastrophe que je souhaite décrire diffère de sa compréhension à travers la tragédie et la vision apocalyptique. Premièrement, nous ne parlons plus des lois de la nature mais d’un système technologique global, qui déplace les catastrophes de leur origine tragique. Rappelons que le mot grec κατάστρέφω a deux parties, κατά (« bas ») et στρέφω (« tourner »), qui chacune désigne un mouvement dans un chœur. Deuxièmement, l’apocalypse comme comprise par la tradition chrétienne n’est pas capable d’expliquer pleinement la situation globale. L’apocalypse comprise comme espoir d’un nouveau départ apparaît aujourd’hui comme de plus en plus fallacieuse. C’est pourquoi la catastrophe algorithmique doit être articulée et comprise au-delà de l’association avec la tragédie antique ou l’eschatologie post-industrielle. D’autre part, la catastrophe algorithmique marque le parachèvement de la raison spéculative en relation avec la découverte du concept de contingence dans la philosophie occidentale, depuis sa première exploration systématique chez Platon et Aristote, puis son prolongement dans la théologie et la philosophie médiévale en rapport avec la création divine, ou dans le travail d’Émile Boutroux (1845-1921), et maintenant pleinement exposée dans l’œuvre du philosophe français Quentin Meillassoux.

Dans une courte entrée de dictionnaire, le philosophe allemand Hans Blumenberg remarque que la contingence est l’un des quelques concepts à être spécifiquement d’origine chrétienne. Dans la philosophie d’Aristote, il n’y a pas d’opposition entre ce qui est possible et ce qui est nécessaire, mais plutôt entre possibilité et réalité ; ce n’est que quand elle est liée à la logique qu’une telle opposition apparaît. L’ontologisation de cette « possible contingence » n’est achevée qu’au XIIᵉ siècle : « le monde est contingent en tant que réalité qui, parce qu’elle est indifférente à son existence (Dasein), ne porte pas en elle-même le droit et la raison de son être[5] (Sein) ». À travers le volontarisme de la scolastique franciscaine, le nécessaire perd la justification de la contingence : « la contingence devient maintenant l’aléatoire, l’accidentel[6] (Zufälligkeit) ». Si les accidents en tant que prédicats ont dominé l’enquête sur l’être menée par les anciens, maintenant nous commençons à apercevoir la domination d’une autre signification des accidents : la contingence. La contingence est toujours présente dans les lois de la nature et défie toutes les formes de nécessité, comme Émile Boutroux l’a montré dans De la contingence des lois de la nature[7]. La contingence de la catastrophe algorithmique n’est plus celle des catastrophes naturelles, mais opère au sein de la technique comme une « seconde nature[8] ». C’est dans ce contexte que s’inscrit ce que j’appelle la « catastrophe algorithmique », pour décrire au mieux notre situation technologique. Une objection peut être soulevée, car nous affirmons indirectement la distinction entre nature et culture (si nous comptons la technologie comme une part de la culture). Il est vrai qu’une telle catégorisation est, dans une certaine mesure, culturelle. Cependant, nous n’affirmons pas que la nature et les techniques sont des réalités séparées et distinctes, mais plutôt que le concept traditionnel de nature, qui ignore et déconsidère les techniques, devrait être mis en question[9]. Dès lors il est nécessaire d’avancer un concept de seconde nature, qui contient une telle distinction mais qui en même temps la dépasse.

L’algorithme dont nous parlons aujourd’hui est le dernier développement de la raison, totalement détaché du corps pensant, et qui prend de plus en plus d’importance dans notre vie quotidienne en raison des récents développements rapides de l’intelligence artificielle (IA). La catastrophe algorithmique se déploie au sein du développement technique actuel – depuis 2010, nous avons assisté deux fois à ce que l’on a appelé des « flash-crashs », qui ont paralysé le marché financier en quelques secondes à cause de l’utilisation du trading algorithmique. D’un autre côté, l’anticipation de la catastrophe devient un principe de design : « Design for failure, since everything fails » est le fameux slogan de la branche de cloud computing d’Amazon. On ne doit pas manquer la quadruple dialectique des accidents comme prédicats, de la contingence, de la chance (τύχη) et de l’automaticité (αυτοματον), et suivre le développement de cette dialectique et de sa signification dans les lois de la nature jusqu’aux lois de la technique – formant la seconde nature. Nous sommes entrés dans l’ère globale de la catastrophe, et une eschatologie post-industrielle globale, comme le suggère Virilio, semble vaine puisqu’elle ignore le système technique global qui est essentiellement la convergence entre différents sous-systèmes et différentes cultures. Afin de développer le concept de catastrophe algorithmique, nous devons reconsidérer la relation historique entre la technique et la contingence dans la culture occidentale. L’histoire présentée ici, en tant que développement de la raison et de son extériorisation dans les machines, conduit de manière significative à une auto-négation de la raison depuis la fin du vingtième siècle jusqu’à aujourd’hui.

Nature, contingence et technē

Il n’est pas inutile de rappeler que les anciens, lors de catastrophes comme les sécheresses ou les inondations, plaçaient leurs espoirs dans la restauration de l’ordre cosmique, un ordre capable de triompher de toutes les contingences. En raison du manque de connaissances techniques et scientifiques, la contingence a constitué le moment mythique et catastrophique du temps tragique, tel qu’il est présenté dans les tragédies de la culture hellénique. Cette contingence n’est pas seulement accidentelle, elle est aussi nécessaire à la compréhension de la relation entre l’homme et le cosmos. Œdipe, l’homme intelligent qui a résolu l’énigme du Sphinx, n’a pas réussi à échapper à son destin, qui est à la fois contingent et nécessaire. La naissance de la science ou de la raison est une manière de surmonter le caractère imprévisible et incontrôlable de la contingence. C’est pourquoi Platon, le biographe de Socrate, nous a offert un théâtre anti-tragique, dans lequel Socrate utilise sa raison pour pénétrer dans les choses avec la « mesure apollinienne ». Dans le Protagoras, Socrate propose de développer une technē comme ultime mesure du bien et du mal, en réponse à la proposition sophiste des fins multiples. Martha Nussbaum, dans son livre, The Fragility of Goodness : Luck and Ethics in Greek Tragedy and Philosophy, a montré que le but ultime de Platon est de maîtriser la fragilité de la chance (τυχή). La chance est contingente, si elle était toujours présente, elle perdrait son sens, et ne serait plus désirable. Le recours à la science est une manière de surmonter la fragilité de la τυχή. La science, qui se dit également τέχνη ou sa forme plurielle τέχναι, est une méthode de mesure et de calcul qui rend toutes les finalités commensurables. Nussbaum se réfère également à la définition de la technique donnée par Aristote, en soulignant quatre éléments : (1) l’universalité ; (2) la capacité à être enseignée ; (3) la précision et (4) le souci de l’explication[10]. La technē, affirme Nussbaum, n’avait pas un sens significativement différent de l’épistēmē à cette période de la culture hellénique. L’épistēmē s’attache aux objectivations de la technē, qui peuvent surmonter la contingence et l’ακρασία, l’incontinence. Nussbaum n’a pas remarqué la tension entre les deux objets à surmonter : τυχή comme contingence, et ακρασία comme incontinence, ou faiblesse de la volonté. La technique n’est pas seulement un dépassement de la τυχή, mais aussi le dépassement de ακρασία, qui ouvre par conséquent une nouvelle situation en contraste avec l’habitus.

Cette technique n’est pas une compétence spécifique, c’est la technicité de toutes les technai, c’est-à-dire la pensée rationnelle. Cette pensée rationnelle, ici technē et epistēmē, est porteuse d’un geste anti-tragique, puisque la tragédie est toujours la souffrance de la τύχη, qui outrepasse le gouvernement des lois. L’esprit tragique, qui s’est épanoui dans la culture hellénique de 700 avant notre ère, est condamné par la sagesse de Socrate, telle qu’elle est décrite par Platon. La pensée rationnelle, que Socrate propose à Protagoras comme une méthode de mesure absolue basée sur le plaisir, défait la proposition de Protagoras, à savoir l’enseignement de la justice. Le grand sophiste a été contesté non pas à cause de sa technique, mais plutôt à cause de son incapacité à comprendre la technique qui régit toutes les technai. Cette science fondée sur le plaisir n’est pas la poursuite du désir et de l’inspiration dionysienne, mais plutôt celle de la mesure et de l’ordre apollinien. Ce scepticisme à l’égard du désir corporel par la pensée rationnelle est annoncé dès le début du dialogue de Platon. Au début du livre, alors qu’un ami anonyme se moque de la poursuite d’Alcibiade par Socrate, la comparant à un chien chassant sa proie[11]. Socrate se retrouve à admettre son désir pour Alcibiade, mais au même moment montre qu’il a possède un désir plus important que cette séduction : « il y a eu pourtant quelque chose de déconcertant que je veux bien te dire : c’est que, malgré sa présence, je ne faisais point attention à lui, que souvent je l’oubliais[12] ! » Pour Protagoras et sa sagesse, Socrate a pu éloigner Alcibiade de son esprit. La science du plaisir est une science de la planification et de la prospective.

Socrate refuse le plaisir immédiat en prévision de la souffrance à long terme et il accepte la douleur immédiate en raison des conséquences bénéfiques futures. Le bien est le plaisir à long terme ; le mal est la souffrance à long terme. La science de la mesure permet d’éviter l’erreur causée par l’ignorance et la faiblesse de la volonté. Comme Nussbaum l’écrit :

« L’auteur du traité De l’ancienne médecine [Hippocrate] reconnaissait… que l’absence de mesure quantitative dans son art le condamnait à une précision déficiente et donc à l’erreur. Il a tout de même pu revendiquer le statut de technē pour son art. Mais quelques années plus tard, on affirmera avec force que toute technē, pour être technē, doit s’occuper de numération et de mesure. La préoccupation commune de toute technē et épistēmē quelle qu’elle soit, dans la mesure où elle est technē, est de “concevoir distinctement le un, le deux et le trois : façon abrégée pour moi de désigner le fait de nombrer et de calculer. N’en est-il pas, à son sujet, de telle sorte qu’il n’y a pas de métier, pas de savoir qui ne soient obligés d’en faire leur profit[13] ?”. La citation est de Platon, évidemment, dans le VII livre de la République[14]. »

La science de la mesure, qui prétend à l’absolu, constitue une nouvelle forme de τύχη, dont la raison veut se débarrasser. C’est la confrontation de la technique et de la nature : mieux contrôler afin d’être meilleur, à l’instar de la médecine. Howard Caygill a montré que les artistes ne sont pas les seuls à être exclus de la cité, les médecins aussi, car ils possèdent la technē de tricher avec les lois de la nature, comme dans le mythe d’Asclépios ou le dieu de la médecine fut foudroyé alors qu’il était sur le point de briser les lois (la nécessité) de la nature pour guérir un mort[15]. Les médecins ont toutefois été autorisés à revenir dans la cité en tant que gardiens, précisément en raison de leur capacité à intervenir dans la nécessité et la contingence ou, pour reprendre les termes de Caygill, dans la « tâche de la législation[16] ». Cela apparaît plus clairement dans les Lois, où Platon juxtapose la technē à la contingence et à la nécessité :

« Quelques-uns prétendent que toutes les choses qui existent, qui existeront ou qui ont existé, doivent leur origine, les unes à la nature, d’autres à l’art, d’autres au hasard[17]. »

Cette séparation entre les lois de la nature, la contingence qui leur échappe, et la technique qui les légifère, ouvre une différenciation entre le contingent et l’accidentel dans la nature et dans la technique. La technique, qui vise à dépasser la contingence, génère aussi des accidents. Le progrès de la contingence technique est motivé par son propre progrès. Le feu en est la meilleure preuve. Suivant une histoire racontée par Protagoras dans le dialogue, le feu donné à l’homme par Prométhée a déjà ouvert la double nature de la technique et de la contingence. Le feu, qui fournit la chaleur et qui permet la cuisson de la nourriture, stabilise la maisonnée en résistant aux brusques changements de météo et aux attaques des animaux. Le feu est la compensation de l’accident causé par Épiméthée, puisque le géant célèbre pour son discernement a distribué des compétences à tous les animaux sauf aux humains, qui se sont retrouvés « nu, sans chaussure, sans vêtements, sans défense[18] ». Le feu est la conséquence de ce que Bernard Stiegler appelle un défaut. Ce « défaut qu’il faut », défaut de l’origine, devient la nécessité de l’être[19]. L’accident est l’origine – et c’est aussi la possibilité des nécessités – transformée et stabilisée par la culture.

Cependant, le feu est aussi la source des accidents. Il peut facilement ravager un campement bien établi et tout réduire en cendres. Ce n’est pas évident pour Platon dans ce dialogue, car pour lui l’objectif est de montrer la supériorité de Socrate et de sa conviction du bien fondé d’évaluer et de mesurer les fins de la justice face à la confusion de Protagoras. Socrate, à cet égard, est loyal envers Prométhée, pour ses capacités de prévoyance et de planification :

« Le prévoyant Prométhée, dans ta fable, m’a plu beaucoup plus que le négligent Épiméthée. C’est à son exemple que, portant sur toute la suite de ma vie un regard de prévoyance, je m’applique soigneusement à l’étude de ces matières : et comme je te l’ai dit d’abord, mon plus grand plaisir serait de les approfondir avec toi, si tu y consentais[20]. »

La résistance à la contingence marque le début de l’histoire de la philosophie occidentale. C’est également de cette manière que nous comprenons l’interprétation de Bernard Stiegler selon laquelle la philosophie européenne est une philosophie par accident et non par essence[21]. Il écrit : « Pour les Européens, la nécessité de la philosophie est techno-logique. C’est-à-dire hypomnésique. Donc accidentelle précisément en cela[22] ». Décortiquons cette phrase et dévoilons sa pertinence dans le cadre de notre enquête. Le mot « accidentel » contient ici plusieurs significations. Premièrement, il est accidentel puisqu’Épiméthée a oublié les êtres humains ; c’est cet accident qui constitue l’origine comme un manque. Deuxièmement, pour Stiegler, la technē ne fait pas partie de la philosophie européenne, mais est plutôt une question fondatrice de cette dernière. Il s’agit du projet ambitieux de Stiegler de reformuler l’histoire de la philosophie européenne à partir de « l’hypomnésie », c’est-à-dire de l’insuffisance de la mémoire, donc de l’oubli. Et si l’anamnèse est au cœur de la philosophie de la vérité de Platon, elle exige un support matériel, qui est aussi une technique de l’hypomnésie, comme lorsque Platon montre dans le Ménon comment Socrate enseigne au jeune esclave à résoudre des problèmes géométriques en traçant des lignes dans le sable. Puisque la technē est un moyen d’extérioriser la mémoire, en l’extériorisant sous la forme d’un objet technique (la géométrie dans le cas du Ménon comme plus tard chez Husserl), l’anamnèse est libérée de sa dépendance totale à l’égard de l’esprit humain, et est donc également la source de l’hypomnèse.

Dans cette lecture de Bernard Stiegler, l’histoire de la philosophie européenne est une histoire qui a rendu nécessaire l’accident techno-logique. Cela renvoi aux deux sens du mot accident que nous avons vu au-dessus : d’un côté, les accidents comme révélateurs de la substance, ce qui signifie que les accidents sont nécessaires ; et de l’autre, la neutralisation de l’irrationnel par la raison. Nous avons besoin de relier les réflexions de Nussbaum sur les accidents à celles de Stiegler, car venant de traditions différentes, il est cependant évident qu’ils se réfèrent à quelque chose de commun.

Pour Nussbaum, le rôle de la raison est d’éliminer la fragilité causée par les événements contingents. Cela n’est pas possible sans la technique, qui est aussi la raison ; et cette technique n’est pas possible sans un support matériel, comme dans l’exemple que nous venons de donner du Ménon. Un lien entre raison et géométrie est introduit dans cet épisode, raison et technē trouvent leur objet commun dans la géométrie. Pour Stiegler, la géométrie est une science apodictique (ou « qui idéalise »), et c’est grâce à la nature apodictique de la géométrie que la raison atteint son caractère absolu. Stiegler met aussi en cause la globalisation technologique de la philosophie européenne, qui est, selon lui, son seul futur : « L’Europe est appelée à un devenir global (à exister à l’échelle mondiale) avec sa philosophie – faute de quoi elle mourra – et elle ne peut le devenir qu’en se “dé-européanisant[23]” ». Stiegler semble ici assez proche de Heidegger, dans le sens où il voit un « système » sur le point de se terminer, tout comme ce dernier voit l’achèvement de la métaphysique occidentale à l’époque de la cybernétique. Cependant, il faut préciser qu’alors que Heidegger propose un retour à l’origine, Stiegler propose une « dé-européanisation ».

De la contingence a l’automaticité

L’approfondissement de son enquête sur la nature de la contingence permet à Aristote d’affirmer la distinction entre deux types de hasard ou de cause : τύχη (tuché) et τὸ αὐτόματον (to automaton). Τύχη, comme on le sait, renvoie à la fois à la contingence et à la chance ; τὸ αὐτόματον est lui souvent traduit par « spontanéité ». Τὸ αὐτόματον, cependant, ne se réfère pas seulement à la spontanéité, mais aussi à l’automatique : l’automatique dans le sens où les possibilités sont déjà présentes en l’objet-même ; par exemple, quand on lance un dé, il y a toujours six possibilités. En d’autres termes, τὸ αὐτόματον est quelque chose qui peut être pensé – ou, plus précisément, qui peut être déterminé par la pensée. En revanche, τύχη ne peut pas être déterminé ; il est nécessairement indéterminé. Aristote donne l’exemple d’un homme qui s’est rendu à un endroit où il a découvert que son débiteur collectait de l’argent auprès d’autres personnes, et qui a ensuite pu récupérer son argent, alors qu’il n’était pas venu dans ce but. Ce pour-quelque-chose ou ce pour-quelque-chose-d’autre est toujours déjà automatique. C’est pourquoi Aristote dit :

 « Tous les effets de la chance (τύχη) sont des effets du hasard (Τὸ αὐτόματον), tandis que ceux-ci ne sont pas tous des effets de la chance[24] (τύχη). »

La chance, ici, exige un choix ; elle est subjective et relève de la raison. Dans le livre II, chapitre 6 de la Physique, Aristote affirme que « nul être inanimé, nulle bête, nul enfant n’est l’agent d’effets de la fortune parce qu’il n’a pas la faculté de choisir » et continue : « Pour le hasard, il appartient aux animaux et à beaucoup des êtres inanimés[25] ». Aristote donne un autre exemple, celui d’un cheval qui échappe par chance à un danger et sauve sa vie. L’occasion que le cheval a eue de se sauver n’est pas vraiment une chance, mais un automatisme. L’accident est donc plus lié à la raison qu’à la nature. Il existe une causalité automatique qui suit les cas possibles. La chance n’est jamais le résultat d’un cas par rapport à un autre, comme lorsqu’on lance un dé. Lancer un dé n’a rien à voir avec la chance ; c’est spontané et automatique.

Le contingent et l’automatique sont aujourd’hui confondus, car maintenant l’automatique produit aussi des accidents, par lesquels nous supposons la contingence. En fait, on peut dire que la chance converge vers l’automatique. Cet automatique est spontané, c’est-à-dire en temps réel, grâce à l’effet de l’automatisation. L’automatique de la seconde nature produit une nouvelle forme de contingence, qui ne s’oppose pas à celle de la nature mais la contient, comme on peut le voir dans l’exemple de Fukushima en 2011. Le tsunami n’est pas vraiment la cause de la catastrophe, mais plutôt une partie de la cause. C’est-à-dire que la contingence de la loi naturelle (qui inclut la catastrophe naturelle ou la défaillance matérielle) ne peut pas expliquer à elle seule la catastrophe, puisque la nature (la mer) est intégrée au système technologique en tant qu’agent de refroidissement de la centrale nucléaire[26]. Cela pourrait être compris comme une histoire techno-logique de la métaphysique. Selon Heidegger, l’achèvement de la métaphysique signifie qu’il n’y a plus d’au-delà, mais que tout est présent. Ce qui est présent est considéré comme analysable et contrôlable, et c’est là que l’on trouve le début de la cybernétique. Nous y reviendrons plus tard en expliquant que la contingence de la cybernétique n’est plus celle dont parlait Aristote, ni celle de la métaphysique traditionnelle. Le principe de « contrôle » de la cybernétique est pleinement exprimé dans le titre de l’ouvrage de Norbert Wiener : Cybernetics : Or Control and Communication in the Animal and the Machine, et par d’autres auteurs qui ont écrit sur la cybernétique. Le paradigme de contrôle des débuts de la cybernétique était caractérisé par la mathématisation de différents mécanismes : mécaniques, biologiques, sociaux, économiques et organisationnels. Nous pouvons retracer cet effort depuis la characteristica universalis de Leibniz jusqu’à la machine de Turing en passant par la machine analytique de Charles Babbage. Une histoire que nous connaissons bien. La mathématisation a pris sa forme la plus matérielle dans les algorithmes. L’algorithme compris comme un processus ou une opération n’exprime qu’une pensée abstraite, et acquiert une quasi-autonomie lorsqu’il est réalisé par des machines. C’est l’un des modes d’existence de l’algorithme dans sa forme la plus « objectivée ». Un algorithme s’exprime pleinement dans ses fonctionnalités quand il accomplit des opérations. Voyons maintenant quelle est la différence entre la contingence algorithmique et la contingence des lois de la nature ?

Deux aspects peuvent être observés. Premièrement, la contingence des lois de la nature vient toujours de l’extérieur, ce qui signifie que le système ne peut pas être totalisé. Émile Boutroux a montré dans son livre De la contingence des lois de la nature la limite du concept de nécessité. Boutroux a reproché aux deux nécessités de droit (analytique et synthétique) et à la nécessité de fait de s’ouvrir à la contingence. La nécessité analytique a toujours besoin de réinventer un nouveau postulat. Par exemple, Boutroux montre qu’en passant de la logique aux mathématiques, de la notion de classe et de genre à celles de quantité et d’espace, un nouveau postulat de continuité est exigé pour combler ce qui n’est pas continu. La nécessité synthétique, cependant, prétend être a priori et exige toujours l’expérience empirique ; la nécessité de fait, comme l’avait déjà montré Hume, n’est maintenue que par les habitudes. Ce scepticisme bien formulé peut être étendu aux lois physiques. Par exemple, selon la règle de Mariotte, si l’on considère un récipient de gaz, le produit de la pression par son volume est une constante : PV=C, mais cette constante n’est que dérivée de l’expérience et peut donc être contingente. Boutroux a essayé de montrer que toute nécessité est toujours ouverte à quelque chose d’extérieur à elle, ou même exige quelque chose d’extérieur pour que sa loi soit complétée ; alors que pour un système technique, un certain cas de contingence est toujours déjà présumé, et compris comme nécessaire. À l’instar de l’hypothèse du meilleur des mondes de Leibniz, le monde créé par Dieu comme le système technique créé par son concepteur, sont mis en œuvre de telle sorte qu’ils anticipent la contingence, ce qui signifie qu’ils ne sont que relativement contingents.

Ces accidents sont prévus et intégrés dans l’évolution du système technique. En d’autres termes, il n’y a pas de loi qui régisse la nécessité de la causalité entre la pensée algorithmique et son actualisation dans les opérations de la machine ; il n’y a pas de causalité nécessaire entre la volonté des organismes humains en tant qu’intervention et l’automatisation des machines. Les échecs et les erreurs sont acceptés non seulement comme une nécessité pour le progrès technologique, mais sont également devenus immanents à son fonctionnement et à sa maintenance. La catastrophe algorithmique devient quotidienne. La conception du cloud computing d’Amazon, connue sous le nom de « design for failure » (conception pour l’échec), en est un exemple. Un ingénieur d’Amazon l’a expliqué en détail dans un papier de recherche :

« En particulier, supposez que votre matériel tombe en panne. Supposez que des pannes se produisent. Supposez qu’une catastrophe frappe votre application. Supposez que vous soyez un jour submergé par un nombre de requêtes par seconde supérieur à celui prévu. Supposez qu’avec le temps, votre logiciel d’application tombera lui aussi en panne. En étant pessimiste, vous finirez par penser aux stratégies de reprise pendant la phase de conception, ce qui vous aidera à mieux concevoir le système dans son ensemble[27]. »

Cette réalisation technique implique la redéfinition de la responsabilité du composant logiciel et de l’infrastructure (qui est autorisée à être moins fiable que le modèle traditionnel), et implique l’utilisation de magasins de données NoSQL et de l’outil de gestion du cloud, bien qu’il ne soit pas dans notre intention d’examiner ces détails techniques ici[28]. Dans cette perspective, ce qui est contingent n’est plus contingent comme avec la catastrophe naturelle telle qu’elle est traditionnellement conçue, mais est nécessaire dans la seconde nature constituée par les « accidents ». En tant qu’ingénieur et concepteur, il faut être convaincu qu’il est normal d’avoir une catastrophe. Si la catastrophe est ainsi anticipée et devient un principe de fonctionnement, elle ne joue plus le rôle qu’elle jouait avec les lois de la nature. Cette utilisation de l’anticipation pour surmonter les catastrophes ne peut cependant jamais être achevée, et l’accident s’exprime en effet dans un second niveau de contingence généré par le fonctionnement même des machines. C’est là que réside la deuxième différence entre la contingence algorithmique et la contingence des lois de la nature, que nous aimerions aborder dans la section suivante. Cela ne signifie pas que l’algorithme lui-même n’est pas parfait, mais plutôt que la complexité qu’il produit dépasse la simplicité et la clarté de la pensée algorithmique. Cette nécessité de la contingence prend une forme différente de la nécessité dans la tragédie et dans la nature, qui présuppose un extérieur au domaine empirique, comme des divinités toutes puissantes.

Catastrophe algorithmique

Si nous nous intéressons aux débuts de l’histoire mathématique des algorithmes, nous constatons que la recherche sur les algorithmes portait principalement sur le problème de l’élaboration de preuves mathématiques d’une manière systématique et logique. D’un point de vue purement mathématique, un algorithme est toujours confronté à la question de l’incomputabilité ; en effet, comme l’a proposé le mathématicien Gregory Chaitin, c’est ainsi qu’il apparaît dans la plupart des cas[29]. L’extérieur, ou le supplément, partage une logique similaire avec la déconstruction. Mais lorsqu’un algorithme se détache de l’esprit du mathématicien, que l’on passe de Gödel à Turing, on observe que la question de l’incomputabilité n’est plus la question majeure concernant l’algorithme, qui devient plutôt celle de l’efficacité et de la fiabilité[30]. La machine de Turing doit être distinguée du concept de récursivité générale de Gödel ou du Lambda Calculus de Church, bien qu’en fin de compte ils fassent plus ou moins la même chose sur le plan mathématique. La machine de Turing est allée au-delà de la récursivité conceptuelle en extériorisant la raison en termes concrets et matériels. Après la machine de Turing et la prolifération des ordinateurs personnels, les preuves mathématiques restent toujours un courant important de l’informatique, mais les études pratiques en informatique n’y accordent plus beaucoup d’attention et se concentrent plutôt sur la fonctionnabilité et la performance des algorithmes. Ce qui a pour conséquence d’ouvrir les algorithmes à la contingence, ce qui dépasse le domaine purement mathématique.

Si l’on veut continuer à parler de l’algorithme en termes d’automatisation, on peut probablement distinguer deux types d’automatisation : l’automatisation des instructions (ou répétition pure) et l’automatisation par récursions. Qu’est-ce que la récursivité ? En termes simples, il s’agit d’une fonction qui s’appelle elle-même et qui s’arrête à un certain point lorsqu’une contrainte définie est satisfaite. Cette pensée abstraite doit cependant être comprise mathématiquement ; nous pouvons probablement l’exprimer comme suit : c’est la manière dont un nombre peut être calculé en termes de fonction, qui s’appelle elle-même jusqu’à ce qu’un état d’arrêt soit atteint. Prenons l’exemple du calcul du nombre de Fibonacci (1, 1, 2, 3, 5, 8, 13, 21…) : dans l’étape récursive, la fonction s’appelle elle-même et entre dans une opération « en spirale » jusqu’à ce qu’elle atteigne son état d’arrêt, par exemple lorsque la valeur de la variable devient 0.

long fibonacci(long number) {
if ([number == 0] || (number == 1))
return number;
else
// recursion step
return fibonacci(number - 1) + fibonacci(number - 2);
}

La comparaison courante entre un algorithme et une recette n’est pas pleinement satisfaisante car elle ignore cette distinction. Certes, les instructions sont une sorte d’algorithme à la perfection la plus basse, c’est-à-dire à l’intelligence la plus basse. Les instructions, comme les recettes, sont fondamentalement instrumentales et non réflexives ; elles permettent une automatisation simple par la répétition. Si nous définissons les instructions comme des schématisations séquentielles étape par étape, et que nous les comprenons comme un pôle de l’algorithme, alors l’autre pôle du spectre algorithmique serait constitué d’opérations récursives et non linéaires. Ce spectre contient différentes notions d’algorithme en fonction de différentes fonctionnalités spécifiques. L’évolution de l’intelligence des machines est une progression de la fonctionnalité linéaire vers la fonctionnalité récursive, à partir de son fondement mathématique. Nous pouvons aller plus loin en disant que même une procédure séquentielle est également récursive puisque la machine de Turing elle-même est récursive ; cependant, il existe un autre type de récursivité, qui est basé sur la programmabilité de la machine de Turing. Si la récursivité de l’ordinateur (par exemple, à bas niveau) est liée à l’incomputabilité ou à la contingence de la première nature, la récursivité des programmes au niveau supérieur est liée à la contingence de la seconde nature. Dans notre contexte, l’algorithme est compris comme l’automatisation par la récursivité. La récursivité signifie ici que l’objet à calculer peut être compris en termes de répétitions d’une fonction conditionnée par une valeur d’arrêt. Par exemple, un nombre naturel peut être compris comme l’opération d’une fonction[31]. Pour que la technē surmonte la τύχη dans la nature, elle produit une contingence de seconde nature. La culture algorithmique est l’aboutissement de cette contingence, à travers la standardisation et la globalisation des raisons extériorisées.

Pour clarifier cet argument, je présenterai deux cas et j’analyserai les catastrophes algorithmiques selon trois dimensions temporelles : 1) l’accélération ; 2) le retard ; et 3) l’immanence. On se souvient du célèbre article paru dans le Financial Times après la crise financière, intitulé « Market : Rage Against the Machine », qui accusait les machines d’être à l’origine de la crise financière[32]. Cette accusation des machines s’est poursuivie dans l’industrie financière à la suite du « flash crash » de la bourse de New York en 2010, puis de la bourse de Singapour en 2013, tous deux provoqués par le trading algorithmique. Le trading algorithmique peut être défini simplement comme l’utilisation d’algorithmes pour exécuter automatiquement des ordres d’achat. En profitant d’achats et de ventes quasi instantanées, connus sous le nom de trading à haute fréquence, le marché peut exploser en raison de l’effet « boîte noire ». Dans les cas susmentionnés, on a vu s’évaporer 4,1 milliards et 6,9 milliards de dollars américains en quelques secondes.

La vitesse de l’automatisation algorithmique crée également un délai qui limite l’intervention des agents humains. En 2012, une entreprise financière de taille moyenne, Knight Capital, a mis 45 minutes à découvrir que l’un des programmes, qui était censé avoir été arrêté, était en fait en cours d’exécution. Chaque minute a coûté près de 10 millions de dollars. Le marché est basé sur la vitesse, qui, elle dépend de la vitesse du raisonnement spéculatif automatique du logiciel. Lorsque les informations transmises au logiciel deviennent aléatoires et que plusieurs logiciels participent à la spéculation, des résultats inattendus sont obtenus. Le fonctionnement d’un algorithme, structuré temporellement selon des énoncés logiques, peut 1) ne pas assimiler les informations en entrée ou 2) ne pas garantir les résultats ; ainsi, on peut observer qu’un livre à 10 euros vaut soudainement des milliers d’euros sur Amazon lorsque l’algorithme recherche le prix le plus élevé possible au lieu de le considérer comme absurde. Comme l’a noté le journaliste financier Nick Baumann, lors du flash crash de 2010, l’action de la société de conseil Accenture s’est échangée à la fois à 0,01 $ et à 30 $ dans la même seconde[33]. Les spéculations mutuelles des machines, qui s’évaluent les unes les autres en fonction des limites de leurs propres données, n’ont pas su reconnaître leurs propres folies.

Le regretté Norbert Wiener avait déjà anticipé cette scène. Dans son article intitulé « Quelques conséquences morales et techniques de l’automatisation », publié en mai 1960[34], Wiener critiquait la conception profane de l’automatisation, en particulier « l’hypothèse selon laquelle les machines ne peuvent posséder aucun degré d’originalité » et la croyance que « son fonctionnement est à tout moment ouvert à l’interférence humaine et à un changement de politique ». L’automatisation des machines atteindra des vitesses beaucoup plus rapides que l’intelligence humaine et entraînera donc un décalage temporel en termes de fonctionnement. Ce décalage peut avoir des effets désastreux car l’homme arrivera toujours en retard et les machines ne s’arrêteront pas d’elles-mêmes. Face à notre incapacité à comprendre pleinement la causalité, Wiener nous avertit que « si nous adhérons simplement au credo du scientifique, selon lequel une connaissance incomplète du monde et de nous-mêmes vaut mieux que l’absence de connaissance, nous ne pouvons en aucun cas systématiquement justifier l’hypothèse naïve selon laquelle plus vite nous nous précipiterons pour utiliser les nouveaux pouvoirs qui s’offrent à nous, mieux ce sera[35] ».

Catastrophe et esthétiques spéculatives

Heidegger a été très clair lorsqu’il a affirmé que la cybernétique sonne la fin de la métaphysique occidentale[36]. La fin signifie que le triomphe de la raison sur la contingence a créé une transformation totale, dans laquelle la pensée ne peut plus être détachée des accidents (prédicats) du techno-logos. Le techno-logos s’occupe des êtres, et non plus de la question de l’Être. Le techno-logos se définit donc comme fin de la métaphysique, c’est-à-dire qu’il ne peut dépasser les êtres pour aller vers l’Être. Si l’Être est présent dans la pensée tragique, comme le dit Heidegger en lisant Nietzsche, cet Être est un tout tenu par la contingence. La contingence délimite la connaissance des êtres et révèle la profondeur de ce qui n’est pas encore présent et de ce qui ne peut pas l’être. Ce « dehors » sert de nouvelle stratégie de réorientation ; comme le dit Blumenberg, « avec le début de la période moderne [Neuzeit], l’homme cherche une issue à la conquête de la contingence, par la conscience du monde et de soi[37] ». La raison de Socrate, mise en scène dans le théâtre anti-tragique de Platon, marque le début de la fin de la tragédie grecque antique. À l’ère de la mathématisation, la contingence équivaut à une causalité, qui peut être déduite logiquement et techniquement. L’introduction de la contingence algorithmique par la relecture de Platon, Aristote, Leibniz, Boutroux, Blumenberg, montre l’existence d’un ordre supérieur à travers la causa finalis, qui ne peut être pleinement saisie par la loi de la nature. Jean de La Harpe écrit :

« Elle [contingence] marque les limites de nos connaissances, la nécessité où nous sommes de démonter le réel pour en examiner les rouages ; nous ne serons probablement – et ici la probabilité équivaut pratiquement à la certitude – jamais capables de la remonter cette horloge aux rouages infinis, de superposer au monde du sens-commun plein de contradictions un univers scientifique à la fois réel et intelligible ; aussi la contingence durera aussi longtemps que la science elle-même et que l’humanité, penchée sur la réalité pour se l’assimiler et la comprendre ; mais c’est une limite qui recule indéfiniment et tend vers la forme idéale du déterminisme nécessitaire[38]. »

En opposition à ce que dit Jean de La Harpe, Quentin Meillassoux met brillamment fin au rôle de la contingence dans la métaphysique traditionnelle. Je voudrais me pencher ici sur le travail de Meillassoux, tout d’abord parce que sa spéculation sur la contingence absolue caractérise l’esthétique de la catastrophe algorithmique, ce qui signifie que la contingence ne doit pas être considérée comme exceptionnelle, mais plutôt inévitable, et qu’elle acquiert ainsi une certaine normativité ; et ensuite parce que son analyse de la contingence à travers les mathématiques brise toute justification rationaliste de la nécessité des lois de la nature. En raison de son rapport à la nature et non aux systèmes techniques, la contingence de Meillassoux n’est pas réductible à la contingence algorithmique dont il est question ici. Cependant, certaines questions et formulations des arguments de Meillassoux entrent en résonance avec la contingence algorithmique et fournissent l’occasion d’une réflexion plus approfondie sur cette dernière. Dans les passages suivants, j’esquisserai plusieurs concepts clés de l’argumentation de Meillassoux, tout en les situant dans le cadre de notre propre enquête.

Meillassoux commence par une critique du corrélationnisme, qui crée, selon lui, une désabsolutisation de la métaphysique. Le projet de revenir à la question de l’absolu, ou de l’infini, veut libérer la raison des structures auxquelles elle s’est enchaînée, et s’orienter vers un nouveau terrain qui ne soumet plus les causalités aux mythes et aux superstitions, mais qui fournit un nouveau fondement à la science. Jusqu’où la raison peut-elle aller ? Peut-elle atteindre une temporalité où elle-même cesse d’exister, par exemple dans l’ancestralité où l’humanité n’était pas encore apparue ? Meillassoux veut comprendre l’ancestralité comme la limite du corrélationnisme et de son produit, la science moderne : comment penser l’ancestralité où il n’y avait encore rien d’humain ? En d’autres termes, s’il n’y avait pas d’humain, nous pourrions déduire que l’expérience des objets n’existait pas ; cependant, selon le corrélationnisme, si l’expérience des objets n’existait pas, nous ne pourrions donner un sens aux objets. Un argument similaire peut être appliqué aux raisons extériorisées par les algorithmes, où nous constatons de plus en plus que la raison humaine est de moins en moins capable de comprendre le système qu’elle a réussi à construire.

La désabsolutisation de la métaphysique doit postuler quelque chose que la raison ne peut pas inclure (par exemple, l’inconnu) mais qui deviendra, de fait, le protecteur de la raison. C’est précisément grâce à la question de l’archi-fact (c’est-à-dire de la facticité de la corrélation) que Meillassoux distingue différentes variantes du corrélationnisme, par exemple celles de Fichte, Schelling, Hegel, etc. jusqu’à Husserl. Les subjectivistes (Meillassoux choisit d’utiliser le mot « subjectivistes » au lieu d’« idéalistes ») ont voulu approcher l’archi-fact en renforçant le pouvoir de la pensée ; c’est ainsi que la pensée a pu pénétrer dans le domaine de l’inconnu. Pour Meillassoux, l’absolu doit être posé en dehors de la pensée, au-delà de la portée de l’esprit, en dehors de toute causalité. Contrairement à ce qu’il appelle la « facticité de la corrélation » de la tradition corrélationniste, Meillassoux veut proposer ce qu’il appelle un « principe de factualité », c’est-à-dire l’identification d’une réalité ou d’une matière qui est indépendante à la pensée. Par exemple, on ne peut pas dire si Dieu existe ou non, puisqu’il peut exister ou ne pas exister ; il peut apparaître devant vous demain matin à votre réveil ; ou vous pouvez ne pas le voir du tout dans la finitude de votre vie. Je cite Meillassoux : « On dira “contingente” toute entité, chose ou événement, dont je sais qu’elle peut ou qu’elle aurait pu effectivement ne pas être, ou être autre. Je sais que ce vase aurait pu ne pas exister, ou exister autrement – je sais que cette chute du vase aurait pu ne pas se produire[39] ».

La mission de la raison spéculative pourrait être réinterprétée selon les termes de Meillassoux comme une nouvelle approche de la facticité : « nous proposons de faire de la facticité non plus l’indice d’une limitation de la pensée – de son incapacité à découvrir la raison ultime des choses – mais l’indice d’une capacité de la pensée à découvrir l’absolue irraison de toute chose[40] ». Meillassoux propose une nouvelle ontologie, dans laquelle on trouve une nouvelle catégorie ou entité appelée « sur-chaos », qu’il distingue de la théorie mathématique du chaos. Le sur-chaos est « un absolu » qui « échappe à la désabsolutisation du corrélationnisme ». Ce sur-chaos n’est pas purement chaotique, c’est-à-dire sans possibilité de dégager un ordre ou une loi. Puisque dans un être absolument inconsistant, il n’y a pratiquement plus de contingence, comme il l’écrit « un être inconsistant – universellement contradictoire – est impossible, parce que cet être cesserait de pouvoir être contingent. En effet, ce qu’un être inconsistant ne pourrait faire, c’est se modifier, devenir autre, puisque ce qu’il n’est pas, étant contradictoire il l’est déjà[41] ». La nécessité de la contingence n’est pas une proposition de retour au chaos (comme dans certaines impressions fautives des postmodernes), mais plutôt l’affirmation de l’absoluité de la contingence.

Dans Après la finitude, Meillassoux revient sur le questionnement de Hume sur l’existence de la nécessité de la causalité et le retourne contre la tentative de Kant de résoudre le problème humien ; à savoir, l’utilisation par Kant de la faculté de représentation contre la contingence des lois de la nature[42]. Dans sa Critique de la raison pure, Kant n’a pas vraiment abordé la raison spéculative pure ; au contraire, selon lui, la raison pure ne peut être établie que parce qu’elle contourne la Schwärmerei (dérèglement de l’esprit) de la spéculation. Le retour à la question de Hume selon laquelle la nécessité de la causalité n’est qu’habituelle, et donc vulnérable à la contingence, est également un retour à la raison spéculative. Cependant, l’introduction de la contingence absolue doit également répondre à la question de savoir pourquoi il y a une stabilité au lieu d’un chaos total. Meillassoux tente de trouver la réponse dans le concept de transfini de Cantor, qui, selon lui, distingue la contingence du hasard. Le transfini est le concept qui sert de médiateur entre l’infini et son au-delà (qui est lui-même infini), ce qui signifie qu’il est plus grand que n’importe quel nombre fini, mais moins qu’un nombre absolument infini. Exprimé en langage philosophique, nous pouvons comprendre le transfini de Cantor comme suit : le Tout (quantifiable) du pensable est impensable[43]. Cela ne signifie pas, selon Meillassoux, que l’axiomatique non totalisante est la seule possible, ou que le possible est toujours non totalisable ; cependant, il y a toujours plus d’une axiomatique[44]. Rétrospectivement, le transfini n’est saisissable que lorsqu’on lui donne des symboles comme oméga et aleph, ce qui signifie qu’il faut assumer une certaine technicité et systématicité, qui s’éloigne de la simple préoccupation des lois de la nature pour se rapprocher d’un système technique. C’est à partir de là qu’intervient la question de la contingence algorithmique.

Si nous suivons la définition de la métaphysique de Heidegger et son annonce de Nietzsche comme dernier métaphysicien, la métaphysique est achevée depuis que l’Être n’est plus appréhendable comme un tout. À l’ère numérique, les accidents sont mis en lumière et – comme le prévoit la contingence – débordent l’inconnu. La nécessité de la contingence dans la pensée de Meillassoux dépasse les tentatives de Boutroux. La contingence n’est plus perçue comme le signifiant de l’ordre suprême (qui porte le nom d’Être ou de Dieu) mais comme immanence.

Cette référence à Heidegger ne signifie pas que nous aspirons à construire une nouvelle métaphysique, mais, compte tenu du renversement du fond et de la forme, il s’agit plutôt, comme il le dit, de « poser des questions sur, ou à propos de la métaphysique[45] ». La limite de la connaissance ou de la raison humaine n’est plus quelque chose qui peut être amélioré par la recherche scientifique basée sur la causalité ; il faut accepter qu’une certaine connaissance en dehors du corrélationnisme existe ou est possible. S’il m’est permis de suivre Heidegger, et d’affirmer que la cybernétique mit fin à la philosophie occidentale, nous pouvons également dire que Meillassoux a achevé la raison spéculative, dans le sens où l’arrivée des catastrophes est devenue un mouvement perpétuel : ce qui arrive n’est plus un « accident », mais arrive simplement ; les catastrophes sont accompagnées et normalisées par l’esthétique spéculative.

Pour résumer sans conclure, l’objectif de cet article était d’introduire la notion de catastrophe algorithmique dans l’histoire du concept métaphysique de contingence. Τέχνη, comme l’a montré Nussbaum, est la tentative de la raison de surmonter la contingence. Elle a néanmoins créé une contingence de seconde nature. Avec l’extériorisation de la raison, en passant par les âges mécanique et thermodynamique, et maintenant par l’âge numérique, nous avons assisté à l’émergence de la catastrophe algorithmique qui doit être distinguée des accidents industriels ou militaires. La causalité d’un accident industriel peut être tracée et évitée, mais le contrôle de la catastrophe algorithmique dépasse de plus en plus la capacité des êtres humains ; cependant, il est également évident que l’industrialisation a une grande tendance à la mise en œuvre de l’automatisation algorithmique. La distinction entre tuché et to automaton établie par Aristote a été transformée par l’automatisation de la raison.

La double nature de la technique (à la fois surmonter et générer la contingence) dans sa relation à la contingence peut être comprise comme pharmakon, à la fois remède et poison[46]. On pourrait pousser la catastrophe algorithmique au-delà du domaine informatique, par exemple dans la recherche sur le génie génétique, le développement militaire, les nanotechnologies, etc. Cependant, l’objet de cet article se limite au processus de mathématisation et d’actualisation des algorithmes dans les machines. La catastrophe algorithmique entre également en résonance avec les recherches actuelles sur la raison spéculative, en particulier avec ce que Meillasoux propose comme l’absolutisation de la contingence, qui réinvente le concept métaphysique de contingence comme nécessité tout en renonçant à l’approche subjectiviste de la connaissance. La célébration de la raison spéculative semble être une appropriation de l’esthétique catastrophique de notre époque, où l’inconnu et la boîte noire deviennent les seules explications.

En mai 2014, le professeur de physique de renommée mondiale Stephen Hawking et trois autres professeurs – Stuart Russell, Max Tegmark et Frank Wilczek – ont publié un article dans le journal britannique The Independent après la sortie du film Transcendance, remettant en question le succès de l’IA et discutant les problèmes à long terme qui y sont associés. Les professeurs ont affirmé que l’IA pouvait apporter des avantages dans différents domaines, mais ont averti que « ce serait une erreur, et potentiellement la pire erreur de l’histoire ». La maturation de la théorie de l’IA et les développements rapides induits par les immenses investissements industriels et militaires ont laissé toutes réflexions en arrière – qui arrivent toujours trop tard. L’avenir du développement de l’IA est inconnu, mais il faut désormais s’interroger :

 « On peut imaginer qu’une telle technologie soit plus intelligente que les marchés financiers, qu’elle invente mieux que les chercheurs humains, qu’elle manipule mieux que les dirigeants humains et qu’elle mette au point des armes que nous ne pouvons même pas comprendre. Si l’impact à court terme de l’IA dépend de ceux qui la contrôlent, l’impact à long terme dépend de la possibilité de la contrôler[47]. »

Cet avertissement résonne avec celui de Wiener dans son essai de 1960 évoqué plus haut : il serait stupide de rejeter la catastrophe algorithmique comme un phénomène de science-fiction. Les paroles des physiciens nous rappellent également le livre III de La République de Platon, où les médecins reviennent en tant que gardiens de la polis. Que ces gardiens soient des philosophes bien formés scientifiquement ou des médecins formés philosophiquement n’est pas une question sans importance, car elle implique un nouveau programme pédagogique et une nouvelle conception de la responsabilité. Au-delà de la portée de ce seul article, ce que Virilio propose pour repenser la responsabilité reste largement à discuter. Si cet article sert une critique de la catastrophe algorithmique et de la raison spéculative, cette critique n’en est une qu’au sens kantien[48].

Yuk Hui

L’auteur tient à remercier Katian Witchger et ses divers relecteurs pour leurs précieux conseils.

Retrouvez le texte original sur https://parrhesiajournal.org/wp-content/uploads/2015/06/parrhesia23_hui.pdf


[1]Norbert Wiener, God & Golem IncSur quelques points de collision entre la cybernétique et la religion, L’éclat, 2001. P.84.

[2]André Lalanda, Vocabulaire technique et critique de la philosophie, 7e Édition, Paris, PUF, 1956, p. 13. 

[3]Paul Virilio, L’accident originel, p. 18.

[4]Paul Virilio, L’accident originel, p. 20.

[5]Hans Blumenberg: “Kontingenz”, Die Religion in Geschichte und Gegenwart. Handwörterbuch für Theologie und Religionswissenschaft. Eds. Kurt Galling. 3. Aufl. Bd. 3. Tübingen: Mohr Siebeck, 1959, 1793–1794, “Die Ontologisierung des » possible contingens« ist erst im 13.Jh. abgeschlossen: die Welt ist Kontingent als eine Wirklichkeit, die, weil sie indifferent zu ihrem Dasein ist, Grund und Recht zu ihrem Sein nicht in sich selbst trägt.”

[6]Ibid., 1794, “Das Notwendige enthält keine Rechtfertigung der K. mehr; K. wird jetzt Zufälligkeit.” There is still a nuance between contingency and accident, for example, in Emil Angehrn’s “Vernunft und Kontingenz: zur Standortbestimmung der Philosophie,” in Studia Philosophica, vol. 51 (1992, 221–240). Angehm propose que l’on puisse probablement dire que tous les accidents sont contingents, mais que tous les événements contingents ne sont pas des accidents. Cependant, cette nuance, comme je le montrerai plus loin, illustrée par la distinction entre le contingent et l’automatique dans la Physique d’Aristote, a lentement convergé avec le développement de la technē.

[7]Émile Boutroux, De la contingence des lois de la nature, Paris, Librairie Félix Alcan, 1921.

[8]J’emprunte cette notion à Bernard Stiegler: voir Bernard Stiegler et Elie During, Philosopher par accident. Paris, Galilée, 2004.

[9]La distinction entre nature et technique n’est pas seulement une distinction occidentale, je crois que dans d’autres cultures, au moins dans la culture de l’Asie de l’Est, la technique n’a jamais été prise dans le domaine de la nature, bien que la technique puisse se comporter selon le principe de la nature. Dans ce cas, il ne s’agit plus d’objets techniques mais de techniques corporelles. Un exemple significatif est celui du boucher PaoDing dans le classique taoïste Zhuangzi, dont le couteau perd de son importance après avoir acquis le Tao (nature) de la vache, puisqu’il sait entrer dans le vide au lieu de se confronter aux os et aux tendons. Voir Zhuangzi, Les œuvres complètes de Zhuangzi, Trans. Burton Watson, New York : Columbia University Press, 2012, 19-20.

[10]Cela suit la conception de Lyotard qui considère le postmoderne comme la négation créée par les technologies – le produit du moderne ; voir Jean-François Lyotard, La condition postmoderne : Rapport sur la connaissance.

[11]Martha Nussbaum, The Fragility of Goodness: Luck and Ethics in Greek Tragedy and Philosophy, Cambridge: Cambridge University Press, 2001, p. 95.

[12]Ibid., p. 92.

[13]Platon, La République, Livre VII (trad. Léon Robin).

[14]Nussbaum, The Fragility, pp. 107–108.

[15]Howard Caygill, “Drafts for a Metaphysics of the Gene,” Tekhnema 3 A Touch of Memory, Spring

1996. tekhnema.free.fr/3Caygill.html

[16]Ibid.

[17]Platon, Les lois, Livre X (trad. Victor Cousin).

[18]Platon, Protagoras (trad. Victor Cousin).

[19]Bernard Stiegler, Technics and Time, v.1 The Fault of Epimetheus. Trans. George Collins and Richard Beardsworth, Stanford: Stanford University Press, 2004.

[20]Platon, Protagoras (trad. Victor Cousin).

[21]Bernard Stiegler, “The Magic Skin; or, The Franco-European Accident of Philosophy after

Jacques Derrida,” Qui Parle 18: (2009, 97–110).

[22]Ibid.

[23]Ibid.

[24]Aristote, Physique, Livre II, chap. 6, trad. Hamelin

[25]Aristote, Physique, Livre II, chap. 6, trad. Hamelin

[26]Gilbert Simondon a exploré le concept de « milieu géo-technologique » dans Du mode d’existence des objets techniques, Paris, Aubier, 1958, 2012, lorsqu’il a parlé du milieu associé au moteur Guimbal ; ce point est explicité par Bernard Stiegler, « Preface », dans Yuk Hui, On the Existence of Digital Objects, Minneapolis, University of Minnesota Press, 2016.

[27]Jinesh Varia, “Architecting for the Cloud: Best Practices”, https://media.amazonwebservices.com/AWS_Cloud_Best_Practices.pdf

[28]George Reese, “The AWS Outage: The Cloud’s Shining Moment,” broadcast.oreilly.com/2011/04/the-aws-outage-the-clouds-shining-moment.html

[29]Gregory Chaitin, The Unknowable, Berlin: Springer-Verlag, 1999

[30]Karatani a établi une analogie entre la déconstruction et la question de l’extérieur dans la preuve mathématique de Gödel et la critique de Russell par Wittgenstein.This is also the limit of deconstruction: see Kojin Karatani, Architecture as Metaphor, Cambridge, MA: MIT, 2000.

[31]Il convient de noter qu’elle ne se limite pas aux nombres naturels ; on peut également la comprendre en termes politiques, par exemple la quantification d’un objet ou d’un individu en termes de fonction récursive.

[32]Michael Mackenzie, Arash Massoudi and Stephen Foley, “Markets: Rage against the machine,”

Financial Times, October 16, 2012; http://www.ft.com/intl/cms/s/2/fd9c4e38-16ee-11e2-b1df-00144feabdc0.html

[33]Nick Baumann, “Too Fast to Fail: Is High-Speed Trading the Next Wall Street Disaster?,” January/February 2013 Issue; www.motherjones.com/politics/2013/02/high-frequency-trading- danger-risk-wall-street

[34]Norbert Wiener, “Some Moral and Technical Consequences of Automation,” Science, New Series, Vol. 131, No. 3410 (May 6, 1960): 355–1358

[35]Wiener, Some Moral and Technical Consequences, 1958. 

[36]Martin Heidegger, « La fin de la philosophie et la tâche de la pensée », Sur le Temps et l’Être, 1969.

[37]Blumenberg, « Kontingenz », 1794.

[38]Jean de La Harpe, « L’idée de contingence dans la philosophie d’Émile Boutroux », in Revue de théologie et de philosophie, 43:10 (1922, 121).

[39]Quentin Meillassoux, « Métaphysique, spéculation, corrélation », Ce peu d’espace autour. Six essais sur la métaphysique et ses limites, Édition Bernard Mabille, Paris, Les Éditions de la Transparence, 2010.

[40]Ibid.

[41]Ibid.

[42]Quentin Meillassoux, Après la finitude, un essai sur la nécessité de la contingence, 2008, p. 89.

[43]Ibid.

[44]Ibid.

[45]Ibid.

[46]Voir Jacques Derrida, « La Pharmacie de Platon », La Dissémination, Paris, Éditions du Seuil, 1993 ; et Bernard Stiegler, Ce qui fait que la vie vaut la peine d’être vécue : De la pharmacologie, Paris, Flammarion, 2011.

[47]Stephen Hawking, « Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough? », Independent, May 1, 2014

[48]Jean-François Lyotard a tenté d’amorcer une telle réflexion à l’époque où il développait le concept de postmodernité (au vu de la puissance de calcul du Minitel).

Retour en haut