X

 L’automaticité, la plasticité et les origines déviantes de l’intelligence artificielle

Le cerveau contemporain est en grande partie un cerveau numérique[1]. Non seulement nous étudions le cerveau par le biais de technologies qui reposent sur des visualisations numériques, mais l’activité même du cerveau est souvent modélisée par des images numériques[2]. Et le cerveau est, de différentes manières, toujours considéré comme une machine numérique, une sorte d’ordinateur neuronal[3]. L’héritage de l’intelligence artificielle (IA) persiste dans les neurosciences et les sciences cognitives contemporaines[4]. Les deux projets concurrents visant à « cartographier » le cerveau en Europe et aux États-Unis révèlent clairement des liens discursifs et conceptuels entre les ordinateurs, la neurophysiologie et la neuropathologie. Comme l’indique le site Web du Human Brain Project de l’Union européenne, la compréhension du cerveau humain nous permettra « d’acquérir une connaissance approfondie de ce qui fait de nous des êtres humains, de développer de nouveaux traitements contre les maladies cérébrales et de construire de nouvelles technologies informatiques révolutionnaires »[5]. De même, le projet Connectome, initié par le National Institute of Health et soutenu par le président Obama avec des fonds importants, révèle le lien essentiel entre les recherches de nouvelles technologies, la vision technologisée du cerveau lui-même et les pathologies : « Longtemps souhaitée par les chercheurs en quête de nouveaux moyens de traiter, de guérir et même de prévenir les troubles cérébraux, cette image comblera d’importantes lacunes dans nos connaissances actuelles et offrira des possibilités sans précédent d’explorer exactement comment le cerveau permet au corps humain d’enregistrer, de traiter, d’utiliser, de stocker et de récupérer de vastes quantités d’informations, le tout à la vitesse de la pensée »[6].

Il semblerait que l’intensification récente de l’intérêt pour la plasticité inhérente du cerveau – sa disposition au développement, sa structure toujours en évolution dans la phase adulte et son étonnante capacité à se réorganiser après un traumatisme important – pose un défi considérable aux conceptualisations technologiques du cerveau, qui supposent un fonctionnement complexe, mais définitivement automatique. En effet, le concept de plasticité a été présenté comme un obstacle à la compréhension machinale du cerveau, notamment par la philosophe Catherine Malabou[7]. Cependant, il s’avère aujourd’hui que le phénomène neurophysiologique de la plasticité cérébrale a été rapidement assimilé aux modèles informatiques et aux représentations numériques du système nerveux. Par exemple, dans le domaine des recherches en neurosciences computationnelles, le cerveau est représenté comme une machine apprenante (learning machine) qui construit automatiquement, selon des algorithmes prédéfinis, des réseaux de connexion qui dépendent de « l’expérience » spécifique du réseau. Ces modèles sont tous dérivés de la théorie fondamentale du neurophysiologiste Donald Hebb. comme il l’a expliqué dans son livre de 1949 The Organization of Behavior, les connexions synaptiques entre les neurones sont renforcées par l’usage ; cette théorie est souvent résumée par la formule : « des neurones qui s’excitent ensemble se lient entre eux ». Les processus régissant la configuration du cerveau-plastique au fur et à mesure qu’il fait l’expérience du monde sont évidemment beaucoup plus complexes, mais le principe de base reste valable. C’est pourquoi même la configuration contingente du cerveau-plastique peut, pense-t-on, être rigoureusement modélisée par une simulation informatique.

Ce dédoublement du cerveau par son autre numérique a à son tour affecté le domaine de l’informatique. Les tentatives de modélisation du cortex des cerveaux animaux avec des architectures « synaptiques », par exemple, sont présentées comme des investigations expérimentales de l’organisation neuronale elle-même ; on dit qu’il s’agit d’un « pas important vers l’élucidation du mystère de ce que le cerveau calcule », qui à son tour, selon les chercheurs, ouvre « la voie aux ordinateurs neuromorphiques et synaptroniques compacts et à faible consommation de demain »[8]. Les visions numériques du cerveau plastique ont stimulé l’invention de nouvelles architectures informatiques. IBM, par exemple, a conçu une puce qui imite la connectivité en réseau des systèmes neuronaux. Cette puce est dotée de « neurones numériques » capables de reconnecter les synapses en fonction de leurs réactions (inputs)[9]. Un projet concurrent d’Intel promet également des « synapses » programmables et l’imitation de « neurones intégrateurs »[10]. Ces puces neurosynaptiques font partie d’une étude plus large de ce que l’on appelle « l’informatique cognitive », dont l’objectif est de développer un mécanisme cohérent, unifié et universel inspiré des capacités de l’esprit. En d’autres termes, les chercheurs « ne cherchent rien de moins qu’à découvrir, démontrer et fournir les algorithmes de base du cerveau et à acquérir une compréhension scientifique profonde de la manière dont l’esprit perçoit, pense et agit ». Ici, le cerveau est devenu une machine apprenante algorithmique (algorithmic learning machine) ; il est le miroir de la technologie même qui le représente. L’analyse de l’organisation en réseau du cerveau va, dit-on, « conduire à de nouveaux systèmes cognitifs, à de nouvelles architectures informatiques, à de nouveaux paradigmes de programmation, à de nouvelles applications pratiques et même à des machines économiques intelligentes »[11].

Ce miroir a en fait une longue histoire, sans doute aussi longue que l’histoire de l’informatique elle-même. L’objectif des premières recherches sur l’IA était double : produire une simulation intelligente et, ce faisant, tester des hypothèses sur les fonctions de l’esprit humain. Ce projet reposait sur l’hypothèse que l’esprit ou le cerveau se prêterait à une telle analyse. Comme l’écrivent les chercheurs en 1954, à propos de leur propre effort de modélisation du cortex : « quelle que soit la complexité de l’organisation d’un système […] il peut toujours être simulé aussi fidèlement que souhaité par un ordinateur numérique, à condition que ses règles d’organisation soient connues »[12]. C’était, notent-ils, l’implication de la conceptualisation initiale d’Alan Turing de l’ordinateur numérique universel comme une machine pouvant (virtuellement) imiter n’importe quelle autre machine à l’état discreta.

Ladite automaticité du fonctionnement du cerveau (même dans sa forme la plus radicalement plastique) est en grande partie une conséquence du co-développement historique des technologies informatiques, de l’IA et des sciences cognitives. La question de ce que pourrait être le concept d’automaticité dans un seul de ces domaines, à l’exclusion des autres, est ici vide de sens. Ainsi, une fois la plasticité pleinement intégrée dans les modèles informatiques et neurophysiologiques du cerveau, la résistance à l’automatisation totale de la pensée humaine ne pourra pas simplement s’appuyer sur des concepts romancés de l’identité personnelle ou sur des critiques philosophiques du matérialisme ; nous devons plutôt nous concentrer sur les fondements historiques et conceptuels du cerveau numérique lui-même. La critique peut émerger par une histoire critique de l’automaticité. En revenant au seuil de l’ère numérique, au moment où l’ordinateur moderne a été conceptualisé pour la première fois (et où les idées et les pratiques de l’IA ont été simultanément mises en mouvement), nous pouvons voir que le numérique n’était pas, à l’origine, entièrement aligné sur l’automaticité. En effet, bien que cela n’ait pas fait l’objet d’une grande attention, les principaux développeurs des premières technologies informatiques essayaient explicitement d’imiter, avec leurs nouvelles technologies, une ouverture plus radicale, une plasticité plus imprévisible au sein du système nerveux – un sujet qui, nous le verrons, était très vivant dans la neurophysiologie du début du vingtième siècle et dans la psychologie expérimentale fondée sur la neurologie. Au moment où certains cybernéticiens affirmaient que le cerveau n’était qu’un calculateur automatique comme l’ordinateur, des personnalités importantes de l’histoire de l’informatique et de la cybernétique ont immédiatement reconnu l’importance de la plasticité du cerveau pour le projet de l’IA : le cerveau plastique, pensait-on, offrait la possibilité de modéliser des bonds créatifs et imprévisibles de l’intelligence humaine, des capacités qui allaient au-delà de l’exécution implacablement automatique de mécanismes fonctionnels rigides ou de comportements habituels. Il est donc significatif que les discours neurophysiologiques sur la plasticité de l’époque aient été intimement liés aux troubles et aux crises du cerveau malade ou blessé. La construction d’une machine informatique plastique à l’aube de l’ère numérique impliquait donc, selon moi, l’invention d’une pathologie machinique.

La reconstitution de cette histoire offrira une nouvelle perspective sur notre « cerveau numérique » contemporain. Nous ne devons pas être réduits à de simples machines apprenantes, largement inconscientes de nos propres processus cognitifs, où toute expérience de liberté et de continuité de la pensée peut être exposée comme une sorte d’illusion nietzschéenne. Le cerveau humain était considéré comme un type particulier de système véritablement ouvert qui se déterminait lui-même, mais qui était également capable de défier son propre automatisme dans des actes de véritable créativité. Les créateurs de l’ordinateur numérique se sont explicitement inspirés de ce concept neurophysiologique de plasticité dans leurs efforts pour modéliser les capacités des êtres véritablement intelligents.

L’histoire de l’ia remonte la plupart du temps aux penseurs qui ont tenté de simuler la capacité de penser à travers des sortes d’automates. On pourrait dire que les écrits philosophiques et physiologiques de René Descartes nous ont donné une vision du premier automate moderne, c’est-à-dire d’une machine à penser. Bien qu’il ait évidemment résisté aux implications ultimes de sa propre mécanisation systématique du corps humain et animal, Descartes a ouvert la voie à une compréhension mécanique de la cognition lorsqu’il a donné une description complète du système nerveux et du rôle essentiel qu’il jouait, non seulement en régissant tous les comportements animaux, mais aussi, plus important encore, en produisant la grande majorité de la pensée et de l’action humaines, la cognition routinière de la vie de tous les jours.

Pourtant, en regardant de plus près les écrits de Descartes, on découvre une théorie un peu plus complexe qu’une simple vision mécanique du corps. Descartes a montré comment les nerfs et le cerveau constituaient un système d’information, remarquable par sa souplesse et son adaptabilité. Si le système nerveux est une structure matérielle, il n’en est pas moins plastique et modifiable. En tant qu’espace d’intégration de l’information, le cerveau était, écrivait-il, de composition « molle et pliante »[13] et donc capable d’être imprégné de souvenirs et d’acquérir des réflexes. L’implication était que la détermination culturelle de l’individu – à travers la langue, la culture, l’histoire – se déroulait au sein de l’architecture souple du cerveau lui-même. Comme il l’a fait remarquer dans le Discours de la méthode, « j’ai pensé aussi que le même homme, avec le même esprit, s’il est élevé dès l’enfance parmi les Français ou les Allemands, se développe autrement que s’il avait toujours vécu parmi les Chinois ou les cannibales »[14]. Le cerveau ouvert était déterminé par les flux physiques produits par les organes des sens et transmis par les conduits des nerfs. L’automate de Descartes n’était pas un mécanisme d’horlogerie, mais un lieu ouvert d’organisation et de réorganisation perpétuelles provoquées par les informations reçues par les systèmes sensoriels[15].

Il est vrai que la longue histoire des technologies de la pensée automatisée montre que l’idée d’un système « mou et souple » a été éclipsée par les mécanismes rigides de l’ère industrielle. Des calculatrices semi-automatiques de Pascal et Leibniz à la Difference Engine de Charles Babbage (premier exemple de forme véritablement automatique de pensée artificielle) et à l’ordinateur général inachevé qu’il appelait Analytic Engine, puis aux « pianos logiques » de la fin du XIXe siècle (construits par William Jevons et Allan Marquand, par exemple), les modèles de raisonnement humain ont été concrètement incarnés par des machines aux opérations précises et prévisibles. Il n’est donc pas surprenant que ces premiers exemples de raisonnement artificiellement mécanisé aient grandement influencé la conceptualisation de la cognition humaine. Par exemple, Charles Sanders Peirce, philosophe pragmatiste américain, réfléchissant sur les machines logiques, a noté que l’exécution d’une inférence déductive n’avait « aucune relation avec la circonstance que la machine fonctionne avec des roues dentées, alors que l’homme fonctionne avec un arrangement mal compris de cellules cérébrales »[16]. Peirce lui-même a eu l’idée (bien des années avant Claude Shannon) que ces relations logiques pouvaient même être réalisées au moyen de circuits électriques[17]. Avec cette étape, nous sommes à la pointe de l’informatique moderne et, avec elle, de l’effort pour comprendre le cerveau lui-même comme une machine à penser, construite à partir d’un grand nombre de « commutateurs » neuronaux.

Nous devons cependant faire une pause pour remarquer qu’avant l’avènement de l’informatique numérique, la connaissance du cerveau n’était pas du tout conforme au paradigme mécaniste de l’automatisme. Dès la fin du XIXe siècle, l’idée que le cerveau était constitué de multiples composants localisables cédait la place à des modèles du cerveau qui mettaient l’accent sur son organisation structurelle distribuée. Le grand neurologue britannique John Hughlings Jackson, par exemple, s’est appuyé sur des études cliniques approfondies des troubles neuronaux pour soutenir que le cerveau présentait plusieurs niveaux d’organisation en raison du développement progressif de l’organe au cours de l’évolution. Ce qui est intéressant, c’est que Hughlings Jackson a voulu démontrer que les capacités intellectuelles les plus élevées étaient associées aux structures corticales les moins organisées, les moins « évoluées » et qu’il appelait « les moins automatiques ». Les fonctions les plus automatiques régissent nos systèmes physiologiques de base, tandis que le cortex relativement ouvert et indéterminé est associé à la pensée complexe et au langage discursif.

William James, peut-être la figure la plus influente de la synthèse de la psychologie et des neurosciences au tournant du siècle, s’est beaucoup intéressé à la manière dont l’esprit humain était guidé par des cognitions habituelles et inconscientes. Celles-ci n’étaient pas données, mais plutôt acquises. Le cerveau était à la fois un lieu d’ouverture et un espace de mécanismes artificiels : « Les phénomènes d’habitude chez les êtres vivants sont dus à la plasticité des matériaux organiques dont leur corps est composé ». « La plasticité, écrit James, c’est la possession d’une structure assez faible pour céder à une influence, mais assez forte pour ne pas céder d’un seul coup ». Pour James, comme pour Peirce, les formes organisationnelles de la vie sont essentiellement plastiques puisqu’elles sont le produit de changements évolutifs, et le système nerveux est le site privilégié de cette formation et de cette reformation au fur et à mesure que l’organisme s’adapte à ses conditions environnementales changeantes. « La matière organique, en particulier le tissu nerveux, semble dotée d’un degré extraordinaire de plasticité », notait-il, ce qui expliquait la façon dont les êtres pouvaient devenir des sortes d’automates, mais jamais de véritables automates, précisément parce que la plasticité ne disparaît jamais entièrement du cerveau et du système nerveux[18].

S’inspirant des théories évolutionnistes telles que celles de Herbert Spencer et de Hughlings Jackson, James reprend l’idée selon laquelle la capacité humaine d’intuition et de perspicacité est très probablement liée non pas à un organe spécifique de l’intelligence, mais en fait à l’instabilité et à l’indétermination des centres supérieurs du cerveau. James suggère que « l’imprécision même [des hémisphères cérébraux] constitue leur avantage […]. Un organe influencé par de légères impressions est un organe dont l’état naturel est un équilibre instable ». Cette « plasticité » du cerveau supérieur le rend imprévisible ; il est « aussi susceptible de faire la folie que la raison à un moment donné ». Mais James est allé encore plus loin en notant qu’un cerveau blessé, auquel il manque des éléments qui ont été endommagés ou entièrement détruits, peut être considéré comme « une machine virtuellement nouvelle ». Cette nouvelle machine peut initialement fonctionner de manière anormale, avec des symptômes psychopathologiques, mais comme les cas neurologiques l’ont démontré à maintes reprises, ce nouveau cerveau retrouve souvent le chemin de la normalité. « Un cerveau dont une partie a été enlevée est virtuellement une nouvelle machine et, pendant les premiers jours suivant l’opération, il fonctionne de manière tout à fait anormale. Cependant, ses performances deviennent de jour en jour plus normales, jusqu’à ce qu’il faille un œil exercé pour soupçonner quoi que ce soit d’anormal »[19]. Le collègue de James, Peirce, avait lui aussi établi un lien entre pathologie et nouveauté. Lorsque notre cerveau est endommagé, note Peirce, nous agissons de façon « nouvelle ». Habituellement, cela entraîne un état de maladie mentale, mais Peirce était prêt à admettre que dans certains cas particuliers, « une maladie du cerveau peut entraîner une amélioration de l’intelligence générale »[20]. La plasticité inhérente au cerveau se manifeste surtout dans les lésions cérébrales, mais la capacité à se réorganiser et à se défendre contre les dommages est liée à la flexibilité cognitive de l’esprit humain. L’intelligence était, en un sens, considérée comme la conséquence d’une certaine désorganisation et d’une certaine imprévisibilité, et même une désorganisation pathologique pouvait expliquer les exploits d’une intelligence géniale.

Au début du vingtième siècle, la recherche clinique et expérimentale sur le cerveau explorait systématiquement la capacité du cerveau à se réorganiser face à des défis, y compris le défi radical d’une blessure grave. La découverte du désordre a ouvert la possibilité d’une nouvelle forme d’organisation qui n’était pas explicable en termes purement mécaniques. Comme le dit Constantin von Monakow dans un livre sur la cartographie cérébrale, la perturbation d’une partie du cerveau entraîne un « choc » plus général du système (qu’il appelle diaschisis). « Toute lésion subie par la substance cérébrale entraînera (comme les lésions de tout autre organe) une lutte (Kampf) pour la préservation de la fonction nerveuse perturbée, et le système nerveux central est toujours (bien que pas toujours au même degré) préparé à une telle lutte »[21]. La déviation pathologique suscite une réponse totale, visant non pas un simple retour à l’ordre originel, mais plutôt un ordre qui rétablit un fonctionnement stable sous une nouvelle forme. Comme l’écrit von Monakow (dans un livre écrit avec le neurologue français R. Mourgue), « il s’agit d’un combat, d’une lutte active pour la création d’un nouvel état de choses, permettant une nouvelle adaptation de l’individu et de son milieu. L’ensemble de l’organisme intervient dans cette lutte »[22].

La théorie neurologique de l’entre-deux-guerres a produit de nombreux modèles théoriques qui mettent l’accent sur la plasticité du système nerveux, capable de s’adapter à des circonstances en constante évolution, voire à des lésions cérébrales radicales[23]. Une figure influente dans ce domaine, le psychologue américain Karl Lashley, a cherché à réfuter les théories de la localisation de la mémoire en retirant systématiquement des morceaux du cerveau de sujets animaux et en démontrant la persistance de comportements appris dans des labyrinthes et d’autres environnements. De manière surprenante, les animaux testés étaient souvent encore capables de parcourir les labyrinthes de manière efficace, ce qui implique que le cerveau doit avoir un moyen de se restructurer pour compenser le tissu manquant. Pour Lashley, cette capacité s’inscrit dans la continuité de l’unité adaptative du cerveau en tant que système complexe, un système qui intègre l’activité dans tous ses composants : « Le terme utilisé par Lashley pour désigner cette flexibilité était l’équipotentialité, en référence à sa théorie selon laquelle le cerveau étant une entité dynamique et en constante évolution, il pouvait se réorganiser lorsqu’il était confronté à de nouveaux obstacles ou à des défaillances internes »[24]. Comme il l’a écrit plus tard, « j’ai été frappé par le fait que même une destruction très importante du tissu cérébral ne produit pas de désorganisation. Le comportement se simplifie, mais reste adaptatif ». Pour Lashley, l’activité intuitive, perspicace et intellectuelle dépendait de cette caractéristique du cerveau et du système nerveux, à savoir « sa nature plastique et adaptative »[25].

La figure la plus importante de cette histoire de la plasticité a peut-être été Kurt Goldstein, qui a fait la synthèse de ses propres recherches cliniques approfondies sur les défauts neurologiques chez les patients souffrant de lésions cérébrales avec des courants de pensée plus larges sur la vie organisationnelle elle-même. S’appuyant sur des concepts neurologiques tels que la diaschisis, tirés des travaux de von Monakow, ainsi que sur la philosophie holistique allemande, en particulier la Gestalt theory, Goldstein a défini l’organisme moins comme une organisation ou une structure fixe que comme une configuration dynamique luttant constamment pour maintenir une unité cohérente face aux conditions de vie en perpétuelle évolution. Les états pathologiques de l’être présentent leurs propres caractéristiques chez les patients qui manifestent des troubles neurologiques. Lorsque les réponses d’un organisme à l’environnement sont « constantes, correctes, adéquates », il peut survivre dans son milieu. Mais en état de choc, l’organisme est souvent conduit à des actions « désordonnées, inconstantes, incohérentes », ce qui crée une « séquelle inquiétante »[26].

Cependant, comme l’affirme Goldstein, les organismes ont la capacité de se modifier face à ce comportement désordonné, ce qu’il appelle une « réaction de catastrophe ». La capacité de l’organisme à se réorganiser en réponse à un choc n’est, selon Goldstein, qu’un moyen pour l’organisme de rechercher l’unité dans les moments de perturbation. Les catastrophes qualifiées de pathologiques s’inscrivent en fait dans la continuité de la dynamique d’un organisme sain et normal qui s’efforce de maintenir son équilibre. En d’autres termes, l’organisme est toujours en quête d’unité et d’ordre : « Les réactions normales et anormales (“symptômes”) ne sont que l’expression de la tentative de l’organisme de faire face à certaines exigences de l’environnement »[27].

C’est ainsi que Goldstein écrit que même la vie normale et saine de l’organisme peut être considérée comme une série de ce qu’il appelle de « légères catastrophes » (leichter Katastrophenreaktionen), où l’on est d’abord confronté à des insuffisances et où l’on cherche ensuite de « nouveaux ajustements » ou un « nouveau milieu adéquat » pour répondre à ce manque. La rupture catastrophique, plus grave, ne diffère que par l’ampleur et l’intensité de la réaction. L’organisme entier est en fait une unité en puissance qui tombe toujours dans des états de choc, et il doit, encore et encore, établir de façon créative un nouvel ordre pour surmonter ces chocs : « Si l’organisme doit “être”, il doit toujours repasser de moments de catastrophe à des états de comportement ordonné »[28]. La plasticité essentielle de l’organisme est évidemment plus clairement visible dans le cerveau parce qu’il est le centre de l’organisation et de l’intégration et donc le site de la réorganisation et de la reconstitution.

Cependant, les mêmes structures de crise et de réorganisation peuvent être repérées dans le domaine de la psychologie de l’entre-deux-guerres, notamment dans les théories de la pensée créative et adaptative. Dans la Gestalt psychologie, la véritable intelligence était définie comme la capacité à résoudre des problèmes difficiles avec de nouvelles perspectives qui réorganisaient l’expérience du sujet pour produire de nouveaux arrangements. Le mot utilisé pour désigner cette prise de conscience soudaine est insightb. Dans ses célèbres études sur les singes menées pendant la Première Guerre mondiale, Wolfgang Köhler a cherché à découvrir les conditions primordiales de l’intelligence, en utilisant les primates comme moyen d’accéder à l’essence de l’intelligence humaine avant qu’elle ne soit recouverte par le langage et les connaissances culturelles.

Köhler a montré que la perspicacité (insight) était obtenue lorsque l’esprit se libérait d’une interprétation de la situation pour en découvrir une nouvelle qui résolvait la tension – dans ces cas, voir les objets comme des outils pouvant mener à la nourriture qui avait été placée hors d’atteinte directe. Pour Köhler, l’intelligence se révèle par la capacité à « s’écarter » du chemin direct pour comprendre comment contourner les obstacles[29]. L’insight psychologique a sa contrepartie « isomorphique » dans l’organisme lui-même : « Les êtres humains construisent des machines et obligent les forces naturelles à fonctionner de manière définie et contrôlable. Un système de ce type est constitué de connexions “fixes” au sens de la mécanique analytique ». Mais un système dynamique est capable de se réorganiser et de s’adapter. L’exemple de Köhler est celui de l’organisme en développement : « De nombreux embryons peuvent être temporairement déformés (artificiellement) de manière tout à fait incongrue par rapport à leur histoire génétique et retrouver néanmoins, par une voie totalement différente, le même stade de développement atteint par un autre embryon intact »[30].

L’étude de la « pensée productive » a mis l’accent sur la nouveauté des projections par analogie de connaissances préalablement établies dans des zones de compréhension radicalement nouvelles[31]. Le collègue de Köhler, également adepte de la Gestalt theory, Kurt Koffka, par exemple, a soutenu que l’esprit n’était pas limité à la combinaison et à la recombinaison des « voies de réaction » et des souvenirs qu’il possédait déjà. L’esprit possède, selon lui, une « plasticité fondamentale » qui permet une nouveauté radicale et donc un réel progrès dans la pensée[32]. Le psychologue expérimental suisse Edouard Claparède a parfaitement saisi cette relation entre les automatismes de la pensée habituelle et la liberté radicale caractéristique de l’intelligence ; il a également fait écho à l’idée de Goldstein sur la réaction catastrophique : « La rupture d’équilibre, lorsque les réflexes ou les habitudes ne sont pas disponibles pour intervenir, n’est pas rétablie automatiquement, et nous sommes momentanément désadaptés. C’est l’intelligence qui se charge de nous réadapter »[33].

Au seuil de l’ère informatique, il était entendu que la structure ouverte du cerveau excluait toute réduction facile de la cognition humaine à certaines formes de « machinerie » automatique. Pourtant, les dispositifs informatiques les plus avancés de l’époque étaient des machines analogiques, comme l’analyseur différentiel de Vannevar Bush (vers 1930) et l’hybride électromécanique Mark I de Harvard (1940-44). Aussi complexes que soient ces machines technologiques, elles incarnent clairement le principe d’automaticité : construits comme une série d’éléments mobiles physiquement couplés, ces dispositifs analogiques étaient conçus pour représenter directement les interactions de diverses fonctions mathématiques ou autres fonctions déterminées. Cela semblait exclure toute forme sérieuse d’IA capable d’imiter la vie intelligente. Comme l’a dit Vladimir Jankélévitch en 1931 dans un livre sur Bergson, « Avec une machine parfaite, il n’y a jamais de désillusion, mais aussi jamais de surprise. Aucun de ces miracles qui sont, en quelque sorte, la signature de la vie »[34].

Ainsi, lorsque Turing a imaginé pour la première fois l’ordinateur numérique « universel » dans un article mathématique de 1936, il s’agissait d’un intrus étrange dans le domaine du calcul automatique, précisément parce qu’il n’avait pas de structure proprement dite. Simple machine n’ayant rien de plus que la capacité de manipuler deux symboles sur une bande en mouvement, cet ordinateur numérique était défini comme une machine radicalement ouverte dont le seul but était d’adopter les configurations d’autres machines à état discret. Ce que Turing a inventé, c’est une machine qui imite automatiquement (virtuellement, dans des représentations codées) les états successifs d’une autre machine automatique. Très vite, bien sûr, la machine de Turing est devenue bien plus que cela. La logique binaire de l’ordinateur numérique a rapidement été appliquée à la connectivité synaptique dans le cerveau. Le principal argument de Turing, à savoir que le fonctionnement d’un ordinateur numérique est régi par son organisation logique et non physique, n’a fait que renforcer l’analogie entre l’ordinateur et le cerveau. Pour certains, le cerveau était par essence un ordinateur numérique instancié par la réaction séquentielle des neurones, qui étaient analogues à la mise en marche mécanique de relais ou au traitement d’impulsions électriques. Le substrat physique de la machine de Turing n’était pas pertinent pour son exploitation logique[35].

Les détracteurs de la vision mécaniste du monde se sont concentrés sur l’automaticité rigide impliquée par l’analogie de l’ordinateur. « Les machines, écrit Georges Canguilhem dans un essai de 1948, ne peuvent qu’affirmer des “normes” rationnelles de cohérence et de prévisibilité ». En revanche, les êtres vivants sont capables d’improvisation ; dans son élan créatif pour survivre, « la vie tolère les monstruosités ». Soulignant la grande plasticité du système nerveux, Canguilhem note que si un enfant subit une attaque cérébrale qui détruit la moitié de son cerveau, il ne souffrira pas d’aphasie (comme c’est le cas pour de nombreuses lésions cérébrales plus tard dans la vie) parce que le cerveau réoriente la capacité langagière vers d’autres régions afin de compenser les dommages subis. Les organismes sont stables en tant qu’unités précisément parce que leur organisation n’est pas figée dans une structure rigide ; ils sont ouverts et donc équipés pour surmonter même une perte de fonctions dans certains cas. Cependant, comme l’a déclaré Canguilhem, « il n’existe pas de pathologies machiniques »[36]. Et bien sûr, pour Canguilhem, l’état pathologique de la maladie révèle le pouvoir de l’être vivant de créer de nouvelles normes dans des situations de crise[37]. Michael Polanyi a fait écho à cette observation en écrivant : « Les organes du corps sont plus complexes et variables que les pièces d’une machine, et leurs fonctions sont également moins clairement spécifiables ». Il a noté qu’une machine ne connaît que des « règles de justesse » et ne peut jamais s’accommoder d’erreurs ou de « défaillances » – contrairement aux corps vivants qui sont capables d’une transformation radicale[38]. Ou, comme l’a dit le théoricien des systèmes Ludwig von Bertalanffy, à la différence d’un système vivant et ouvert, un « organisme mécanisé serait incapable de se réguler à la suite de perturbations »[39].

Cependant, avec la montée en puissance des cybernéticiens est apparue la croyance en un tout nouveau type de machines, une technologie flexible et adaptative qui imiterait l’improvisation vitale de l’organisme. Pourtant, les machines cybernétiques (par exemple les missiles autoguidés et d’autres servomécanismes) étaient, semble-t-il, toujours régies par la logique de l’automaticité, malgré leur capacité à corriger leur comportement grâce à des circuits de rétroaction négative. Les réponses adaptatives aux changements environnementaux étaient entièrement déterminées par le système programmé. L’être cybernétique avait des « objectifs » spécifiques intégrés et une organisation fixe de capteurs, de processeurs et de moteurs pour le guider vers ces objectifs. Comme l’a dit un neurologue français en 1955, « la rigidité des mécanismes électriques déployés dans les machines ou les robots est apparue d’emblée très éloignée de la variabilité, de la plasticité de ceux du système nerveux »[40]. La machine cybernétique pouvait-elle présenter une véritable plasticité ? Une telle machine pouvait-elle présenter de véritables pathologies au sens que Goldstein et Canguilhem donnaient à ce terme ?[41]

Le cybernéticien W. Ross Ashby a étudié la possibilité d’une telle machine pathologique, qui serait alors capable d’un comportement vraiment nouveau et inattendu. Dans un fragment de carnet datant de 1943, nous le trouvons en train de lire William James. Ashby était particulièrement intéressé par les passages de James où la « machine » rigide est comparée à la structure organique et ouverte du système nerveux. Comme nous l’avons vu, pour James, ce système présentait paradoxalement à la fois une fixité de structure et une plasticité adaptative et ouverte[42]. Les carnets montrent également qu’Ashby lisait le travail révolutionnaire de Charles Sherrington sur l’intégration neuronale, publié en 1906[43]. Ashby se concentre sur les passages qui décrivent la nature dynamique du système nerveux. Comme James, Sherrington a mis en évidence le grand avantage de la fragilité du système nerveux : en raison de sa sensibilité aux perturbations, l’organisme est très sensible aux changements de son environnement[44]. Inspiré par ces idées, Ashby a entrepris de construire une machine qui pourrait se comporter comme un système ouvert, c’est-à-dire comme une structure déterminée qui serait néanmoins capable de se réorganiser.

Ashby admettait en 1941 que les machines artificielles capables de changer leur organisation étaient « rares »[45]. Il cherchait la qualité manquante de la machine, cet « élément incalculable » (selon les mots de James) capable de produire des actions nouvelles. Si les machines étaient définies, comme l’avait soutenu Polanyi, par leur capacité de calcul, le projet d’Ashby serait impossible. Mais il a fini par trouver une nouvelle façon de penser les machines et la plasticité. En substance, il s’est rendu compte que pour qu’une machine déterminée soit radicalement ouverte à de nouvelles formes d’organisation, elle devait être capable de devenir, d’une certaine manière, une machine totalement différente. La défaillance, ou panne, qui était déjà inévitable dans toute machine concrète, s’est avérée être l’idée clé. Pour Ashby, « une défaillance est un changement d’organisation »[46]. Une machine cybernétique, qui tente continuellement de trouver un équilibre, peut parfois se retrouver dans une situation où le maintien de l’homéostasie devient impossible. Cependant, si cet être homéostatique était construit de manière à pouvoir, dans ces moments, se briser d’une manière ou d’une autre lorsque l’équilibre n’est pas atteint, alors (théoriquement du moins) on pourrait dire que cette machine acquiert une nouvelle organisation, et donc de nouveaux chemins possibles vers l’équilibre. Comme l’écrit Ashby, « après une défaillance, l’organisation est modifiée, et donc les équilibres aussi. Cela donne à la machine de nouvelles chances d’atteindre un nouvel équilibre ou, si ce n’est pas le cas, de se briser à nouveau »[47]. En utilisant le langage de la neurophysiologie de l’époque, nous pourrions dire que la défaillance interne de la machine était une forme de choc pour le système. Ashby a donc ouvert la voie à une nouvelle forme de plasticité cybernétique qui découlait de la faiblesse fondamentale de toute machine, à savoir l’inévitabilité de la défaillance.

Ces idées sur les formes physiques du comportement adaptatif ont conduit Ashby à repenser le cerveau humain. Pour lui le cerveau n’était pas seulement dynamique et flexible dans son organisation ; c’était aussi un type particulier de « machine » composée d’éléments individuels (neurones) qui, par essence, n’étaient pas fiables, en ce sens qu’ils s’arrêtaient de fonctionner à certains seuils jusqu’à ce qu’ils puissent se rétablir et recommencer à se reconnecter à d’autres neurones. En raison de leur temps de latence, les neurones individuels étaient, pour ainsi dire, constamment en train d’apparaître et de disparaître du système dans son ensemble. Le défi de la cybernétique consistait à modéliser cette forme d’échec productif au sein de machines intelligentes construites artificiellement[48].

Le lien entre la science du cerveau et la cybernétique offre une nouvelle façon de contextualiser les origines de l’IA. Turing a ouvert le champ, du moins sur le plan conceptuel, lorsqu’il a publié Computing Machinery and Intelligence en 1950, présentant au public le célèbre imitation game (jeu d’imitation). Le projet de Turing, tel qu’il est généralement compris, consistait à réfléchir à la manière dont un ordinateur numérique pouvait simuler avec succès l’intelligence humaine en modélisant la pensée par des processus algorithmiques. Cependant, en 1946, alors qu’il était en train de développer le premier ordinateur numérique à programme enregistré de Grande-Bretagne, l’Automatic Computing Engine, Turing a écrit à Ashby. Dans cette lettre, Turing admettait qu’il était « plus intéressé par la possibilité de produire des modèles de l’action du cerveau » que par les applications pratiques des nouveaux ordinateurs numériques inspirés par ses travaux[49]. Son intérêt pour les modèles du système nerveux et du cerveau indique en fait qu’il s’est détourné de la notion stricte d’automaticité de la machine, introduite dans son travail mathématique formel sur la calculabilité, pour s’intéresser à l’organisation et à la réorganisation dynamiques des systèmes organiques.

En 1936, Turing avait imaginé l’ordinateur universel comme étant, en théorie, une machine autonome parfaitement automatisée. Cependant, en 1948, après une longue expérience de l’informatique pendant et après la Seconde Guerre mondiale, il réfléchit de plus en plus à la relation entre le cerveau, l’intelligence humaine et ces nouveaux ordinateurs. Turing a noté que, par définition, toute machine peut être « complètement décrite » en énumérant toutes ses configurations possibles : « Selon nos conventions, la “machine” est entièrement décrite par la relation entre ses configurations possibles à des moments consécutifs. C’est une abstraction qui ne peut pas changer dans le temps ». Pourtant, il a imaginé que si quelque chose interférait avec cette machine, celle-ci serait par essence modifiée ; elle deviendrait alors une nouvelle machine. Turing a ensuite fait remarquer de manière suggestive que les étudiants pourraient très bien être considérés eux aussi comme des « machines » qui sont constamment modifiées par des interférences massives, notamment par l’enseignement et la communication, ainsi que par des formes de stimuli sensorielles[50].

Turing a fait remarquer « qu’il serait tout à fait injuste d’attendre d’une machine sortant tout droit de l’usine qu’elle se batte à armes égales avec un diplômé d’université. Ce dernier a été en contact avec des êtres humains pendant vingt ans ou plus. Ce contact a modifié son comportement tout au long de cette période. Ses professeurs se sont efforcés de le modifier ». Les « routines » de pensée et d’action d’un élève ont été « superposées au modèle original de son cerveau ». L’homme n’est pas devenu un automate au cours de ce processus de « programmation ». Au contraire, la machine ouverte qui est sujette à de telles modifications par interférence est celle qui devient capable d’une réelle créativité. Avec de nouvelles routines, l’homme-machine peut, selon Turing, « essayer de nouvelles combinaisons de ces routines, y apporter de légères variations et les appliquer de façon nouvelle »[51]. L’absence de routine automatique est cruciale pour une véritable intelligence : « Si l’on attend d’une machine qu’elle soit infaillible, elle ne peut pas être intelligente. La machine doit être autorisée à avoir des contacts avec des êtres humains afin qu’elle puisse s’adapter à leurs normes ». « L’intelligence, écrit Turing, consiste à s’écarter du comportement complètement discipliné qu’implique le calcul »[52]. L’intelligence d’un ordinateur (ou d’un être humain) ne se mesure donc pas à sa puissance de calcul, mais à son ouverture radicale aux interférences – de l’extérieur, bien sûr, mais aussi, dans une certaine mesure, de l’intérieur.

L’hypothèse de Turing était que le cerveau humain naissant devait être considéré comme une machine non organisée qui acquiert une organisation grâce à un « entraînement à l’interférence » approprié : « Tout cela suggère que le cortex du nourrisson est une machine inorganisée, qui peut être organisée par un entraînement interférentiel approprié […]. Un cortex humain serait pratiquement inutile si l’on ne tentait pas de l’organiser. Ainsi, si un loup acquiert par mutation un cortex humain, il y a peu de raisons de penser qu’il en tirera un avantage sélectif »[53]. Un cerveau humain isolé et solitaire ne ferait aucun progrès, car il a besoin d’un milieu social et d’interagir avec d’autres êtres humains pour apprendre et créer. Le projet de Turing pour l’IA n’était pas, comme on le pense généralement, un projet visant à disséquer les opérations de la cognition et à les traduire en routines programmables. L’objectif était plutôt de modéliser un cerveau ouvert et souple qui se transforme au fur et à mesure que la nature et la culture s’imposent à lui. « Notre espoir, écrit-il, est qu’il y ait si peu de mécanismes dans le cerveau de l’enfant que quelque chose de semblable puisse être facilement programmé »[54]. Pour lui l’intelligence humaine, comme l’intelligence informatique, est par essence déjà artificielle, c’est-à-dire imprimée de l’extérieur sur l’architecture plastique du cerveau/ordinateur.

L’homologue américain de Turing, John von Neumann, était également fasciné par le comportement robuste et flexible des systèmes nerveux organiques et du cerveau. Nommé pour superviser le développement d’un ordinateur électronique à l’Institute for Advanced Study de Princeton de 1945 à 1951, von Neumann s’est inspiré de la neurophysiologie. Le fait que le cerveau et le système nerveux fassent preuve d’une étonnante robustesse contrastait fortement, selon lui, avec l’immense fragilité des nouveaux ordinateurs à grande vitesse construits à l’époque à partir de relais mécaniques, de commutateurs téléphoniques ou de tubes à vide peu fiables. Dans ses premières réflexions sur l’ordinateur, von Neumann a pris soin d’attirer l’attention sur les différences essentielles entre les machines numériques et le système nerveux[55]. Pourtant, il était lui-même attiré par le système nerveux comme moyen de penser l’ordinateur comme quelque chose de plus qu’un dispositif de calcul séquentiel. L’une des caractéristiques les plus importantes du système naturel de communication et de contrôle était, selon lui, sa flexibilité inhérente et donc sa fiabilité : « Il n’est jamais très simple de localiser quoi que ce soit dans le cerveau, parce que le cerveau a une énorme capacité de réorganisation. Même lorsque vous avez localisé une fonction dans une partie particulière du cerveau, si vous enlevez cette partie, vous pouvez découvrir que le cerveau s’est réorganisé, a réattribué ses responsabilités et que la fonction est à nouveau exécutée »[56].

En 1948, von Neumann a donné sa célèbre conférence The General and Logical Theory of Automata (La théorie générale et logique des automates) lors du symposium Hixon qui s’est tenu à Cal Tech. Ce rassemblement interdisciplinaire sur le thème du cerveau est l’un des principaux moments fondateurs de la cybernétique. Certains des chercheurs les plus influents en psychologie y étaient présents, y compris des penseurs holistiques tels que Köhler et Lashley. En fait, von Neumann semblait sensible à cette tradition dans sa propre présentation. Il s’intéressait au développement de machines informatiques artificielles qui imitaient la robustesse des systèmes naturels et vivants, et il évoquait précisément le type de comportement du système nerveux étudié par les neurophysiologistes. Comme il l’a expliqué, l’organisme est toujours confronté à des erreurs imprévisibles, mais inévitables. Comment le système nerveux en particulier se maintient-il malgré la pression des circonstances pathologiques ? Dans la discussion de l’article de von Neumann, il a été noté que nous devions « non seulement être capables de rendre compte du fonctionnement normal du système nerveux, mais aussi de sa stabilité relative dans toutes sortes de situations anormales »[57].

Dans les travaux de von Neumann, l’erreur est liée à la plasticité. Si un ordinateur complexe doit être flexible et stable face aux erreurs et aux échecs, il est important que « l’erreur soit considérée […] non pas comme un accident étranger et mal orienté ou mal dirigé, mais comme une partie essentielle du processus considéré »[58]. D’une manière ou d’une autre, l’ordinateur devait avoir la capacité de détecter « automatiquement » où les erreurs se produisaient et de réorganiser simultanément le système dans son ensemble pour tenir compte de ces erreurs. Il semble évident que von Neumann faisait directement allusion à des concepts clés tirés de la biologie théorique, que Lashley appelait « équipotentialité » et que Bertalanffy entendait par « équifinalité ». Les travaux de Von Neumann s’intéressent à la manière dont les organismes naturels peuvent se réorganiser lorsqu’ils sont confrontés à ce qu’il appelait des « conditions d’urgence »[59].

Dès son origine, l’ordinateur numérique a été une machine en quête de sa définition. En d’autres termes, l’ordinateur devait contenir ce que le philosophe de la technique Gilbert Simondon appelait « une marge d’indétermination ». Pour Simondon, la machine parfaite ne peut jamais être parfaitement automatique. Si elle doit être ouverte à l’information et donc capable d’une véritable communication, alors la machine, comme l’organisme, doit être dans une certaine mesure plastique : « La véritable perfection des machines […] ne correspond pas à un accroissement de l’automatisation, mais au contraire au fait que le fonctionnement d’une machine recèle une certaine marge d’indétermination ». Si, comme l’a compris Descartes il y a plusieurs siècles, l’être humain est une sorte d’automate, déterminé par son éducation, sa formation, son langage et sa culture, il n’en demeure pas moins qu’il s’agit d’un automate d’un genre particulier. Comme le dit Simondon, « l’être humain est un automate assez dangereux, qui se risque toujours à inventer et à se donner de nouvelles structures »[60]. Le défi de la création de tout automate intelligent est de modéliser l’indétermination, la perturbation, l’échec et l’erreur. À l’ère de l’automatisation, où la cognition elle-même est considérée comme une procédure automatique, il est doublement important de montrer que l’automaticité de l’être pensant repose sur une plasticité plus fondamentale. Lewis Mumford l’a expliqué en 1964 : « Permettez-moi de contester la notion selon laquelle l’automatisation est en quelque sorte un objectif final. Si l’organisme humain s’était développé selon ce principe, les réflexes et le système nerveux autonome auraient absorbé toutes les fonctions du cerveau, et l’homme se serait retrouvé sans la moindre pensée dans sa tête. Les systèmes organiques [ont] une marge de manœuvre, la liberté de commettre et de corriger des erreurs, d’explorer des chemins peu fréquentés, d’intégrer des accidents imprévisibles, d’anticiper l’inattendu, de planifier l’impossible »[61].

À l’heure de l’automatisation, où l’automaticité incarnée par les technologies numériques structure les fondements conceptuels des sciences cognitives, il est à nouveau temps de réarticuler la nature humaine à ce qui n’est pas automatique. Nos cerveaux numériques – des cerveaux modelés et simulés par des ordinateurs et de plus en plus formés par des interactions répétées avec nos prothèses numériques – ne révéleront leur véritable plasticité que lorsqu’ils redécouvriront le pouvoir d’interrompre leur propre automaticité.

David Bates

Retrouvez l’article original sur : https://escholarship.org/content/qt00w2666h/qt00w2666h.pdf


[1]Les premières sections de cet essai s’appuient sur mon article « Penser l’automaticité sur le seuil du numérique« , dans Digital Studies : Organologie des savoirs et technologies of knowledge, ed. Bernard Stiegler (Paris : Editions FYP, 2014).

[2]Morana Ala č , Handling Digital Brains: A Laboratory Study of Multimodal Semiotic Interaction in the Age of Computers (Cambridge, MA: MIT Press, 2011)

[3]Thomas P. Trappenberg, Fundamentals of Computational Neuroscience (Oxford: Oxford University Press, 2010).

[4]Sur l’histoire entremêlée des sciences cognitives et de l’intelligence artificielle, voir Paul Edwards, The Closed World : Computers and the Politics of Discourse in Cold War America (Cambridge, MA : MIT Press, 1997) ; Jean-Pierre Dupuy, On the Origins of Cognitive Science : La mécanisation de l’esprit, trad. M. B. DeBevoise (Cambridge, MA : MIT Press, 2009).

[5]Human Brain Project, “Overview,” https://www.humanbrainproject.eu/discover/the-project/overview (accessed February 12, 2015).

[6]U.S. Department of Health and Human Services, National Institutes of Health, “Brain Research through Advancing Innovative Neurotechnologies (BRAIN),” braininitiative.nih.gov (accessed February 12, 2015).

[7]Catherine Malabou, The Ontology of the Accident: An Essay on Destructive Plasticity, trans. Caroline Shread (London: Polity, 2012).

[8]Rajagopal Ananthanarayanan, Steven K. Esser, Horst D. Simon, and Dharmendra S. Modha, “The Cat Is Out of the Bag: Cortical Simulations with 10 9 Neurons, 10 13 Synapses,” Proceedings of the Conference on High Performance Computing Networking, Storage and Analysis, article 63, http://ieeexplore.ieee. org/stamp/stamp.jsp?tp=&arnumber=6375547 (accessed June 2, 2015).

[9]Paul Merolla et al., “A Digital Neurosynaptic Core Using Embedded Crossbar Memory with 45pJ per Spike in 45nm,” IEEE Custom Integrated Circuits Conference, September 2011. http://ieeexplore.ieee.org/stamp/ stamp.jsp?tp=&arnumber=6055294 (accessed June 2, 2015).

[10]Mrigank Sharad et al., “Proposal for Neuromorphic Hardware Using Spin Devices,” Cornell University Library, July 18, 2012, http://arxiv.org/ abs/1206.3227v4 (accessed June 2, 2015)

[11]Dharmendra S. Modha et al., “Cognitive Computing,” Communications of the ACM 54 (2011): 65.

[12]B. G. Farley and W. A. Clark, “Simulation of Self-Organizing Systems by Digital Computer,” Transaction of the IRE (1954): 7.

aNdt : qui a un comportement déterminé, un nombre de possibilités fini, qui n’évolue pas infiniment.

[13]René Descartes, Treatise on Man, in The Philosophical Writings of Descartes, trans. John Cottingham, Robert Stoothoff, and Dugald Murdoch, 3 vols. (Cambridge: Cambridge University Press, 1985), 1: 104.

[14]René Descartes, Discourse on Method, in Philosophical Writings, 1: 119.

[15]David Bates, “Cartesian Robotics,” Representations 124 (Fall 2013): 43–68.

[16]C. S. Peirce, Collected Papers of Charles Sanders Peirce, 8 vols. (Cambridge, MA: Harvard University Press, 1931–58), 2: para. 59.

[17]C. S. Peirce, letter to A. Marquand, December 30, 1886, in C. Kloesel et al., eds., Writings of Charles S. Peirce: A Chronological Edition(Bloomington: Indiana University Press, 1993), 5: 421–22

[18]William James, Principles of Psychology, 2 vols. (New York: Henry Holt, 1890), 1: 105.

[19]Ibid., 1: 139–40, 143.

[20]C. S. Peirce, Contributions to the Nation, 3 vols. (Lubbock: Texas Tech University Press, 1975–87), 1: 144.

[21]Constantin von Monakow, Die Lokalisation im Grosshirn und der Abbau der Funktion durch kortikale Herde (Wiesbaden: J. F. Bergmann, 1914), 30.

[22]Constantin von Monakow and R. Mourgue, Introduction biologique à l’étude de la neurologie et désintégration de la fonction (Paris: Félix Alcan, 1928), 29

[23]La discussion suivante sur la neurophysiologie reprend l’argumentation dans mon article : “Unity, Plasticity, Catastrophe: Order and Pathology in the Cybernetic Era,” in Catastrophes: History and Theory of an Operative Category, ed. Andreas Killen and Nitzen Lebovic (Berlin: De Gruyter, 2014), 32–54.

[24]Karl Lashley, Brain Mechanisms and Intelligence: A Quantitative Study of Injuries to the Brain (Chicago: University of Chicago Press, 1929), 176

[25]Karl Lashley, « Persistent Problems in the Evolution of Mind« , QuarterlyReview of Biology 24 (1949) : 33, 31.

          Le psychologue et neurologue soviétique Alexander Luria a développé une théorie similaire de la plasticité neuronale. Dans ses études sur des patients ayant subi diverses lésions cérébrales, Luria a observé la perte de certaines capacités cognitives, mais il a également observé à plusieurs reprises que le cerveau avait la capacité surprenante de se réorganiser afin de compenser la perte de fonctions après un accident vasculaire cérébral ou un accident. Luria a noté que de nombreuses études montraient « le haut degré de plasticité des systèmes fonctionnels endommagés, dû à la réorganisation dynamique et à l’adaptation à de nouvelles circonstances et non à la régénération et à la restauration de leur intégrité morphologique ». A. R. Luria, Restoration of Function after BrainInjury, trans. Basil Aigh (New York : Macmillan, 1963), 33. Voir également l’essai de Laura Salisbury et Hannah Proctor dans ce volume.

[26]Kurt Goldstein, The Organism: A Holistic Approach to Biology Derived from Pathological Data in Man (1934; New York: Zone, 1995), 48–49. Un excellent aperçu du travail de Goldstein dans le contexte allemand peut être trouvé dans Anne Harrington, Reenchanted Science: Holism in German Culture from Wilhelm II to Hitler (Princeton, NJ: Princeton University Press, 1996)

[27]Goldstein, The Organism, 52, 35.

[28]Ibid., 227, 388.

bNdt : perspicacité

[29]Wolfgang Köhler, Intelligenzprüfungen an Menschenaffen (Berlin: Springer, 1921).

[30]Wolfgang Köhler, “Some Gestalt Problems,” in A Sourcebook of Gestalt Psychology, ed. Willis D. Ellis (London: Kegan Paul, 1938), 55, 66.

[31]Karl Duncker, Zur Psychologie des produktiven Denkens (Berlin: Springer, 1935); Max Wertheimer, Productive Thinking (Ann Arbor: University of Michigan Press, 1945).

[32]Kurt Koffka, The Growth of the Mind: An Introduction to Child Psychology (New York: Harcourt Brace, 1925), 125.

[33]Edouard Claparède, “La genèse de l’hyopthèse: Étude expérimentale,” Archives de Psychologie 24 (1934): 5.

[34]Vladimir Jankélévitch, Henri Bergson (Paris: Presses Universitaires de France, 1989)

[35]Warren McCulloch and Walter Pitts, “A Logical Calculus of the Ideas Immanent in Nervous Activity,” Bulletin of Mathematical Biophysics 5 (1943): 115–33; Norbert Wiener, Cybernetics (Cambridge, MA: MIT Press, 1948); Warren McCulloch and John Pfeiffer, “Of Digital Computers Called Brains,” Scientific Monthly 69 (1949): 368–76.

[36]Georges Canguilhem, “Machine et organisme” (1948), in La connaissance de la vie, 2nd ed. (Paris: Vrin, 1980), 118.

[37]Georges Canguilhem, On the Normal and the Pathological, trans. Carolyn R. Fawcett (New York: Zone, 1991).

[38]Michael Polanyi, Personal Knowledge: Towards a Post-Critical Philosophy (Chicago: University of Chicago Press, 1958), 359, 328.

[39]Ludwig von Bertalanffy, Das Biologische Weltbild (Berne: A. Franke, 1949), 29.

[40]Théophile Alajouanine, L’homme n’est-il qu’un robot? Considérations sur l’importance qu’a l’automaticité dans les functions nerveuses. Discours inaugural prononcé à la séance du Congrès des psychiatres et neurologistes de langue française, à Nice, le 5 septembre 1955 (Cahors: A. Coueslant, 1955), 11.

[41]We can note that Bertalanffy had criticized cybernetics precisely for its misguided use of closed systems to model the fundamentally open structures of natural organisms. Ludwig von Bertalanffy, General System Theory: Foundations, Development, Applications (New York: George Braziller, 1968).

[42]W. Ross Ashby, Journal, 1523–24, W. Ross Ashby Digital Archive, rossashby.info/index.html (accessed July 24, 2013).

[43]Charles S. Sherrington, The Integrative Action of the Nervous System (New Haven, CT: Yale University Press, 1906).

[44]Ashby, Journal, 1906–9.

[45]Ibid., 1054.

[46]W. Ross Ashby, “The Nervous System as Physical Machine: With Special Reference to the Origin of Adaptive Behaviour,” Mind 56 (1947): 50. On Ashby’s theoretical work and engineering projects in homeostasis, see Andrew Pickering, The Cybernetic Brain: Sketches of Another Future (Chicago: University of Chicago Press, 2009), especially chapter 4

[47]Ashby, “The Nervous System as Physical Machine,” 55.

[48]Ibid., 57–58.

[49]Alan Turing, letter to W. Ross Ashby, ca. November 19, 1946, quoted in Jack Copeland, introduction to Alan Turing, “Lecture on the Automatic Computing Engine (1947),” in Alan Turing, The Essential Turing: Seminal Writings in Computing, Logic, Philosophy, Artificial Intelligence, and Artificial Life plus the Secrets of Enigma, ed. B. Jack Copeland (Oxford: Oxford University Press, 2004), 374.

[50]Alan Turing, “Intelligent Machinery” (1948), in Turing, The Essential Turing, 419.

[51]Ibid., 421.

[52]Alan Turing, “Computing Machinery and Intelligence,” Mind 59 (1950): 459.

[53]Turing, “Intelligent Machinery,” 424.

[54]Turing, “Computing Machinery,” 456.

[55]John von Neumann, The Computer and the Brain (New Haven, CT: Yale University Press, 1958).

[56]John von Neumann, Theory of Self-Reproducing Automata, ed. Arthur W. Burks (Urbana: University of Illinois Press, 1966), 49.

[57]Ibid., 323.

[58]Ibid., 329. I have discussed von Neumann’s theory of error in “Creating Insight: Gestalt Theory and the Early Computer,” in Genesis Redux: Essays in the History and Philosophy of Artificial Life, ed. Jessica Riskin (Chicago: University of Chicago Press, 2006), 237–59. See as well Giora Hon, “Living Extremely Flat: The Life of an Automaton. John von Neuman’s Conception of Error of (In)animate Systems,” in Going Amiss in Experimental Research, ed. Giora Hon, Jutta Schickore, and Friedrich Steinle, Boston Studies in the Philosophy of Science, no. 267 (N.p.: Springer, 2009), 55–71.

[59]Von Neumann, Theory of Self-Reproducing Automata, 71, 73.

[60]Gilbert Simondon, Du mode d’existence des objets techniques, rev. ed. (Paris: Aubier, 1989), 11–12.

[61]Lewis Mumford, “The Automation of Knowledge: Are We Becoming Robots?,” Audio-Visual Communication Review 12 (1964): 275.

Retour en haut