2 Voir également “Quadratic Transformations Part I” in [Ulam, S., 1990], p. 198.
3 Si l’on apparente les proportions à des rapports d’angles (angle/180°) : α/180° +β/180° + γ/180° = 1, on a bien le théorème selon lequel la somme des angles d’un triangle quelconque est égale à deux droits.
4 [Ulam, S., 1962], p. 215.
5 Comme en témoigne une fois encore la conclusion du chapitre de 1961, [Ulam, S., 1961], p. 275.
6 Comme nous l’avons rappelé incidemment dans un note précédente, la notion de « jeu » ne cesse pas non plus de valoir comme une autre idée-force dans son approche de la physique mathématique.
1 Voir [Ulam, S., 1962], p. 220. Les contraintes sur les types (ou couleurs) de sommet sont explicitement déplacées par Ulam sur de simples contraintes de nature géométrique valant sur les surfaces en croissance. Ulam interprète cela comme une simplification de la question des triangles : “We return now to our discussion of growing patterns where we do not label the new elements by different colors but merely consider, as in paragraph 2, the geometry of the growing structure”, ibid., p. 220. C’est nous qui soulignons. Les triangles ont dans un premier temps été itérés sur le treillis selon les règles s’appliquant à leurs sommets, ces sommets étant chacun d’un des trois différents types. Mais la simplification consiste à considérer les seules surfaces triangulaires dans leur présence ou leur absence sur les cases du treillis et non plus leurs sommets dans leur différents types.
2 [Ulam, S., 1962], p. 221.
3 “successive accretions”, [Ulam, S., 1962], p. 215.
1 Mais, en 1962, Ulam montre que le treillis rectangulaire présente moins d’intérêt car on peut trouver des théorèmes sur son comportement asymptotique et, de plus, il ne modélise pas le problème de physique nucléaire de Stein et Ulam. Ce dernier a besoin d’être exprimé sous forme de relations « triangulaires ». Dans le rapport de Los Alamos de 1967, en revanche, dans la mesure où est davantage assumé le projet d’étudier pour eux-mêmes des objets géométriques définis par des formes élémentaires simples et par des règles récursives, Ulam et Schrandt étudient essentiellement des treillis rectangulaires. Voir “On Recursively Defined Geometrical Objects and Patterns of Growth”, in [Ulam, S., 1990], pp. 379-197.
2 [Ulam, S., 1962], p. 220.
1 [Ulam, S., 1962], p. 216.
2 [Ulam, S., 1962], p. 215.
3 “… to throw a sidelight on the question of how much ‘information’ is necessary to describe the seemingly enormously elaborate structures of living objects”,[Ulam, S., 1962], p. 215.
1 [Eden, M., 1960].
2 Voir le chapitre de G. Darmois et D. Dugué in [Taton, R., 1964, 1995], pp. 96-97.
1 Voir [Brouaye, F., 1990], pp. 97-98 et M. Janet in [Taton, R., 1964, 1995], p. 59.
2 [Neumann (von), J., 1932a] et [Von Neuman, J., 1932b].
3 Voir [Brouaye, F., 1990], pp. 51-66.
1 Semi-Automatic Ground Environment. C’est un système de surveillance mis en place aux Etats-Unis à partir de 1953 et qui contrôlait les intrusions aériennes. Voir [Rammuni, G., 1989], pp. 120-121.
2 Voir [NIH, 2000], p. 2.
3 Voir [Ramunni, G., 1989], p. 157.
4 [NIH, 2000], p. 2.
5 [NIH, 2000], p. 2.
1 À titre indicatif, S. A. Rosenfeld rappelle qu’au début des années 1960, une heure de calcul en temps partagé sur l’IBM 7090 revenait à environ 100$ pour l’utilisateur, [NIH, 2000], p. 1.
2 [NIH, 2000], p. 2.
3 Selon un historien officiel du MIT, Paul Penfield Jr., Samuel J. Mason était un homme très affable et doué d’un très fort sens de la compassion. Il appartenait ainsi à plusieurs sociétés d’aide et de charité. Voir [Penfield, P., 2000].
5 Jakobson est « l’homme des curiosités pluridisciplinaires, des explorations pleines de risques, des constructions provisoires… », [Mounin, G., 1972], p. 141. Rappelons que, dans sa période américaine, sa théorie des six fonctions du langage lui était directement venue du formalisme de la théorie de la communication de Shannon : fonction de référence (centrée sur le référent), fonction expressive (centrée sur l’émetteur), fonction conative (centrée sur le récepteur), fonction phatique (centrée sur le canal), fonction métalinguistique (centrée sur le code), fonction poétique (centrée sur la forme du message). Voir [Jakobson, R., 1963], pp. 87-99 et [Mounin, G., 1972], pp. 147-148.
6 [Mounin, G., 1972], p. 144.
7 Selon Jakobson, le phonème (terme dû au linguiste polonais Baudouin de Courtenay) est une unité constituante des morphèmes (ou mots). Il est lui-même un composé de traits distinctifs phoniques appartenant à des oppositions fondamentales comme grave-aigu, tendu-lâche, voisé-non voisé... Ces traits distinctifs en tant qu’ils sont vocalisables concrètement par la voix incarnent le véritable système d’oppositions sur quoi la langue fonde son unité synchronique.
8 [Jakobson, R. et Halle, M., 1956, 1963], p. 115.
9 Ce sont les « traits configuratifs signalant la division de l’énoncé en unités grammaticales de différents degrés de complexité », les « traits expressifs mettant une emphase relative sur différentes parties de l’énoncé […] et suggérant les attitudes émotionnelles de l’énonciateur » et « les traits redondants aidant à l’identification d’un trait (ou d’une combinaison de traits) adjacent ou simultané, soit distinctif, soit configuratif », [Jakobson, R. et Halle, M., 1956, 1963], p. 109.
1 Comme nous l’avons vu, suivant en cela Troubetskoï, ils veulent bien croire à une systématicité intégrale du type de celle que présente le tableau périodique des éléments mais pas à une déductibilité intégrale, désincarnée, et monolithique du type de celle que présentent les axiomatiques mathématiques. L’opposition entre le renvoi au modèle du tableau des éléments chimiques et le renvoi au modèle des axiomatiques est donc ici très significative. Une fois de plus, ici, comme naguère en biophysique, le renvoi à des modèles de formalisation produits ailleurs, en l’occurrence dans des sciences de la nature, sert à cristalliser et à exprimer une prise de position tant sur l’objet que sur les méthodes de la linguistique structurale. Le renvoi au tableau de Mendeleïev manifeste la volonté de conserver une place à la complexité et au caractère non totalement déductible du réel empirique à partir du possible axiomatisé, à partir de ce que Granger appellera le virtuel [Granger, G.-G., 1995], p. 231. La simulation par calculateur bénéficiera de cette idée d’une complexité irréductible à une algèbre. Selon nous, elle est de ce point de vue très nettement du côté du réel et non du virtuel au sens de Granger. La simulation dévirtualise les mathématiques. Elle désuniversalise la MathesisUniversalis.
2 Voir les analyses de [Robins, R. H., 1967, 1976], p. 218 et [Mounin, G., 1972], pp. 115-116.
3 Le linguiste et historien de la linguistique R.H. Robins rappelle que Alexander Melville Bell (1819-1905) (père d’Alexander Graham Bell (1847-1922), l’« inventeur » du téléphone) avait créé un système de « parole visible » [« visible speech »], « où chaque processus d’articulation séparé reçoit sa propre notation graphique », [Robins, R. H., 1967, 1976], p. 211.
4 “We have recently been informed about the work of Van der Gon and Thüring […] in simulating handwritten words written at high speed by an analogue device which embodies a simple physical description of a theory concerning the muscular forces used in writing”, [Eden, M. et Halle, M., 1960], p. 293.
5 [Eden, M. et Halle, M., 1960], p. 293.
1 [Jakobson, R., 1963], p. 87.
2 [Jakobson, R., 1963], p. 87 : « Pour Norbert Wiener, ‘il n’existe aucune opposition fondamentale entre les problèmes que rencontrent nos ingénieurs dans la mesure de la communication et les problèmes de nos philologues ‘ » [référence citée : Journal of the Acoustical Society of America (JASA), vol. 22 (1950), p. 697] ».
3 [Jakobson, R., 1963], p. 87.
4 [Jakobson, R., 1963], pp. 87-88.
5 Pour confirmer la profonde et ancienne proximité des problématiques de la linguistique structurale et de l’analyse mathématique, il rappelle que le linguiste russe, B. Tomchevsky, avait, dès 1923, utilisé des chaînes de Markov pour l’analyse statistique des vers poétiques, [Jakobson, R., 1963], p. 99. Il interprète cela comme un premier rapprochement de la linguistique avec les formalismes des processus stochastiques, bien avant la suggestion de Wiener.
6 [Eden, M. et Halle, M., 1960], p. 289.
1 [Eden, M. et Halle, M., 1960], pp. 290-292.
2 “generators of the physical curves“, [Eden, M. et Halle, M., 1960], p. 293.
3 Dont le statut est hybride : naturel et culturel.
1 Il sera connu plus tard, en 1967, pour s’être intéressé à la question de l’origine de la vie sur terre et pour avoir produit un argument mathématique tendant à montrer que le hasard ne pouvait à lui seul avoir suffi à cette émergence. Pour cette raison, il est aujourd’hui toujours cité dans de nombreux forums de discussion créationnistes ou anti-créationnistes anglo-saxons. Son argument était d’ordre probabiliste : « Je soutiens que si l’on donne à ’aléatoire’ une interprétation sérieuse et cruciale d’un point de vue probabiliste, le postulat de [l’évolution] aléatoire est hautement improbable et qu’une théorie scientifique adéquate de l’évolution doit attendre la découverte et l’élucidation de nouvelles lois naturelles – physiques, physico-chimiques et biologiques », in « Inadequacies of Neo-Darwinian Evolution as a Scientific Theory », publié dans le livre Mathematical Challenges to the Neo-Darwinian Interpretation, Paul S. Moorhead and Martin M. Kaplan (eds.), june 1967, p. 109. Cet extrait est lui-même rapporté sur la page du site http://www.creationscience.com/onlinebook/ReferencesandNotes32.html. Eden calculait que s’il fallait seulement six mutations génétiques pour qu’un changement adaptatif se produise, ce type de changement (qui serait alors, on le suppose, sélectionné), à cause de la très faible probabilité de son occurrence, demanderait près d’un milliard d’années avant d’intervenir. Et si l’on passait à 24 mutations nécessaires pour un changement adaptatif, l’espérance mathématique de la durée qu’il faudrait attendre devenait égale à 10 milliards d’années, soit une durée plus longue que l’âge géologique de la terre. Donc il était pour lui « hautement improbable » que la terre ait connu un tel événement, a fortiori une collection ou une succession de ce genre d’événements. Il se fondait pour cela sur un modèle probabiliste réducteur du gène où il ne faisait intervenir que des mutations aléatoires (mais pas de fusion de gamètes, ni d’effets de crossing-over).
2 Voir la bibliographie de [Eden, M., 1960], p. 239.
3 [Eden, M., 1960], p. 223.
4 “That is, it seems reasonable to assume that the ‘blueprint’ of structure does not extend down to the position of every cell in the organism”, [Eden, M., 1960], p. 223.
k Ce procédé de l’analyse combinatoire rappelle nettement les transformations laissant invariantes les structures telles qu’elles ont été considérées dans la linguistique structurale. Voir [Jakobson, R. et Halle, M., 1956, 1963], p. 108. Claude Lévi-Strauss s’en est également inspiré. Rappelons que, pendant la guerre, il appartenait, comme Jakobson, au groupe Word, fondé à New York.
k Il a été mis en lumière par le mathématicien S. Golomb sous la forme de ce qu’il a appelé le problème des « polyominoes ». Voir [Eden, M., 1960], p. 239.
1 [Eden, M., 1960], p. 238.
2 [Eden, M., 1960], p. 224.
1 [Eden, M., 1960], pp. 234-236.
2 [Eden, M., 1960], p. 238.
3 [Eden, M., 1960], p. 239.
4 [Eden, M., 1960], p. 235.
5 [Eden, M., 1960], p. 231.
6 [Galison, P., 1997], pp. 734-739.
1 Sa machine à lire les écritures manuscrites ne verra pas le jour mais elle sera remplacée par le projet, plus modeste et plus réaliste, de Samuel J. Mason de faire lire et reconnaître les écrits imprimés par un procédé optique et assisté par calculateur. C’est en 1969 que la société ECRM est créée autour de Mason avec le premier dispositif de reconnaissance de caractère ou OCR (Optical Character Recognition). Le projet ambitieux d’Eden est donc un demi-échec à côté de la réalisation finalisée de son proche collègue. D’ailleurs, il ne figure pas dans la liste des « great-educators » du MIT, au contraire de Mason, alors qu’il y a enseigné lui aussi très longtemps. On sait par ailleurs combien ce projet de faire reconnaître des écritures manuscrites à la machine est en général passé de désillusions en désillusions, cela jusqu’à nos jours. Voir pour un historique très informé et récent de ce vieux problème [Simon, J.-C., 1998].
2 Cité par [Cohen, D., 1967], p. 248.
1 Rappelons que ce texte remontait pour l’essentiel aux années 1876-1879. Il s’était développé dans l’esprit d’une reprise post-kantienne de l’empirisme anglo-saxon. Il a donc largement ignoré les prémices du pragmatisme américain comme celles du positivisme viennois des décennies qui ont suivi. Il n’a été publié qu’en 1911, après de longues tergiversations et multiples avatars. Voir [Vaihinger, H., 1911, 1935], pp. xxiii-xlviii.
2 “To understand is to reduce to known ideational constructs. Empty space, and atoms interpreted in a material sense, seem to be such constructs, but in actual fact they are only fictions [il s’agit ici d’une allusion aux paradoxes de Zénon]. If however we succeed in reducing everything to these fictions then the world seems to be understood. It seems to be ! These apperceptive constructs are fictions, the product of the imaginative faculty […] Thus the immense work of modern science reduces all existence, which in the last analysis is absolutely incomprehensible, to an entirely subjective and purely fictional standard”, [Vaihinger, H., 1911, 1935], pp. 52-53. Nous citons ce livre dans sa traduction anglaise.
1 L’historien des sciences Giorgio Israel a pour sa part insisté davantage sur la naissance de la modélisation mathématique en biologie que sur les effets de l’émergence de l’ordinateur en ce domaine. En plus de l’histoire des modèles de Volterra et Lotka, il a notamment restitué l’histoire particulière de l’usage du modèle de Van der Pol. Il montre ainsi combien le choix pour la modélisation mathématique signifie le passage à une mathématisation directe, fondée sur une pure « analogie mathématique » globale, sur ce que Bertalanffy appelait un « isomorphisme » en référence à la théorie algébrique, et non sur une construction d’un modèle mécanique préalable. Voir [Israel, G., 1996], pp. 34-51.
2 FORTRAN (FORmula TRANslator) est créé dans première version en 1954, ALGOL (ALGOrithmic Language) en 1958. La version IV de FORTRAN est diffusée en 1962. Voir [Lévènez, E., 1999], p. 1. Même s’il faudrait s’entendre sur la définition précise de langage informatique, en 1999, Eric Lévènez évoque l’existence de près de 2500 langages existant ou ayant existé dans le monde, ibid. L’objectif d’ALGOL (émanation du COBOL lui-même institué par l’administration américaine) « était de suivre de très près la procédure mathématique de solution algébrique des problèmes », [Ramunni, G., 1989], p. 163. ALGOL eut un certain succès en France. Voir les nombreux travaux sur les procédures ALGOL à destination des ingénieurs et programmeurs mis en œuvre aux cours des Recherches Coopératives sur Programme n°30 et n°136 du CNRS. Ils donnèrent lieu à publication : [Kuntzman, J., 1967] et [Gastinel, N., 1970].
3 [Bertin, J., Ritout, M. et Rougier, J.-C., 1967], p. v.
4 Les ingénieurs français reprendront la définition du MIT en 1967 : « Nous définirons l’emploi partagé comme une multiprogrammation dans laquelle l’utilisateur a possibilité d’accès direct à la machine tout en étant assuré d’un temps de réponse aussi voisin que possible de ce qu’il serait s’il était seul à disposer de la machine », [Bertin, J., Ritout, M. et Rougier, J.-C., 1967], p. 16. Cet ouvrage rend compte des différentes écoles qui existaient alors au sujet des techniques à privilégier pour partager le temps de calcul.
1 La série des IBM 7090 était une version entièrement transistorisée de l’IBM 709. Les IBM 7090 valaient entre 2 à 3 millions de dollar et elles pouvaient effectuer 210000 opérations à la seconde [Boucher, H., 1960], p. 405.
2 Rapport cité par [Ledley, R. S., 1965], pp. 250-251.
3 Rapport cité en note par [Ledley, R. S., 1965], p. 251.
4 Cette activité d’information et de promotion est perceptible à travers les publications de Robert S. Ledley (de la National Biomedical Research Foundation)comme de celles de David Garfinkel du début des années 1960. L’un et l’autre publient leurs résultats dans des revues scientifiques couvrant un large spectre de lecteurs comme Science et Nature. Elle est manifeste dans une publication collective et monumentale (en 3 volumes de 1213 pages en tout) intitulée Computers in Biomedical Sciences [Stacy, R. W. and Waxman, B. D., 1965, 1969]. Cette publication est en effet une synthèse des recherches en biomedical computing directement commanditée par les National Institutes of Health. Un de ses directeurs, James A. Shannon, s’y exprime ainsi dans l’avant-propos : “Much of the work reported in these volumes was made possible by virtue of NIH support, tendered on the expectation that this powerful and new technology would not only facilitate the solution of problems as currently formulated, but also, like the telescope, would permit the exploration of phenomena otherwise unapproachable”, ibid., Tome I, p. xi. Ralph Stacy et Bruce Waxman insistent dans leur préface : “Within the last few years computers have had an increasing influence on biomedical research. Despite a growing awareness of the utility of the computer as a research tool, many life scientists are still uniformed regarding the full range of application and great flexibility of this technology”, [Stacy, R. W. and Waxman, B. D., 1965, 1969], p. 1. Il s’agit donc bien d’une opération de promotion.
1 [Ledley, R. S., 1965], p. 250-291.
2 [Pratt, V., 1987, 1995], pp. 160-162. Pour une brève restitution des travaux de Bush et une analyse de son point de vue selon lequel tout problème de calcul doit être pensé à l’image d’un problème d’instrumentation, voir [Ramunni, G., 1989], pp. 30-32.
1 [Ledley, R. S., 1965], p. 288.
2 [Legay, J.-M., 1973b], p. 136.
3 Voir le chapitre de A. Tétry sur l’écologie in [Taton, R., 1964, 1995], p. 683.
4 L’« élément circulant » peut être de toute nature comme le remarque [Legay, J.-M., 1973b], pp. 122-123 : animal circulant entre divers lieux, cellules entre divers organes, hormones entre divers tissus, ion entre divers lieux d’une même cellule, atome entre divers molécules. On voit que cette technique met l’accent sur la généralité à toute échelle des phénomènes de flux et de « circulation » au delà-même des sciences de la vie et même des sciences de la nature car « l’élément circulant pourrait être une bille ou un automate quelconque », ibid., p. 123.
5 Sur un IBM 1620, [Sheppard, C. W., 1969], p. s15.
6 [Sheppard, C. W., 1969], p. s14.
7 [Sheppard, C. W., 1969], p. s14.
8 Ou « échantillonnage de modèle » selon l’expression qu’il reprend aux statisticiens cités eux-mêmes par [Marshall, A. W., 1954].
9 Traduction que nous proposons pour l’intraduisible ‘insight’ : “As Hamming has asserted ‘the purpose of computing is insight’ and our progress in this direction is often aided by the simulation of stochastic processes by the use of high-speed stored-program digital computers”, [Sheppard, C. W., 1969], p. s14. On reconnaît là un travers épistémologique qui pourrait en effet s’apparenter à une constante anglo-saxonne : ne pas se contenter d’abstraire mathématiquement, mais tâcher aussi de se représenter quasi-visuellement ce qui se passe dans le modèle phénoménologique ou abstractif, en gagner une sorte d’intuition constructive et donc souvent, il est vrai, mécaniste. Ce souci paraît absent des travaux français parce qu’ils semblent davantage sensibles à l’urgence de contrôler constamment le modèle à tous les niveaux avec des concepts biologiques déjà existants et reconnus par ailleurs.
1 [Cheruy, A., Gautier, C. et Pavé, A., 1980], p. 103.
2 Même si elle représente une tentative techniquement et épistémologiquement très significative de trouver un compromis entre la précision du numérique et la vitesse de l’analogique, nous ne nous étendrons pas ici sur la solution des calculateurs hybrides telle qu’elle a pu exister un temps et être mise en œuvre dans les années 1960. Selon nous, elle n’a pas joué de rôle absolument décisif dans l’histoire des formalismes intervenant dans les modélisations mathématiques. En effet, les propositions formelles tant du côté analogique que du côté numérique étaient de part et d’autres définies déjà durablement cela même avant l’intervention de cette technologie hybride. De plus, les langages de programmation commercialement disponibles n’ont pas suivi la complexification qu’imposait une telle hybridation.
3 Depuis les célèbres travaux d’A. L. Hodgkin et A. F. Huxley (1952), la neurophysiologie a confirmé la pertinence de ses très anciens modèles électriques en les étendant à l’électronique. Voir [Cole, K. S., 1955], pp. 152-155. En 1965, W. Reichardt du