Université Louis Lumière Lyon 2 Faculté de Géographie, Histoire de l’Art, Tourisme



Yüklə 8,85 Mb.
səhifə101/112
tarix25.07.2018
ölçüsü8,85 Mb.
#58113
1   ...   97   98   99   100   101   102   103   104   ...   112
ibid., p. 22) ne l’est plus lorsqu’il s’agit du produit des programmes de simulation, c’est-à-dire des simulations informatiques proprement dites. Comme nous le verrons, dans le cas des simulations réalistes de plantes, c’est plutôt la relation inverse qui est vraie : il y a une diversification des fonctions susceptibles d’être remplies par la simulation, cela par l’effet d’une intégration et d’une concrétion, ou co-croissance, des diverses caractéristiques structurelles. En ce sens, les simulations informatiques, dès lors qu’elles passeront pour des doubles d’une réalité complexe et qu’elles serviront à une extension du domaine de l’expérimentation, n’apparaîtront plus véritablement comme des objets techniques finalisés, pas plus qu’elles ne vaudront comme de simples calculs singuliers, ou instanciations, d’un modèle mathématique préalable.

1 Nous avons conscience de la simplification que nous faisons subir ici aux notions de lecture et de compréhension mathématiques. Comme le montre J.-T. Desanti [Desanti, J.-T., 1975], pp. 172-174, la « production d’un concept » mathématique et sa compréhension renvoient toujours à un travail de production (au sens d’une « explicitation », d’une « mise au jour ») et d’insertion de ce concept dans un contexte interprétatif déjà constitué comme tel, par ailleurs, parce que rendu opératoire. En cela, nous le suivons. Mais nous n’insistons pas ici sur le fait indéniable que ce contexte est lui-même à contextualiser pour prêter à compréhension (ce qui fait qu’il n’y a pas de compréhension pleine et définitive en mathématique), et cela sans doute sans fin. Nous nous contentons de nous appuyer ici sur le possible (et toujours réel) arrêt temporaire de ce processus d’emboîtement des contextualisations et des structures mathématiques dans une pratique interprétative particulière à la communauté mathématicienne de l’époque. C’est cela qui nous permet de définir ici, de façon certes limitée et historiquement contextualisée, la compréhension que l’expert a de tout symbole mathématique. Sur le symbole mathématique et sa toujours possible analyse en des termes opératoires plus élémentaires, voir également les réflexions de E. Ortigues inspirées de Bourbaki et Wittgenstein [Ortigues, E., 1962, 1977], pp. 171-176.

2 Par exemple, dans les actes du colloque State-of-the-Art in Ecological Modelling de 1978, présidé et édité par l’écologue modélisateur danois Sven Erik Jorgensen, on trouve encore quelques listes intégrales de programme. Ce sont essentiellement des listes de programme de simulation (avec modèle logico-mathématique donc) et non de modélisation mathématique de type Lotka-Volterra (donc avec des modèles mono-formalisés de type équations différentielles) car la nouveauté mathématique et informatique est alors du côté des approches par simulation. Il faut donc communiquer sur ce point. C’est le cas du travail de J. A. Meyer (écologue français qui travaillera ensuite en vie artificielle), et N. Pampagnin, membre du CEREQ (Centre d’Etude et de Recherche sur les Qualifications créé à Paris en 1973). Dans le cadre de l’ATP-CNRS (Action Thématique Programmée du CNRS) « Analyse des Systèmes » (contrat 3702), ils ont utilisé des ordinateurs du centre de calcul CIRCE du CNRS fonctionnant avec le langage SIMSCRIPT II pour simuler un système complexe de prédateurs-proies. La liste de leur programme fait déjà huit pages en tout : voir [Jorgensen, S. E., 1979], pp. 819-826. Le CIRCE était le Centre Interdisciplinaire Régional de Calcul Electronique d’Orsay. Il avait été créé à partir de l’Institut Blaise Pascal en 1970. Il a lui-même été supprimé et remplacé en novembre 1993 par l’IDRIS (Institut du Développement et des Ressources en Informatique Scientifique).

1 On a en effet affaire à quatre modules principaux qui correspondent chacun à un sous-modèle propre à un phénomène biologique particulier : la croissance de la tige, la croissance des rameaux, la verse de la tige et la flexion des rameaux. Ces quatre sous-modèles mathématiques sont enchevêtrés dans leurs usages : ils s’instrumentalisent les uns les autres successivement et mutuellement en fonction de conditions logiques déterminées par les résultats quantitatifs des sous-modèles eux-mêmes (conditions de branchement logique axées sur les dépassements des temps critiques ou des poids critiques des rameaux, etc.). La structure de l’automate, ou séquence des états logiques, d’un tel programme (pourtant très simple) dépend donc du fonctionnement de l’automate lui-même. On ne saurait donc se dispenser de son fonctionnement pas à pas pour en connaître la structure et la dynamique.

2 Rappelons que la machine HP 9820 ne disposait pour tout écran que d’une ligne de 16 diodes électroluminescentes dont la conception électronique ne permettait que l’affichage de combinaisons alphanumériques et non de dessins proprement dits. La conception électronique des LEDs faisait qu’elles ne disposaient chacune que de 35 « points lumineux » (matrice de 7 lignes sur 5 colonnes) qui pouvaient être alternativement rendus luminescents ou non en fonction de la structure logique du signal arrivant à leurs bornes. C’est cela qui leur permettait d’afficher uniquement des caractères alphanumériques. La machine devait donc recourir à un périphérique appelé « plotter », le HP 9862 A, littéralement un « traceur de points » et non une « imprimante », qui, de façon électromécanique, faisait circuler un stylo sur une surface plane sur laquelle on disposait (en fait on la fixait fortement pour ne pas que le passage du stylo l’arrache !) une seule feuille blanche. La machine reconnaissait cette surface d’écriture comme une matrice logique de points équivalents et indépendants les uns des autres. Le stylo circulait au-dessus de cette matrice au moyen d’une barre coulissante elle-même doublée d’un chariot coulissant susceptible d’abaisser le stylo sur la feuille, ou de le relever, quand il le fallait. Pour changer de couleur, il fallait changer le stylo par une intervention manuelle.

1 Dans quelle mesure peut-on admettre que l’on a validé un sous-modèle théorique intervenant dans une simulation globale à côté d’autres sous-modèles déjà validés, quand cette simulation globale elle-même semble validée ? À cause de l’enchevêtrement fondamental et explicite des sous-modèles, on ne peut pas décemment se reposer sur une hypothèse d’additivité des modèles permettant d’affirmer que les validations s’ajouteraient donc pourraient également se soustraire : SM1 (sous-modèle 1 validé) + SM2 (sous-modèle 2 à valider) = SIM (simulation globale validée) « donc » SM2 = SIM validée - SM1validé est « validé » ? On voit bien que l’enchevêtrement des SM est précisément ce qui empêche ce type de raisonnement. On pressent même qu’il faudrait une sorte d’« orthogonalité » (apparentée à celle qui peut intervenir entre des espaces vectoriels) entre les sous-modèles impliqués (ou leurs formalismes) pour que des opérations de validations indirectes de ce genre puissent être effectuées légitimement et en toute rigueur. Dans le milieu de la modélisation en sciences du vivant, ce type de préoccupation est devenu explicitement crucial seulement à partir du milieu des années 1990, essentiellement à partir de la modélisation orientée-objet : voir [Coquillard, P. et Hill, D. R. C. Hill, 1997], pp. 183-200. De son côté, en 1976, de Reffye ne se pose pas vraiment le problème dans toute sa rigueur, précisément parce qu’il considère en fait que la première partie de son article a déjà validé de façon autonome le sous-modèle de résistance à la verse. Il se pose un problème suffisamment simple pour que SM1 et SM2 puissent paraître tous les deux validés séparément avant la simulation globale. SM2 avait été en effet calibré et diversement testé, donc validé, par des expérimentations mécaniques indépendantes et directes sur les rameaux et sur la tige. De plus, il nous présente SM2 davantage comme une application des méthodes de la physique des matériaux que comme un simple transfert de modèle, ce qui aurait eu sinon pour effet de lui donner une moindre légitimité théorique.

2 [Reffye (de), Ph., 1976], p. 267.

1 [Café, Cacao, Thé, Vol. 21, n°2, 1977], pp. 86-88.

2 Association Scientifique Internationale du Café.

3 [Café, Cacao, Thé, vol. 22, n°1, 1978], p. 60.

1 Nous tirons cette information de notre entretien avec Philippe de Reffye [Reffye (de), Ph., Varenne, F, 2001].

32 [Massaux, F., Tchiendji, C., Misse, C. et Decazy, B., 1976], p. 167.

1 [Massaux, F., Tchiendji, C., Misse, C. et Decazy, B., 1976], p. 167.

2 Le style est, dans la fleur, la partie allongée du pistil qui se situe entre l’ovaire et le ou les stigmates.

1 J.-P. Parvais est ingénieur agronome de formation et docteur en physiologie végétale. À cette époque, il travaille également sur des souches spontanées de café Robusta haploïde et sur leur possible utilisation pour l’amélioration des hybrides déjà existants à l’IFCC.

2 Ces techniques de prélèvement, d’écrasement de la préparation et de coloration sont décrites dans l’article commun de 1977, [Parvais, J.-P., Reffye (de), Ph. et Lucas, P., 1977] aux pages 253 et 254.

3 [Massaux, F., Tchiendji, C., Misse, C. et Decazy, B., 1976], p. 165.

1 [Parvais, J.-P., Reffye (de), Ph. et Lucas, P., 1977], p. 254.

2 Le terme de « lois » est celui-là même des auteurs.

α [Parvais, J.-P., Reffye (de), Ph. et Lucas, P., 1977], p. 256.

3 Les auteurs indiquent qu’ils ne précisent pas la modélisation de ce processus au point de distinguer les « parts respectives d’auto- et d’allo-pollen », sachant en effet qu’une fleur peut recevoir le pollen de sa propre étamine sur son style. Dès lors que, du point de vue du résultat final, une telle précision peut sembler superflue, il ne leur semble pas utile de détailler le scénario jusqu’à ce point.

4 [Parvais, J.-P., Reffye (de), Ph. et Lucas, P., 1977], p. 256.

5 [Parvais, J.-P., Reffye (de), Ph. et Lucas, P., 1977], p. 256.

α[Parvais, J.-P., Reffye (de), Ph. et Lucas, P., 1977], p. 258.

1 Et non pas « qu’elle peut déterminer » et encore moins « qu’elle détermine en réalité » : pour une raison élémentaire de logique, la régénération ponctuelle d’événements aléatoires doit ne se présenter a priori que comme une reconstitution réaliste de la réalité et non comme une reconstitution de la réalité telle qu’elle s’est effectivement produite. En effet, la reconstitution aléatoire de l’aléa lui-même ne peut se donner qu’un réalisme faible comme idéal régulateur, c’est-à-dire un réalisme de ce qui est possible dans cette réalité visée, un réalisme du réel possible.

1 Dans un échange personnel de courrier électronique (du 6 juin 2003), de Reffye nous a confirmé que c’était bien sous l’instigation de ces physiciens qu’il avait commandé et acheté cet ouvrage autrement non accessible à Bingerville.

2 Depuis 1959, il existe une revue appelée Technometrics, publiée par l’American Statistical Association, et qui s’attache à présenter les méthodes statistiques appliquées aux sciences physiques, chimiques et de l’ingénieur. Le choix de ce néologisme a été clairement inspiré par le terme biometrics issu pour sa part du cercle des biométriciens anglais du tournant du siècle jusqu’à R.A Fisher. La revue Biometrics de la Société Internationale de Biométrie existe pour sa part depuis 1944.

3 On pourrait citer des ouvrages antérieurs qui sont patiemment répertoriés par [Naylor, T. H., Balintfy, J. L., Burdiock, D. S. et Chu, K., 1966] : par exemple l’article de Guy Orcutt, « Simulation of Economic System », de 1960, l’ouvrage de Charles P. Bonini de 1963 : Simulation of Information and Decision Systems in the Firm, celui de K. D. Tocher, de 1963 également : The Art of Simulation, ou encore celui de J. M. Hammersley et D. C. Handscomb de 1964 : Monte Carlo Methods. Il faudrait également rappeler que la revue Operations Research existe alors depuis 1952 et qu’elle répercute régulièrement les travaux plus fondamentaux des statisticiens ou de physiciens qui sont utilisateurs de la méthode de Monte-Carlo depuis 1945. Mais l’ouvrage de 1966 a ceci de marquant qu’il constitue une première synthèse raisonnée des différents usages de la simulation et des différentes techniques de mise en œuvre de simulations dans les domaines économiques ou industriels. Ces mises en œuvre offrent également l’avantage d’être présentées et structurées en référence constante avec un langage de programmation déjà devenu un standard : le FORTRAN. Enfin, les différents langages de simulation déjà disponibles à l’époque sont inventoriés et comparés.

1 Nous résumons ici l’argument de la page 5 de [Naylor, T. H., Balintfy, J. L., Burdiock, D. S. et Chu, K., 1966].

2 Dans le cadre d’un processus de création d’hypothèse de type baconien. Ce processus est totalement assumé comme tel par le philosophe Hans Reichenbach ([Reichenbach, H., 1951], pp. 25 et 35) que les auteurs citent à leur tour longuement, [Naylor, T. H., Balintfy, J. L., Burdiock, D. S. et Chu, K., 1966], pp. 4-5.

3 La précision du propos épistémologique des auteurs s’épuise pourtant là. Et ils ne lèvent aucunement dans le détail le paradoxe qu’il y a à parler du caractère empirique des résultats d’une simulation. Il est vrai qu’une approche positiviste et empiriste globale les dispense, en un sens, de se poser la question, dès lors que ce qui est défini comme empirique est seulement ce qui prête globalement à deux types d’attitudes intellectuelles : soit à une induction, soit à un test de prédiction. Dans une perspective positiviste, ces deux attitudes intellectuelles du scientifique se retrouvent en effet aussi bien dans le rapport à l’empirie effective que face aux résultats de simulation sans qu’il y ait donc lieu de distinguer dans le détail ces deux rapports. Il s’agit là d’une position du problème proche de celle que Peter Galison nommera « épistémique ». C’est une position principalement attentive aux moyens et aux pratiques de traitements des résultats simulés : « stabilité, recherche d’erreur, réduction de variance, répétitivité », [Galison, P., 1996], pp. 143-144. Dans cette perspective, les identifications avec l’expérimentation réelle sont en effet plus aisées car paraissant de fait plus évidentes.

4 [Naylor, T. H., Balintfy, J. L., Burdiock, D. S. et Chu, K., 1966], p. 9.

5 Pour cet encadré, nous nous sommes inspiré du chapitre 3 de [Naylor, T. H., Balintfy, J. L., Burdiock, D. S. et Chu, K., 1966], pp. 43-67.

1 En 1955, la RAND Corporation a publié aux éditions The Free Press, (Glencoe, Illinois) : A Million Random Digits with 100,000 Normal Deviates.

2 [Naylor, T. H., Balintfy, J. L., Burdiock, D. S. et Chu, K., 1966], p. 46. En 1946, von Neumann et Metropolis avaient introduit la méthode dite du « milieu du carré » (mid-square method) qui consistait à prendre le carré du nombre aléatoire précédent et à ne conserver que les chiffres du milieu pour le nombre aléatoire suivant. Mais, en 1951, cette méthode avait été critiquée par le mathématicien américain spécialiste en analyse numérique G. E. Forsythe (qui, après avoir rejoint l’Université de Stanford en 1957, allait devenir le fondateur du département de Computer Science en 1965 et allait y former des générations d’informaticiens théoriciens comme Cleve Moler ou Donald Knuth) pour sa lenteur et pour ses qualités statistiques médiocres au regard des tests. Cette séquence pseudo-aléatoire ne pouvait donc totalement remplacer le recours aux séquences de nombres aléatoires tabulées et publiées. Signalons qu’une séquence pseudo-aléatoire est une séquence construite par une méthode mathématique déterministe mais dont les propriétés statistiques sont satisfaisantes. Pour l’usage que l’on en fait, on peut montrer que la réussite à ce genre de tests suffit dans la plupart des cas. Entre-temps, en 1930, le mathématicien américain Derrick H. Lehmer avait soutenu à l’Université Brown une thèse remarquée sur des fonctions de Lucas (primitivement introduites par le mathématicien français Edouard Lucas (1848-1891) et décrivant des séquences de nombres entiers à récurrence linaire, c’est-à-dire dont le kième nombre est calculé arithmétiquement à partir des (k-1)ièmes nombres précédents, comme la « suite de Fibonacci ») et pouvant servir à des tests de primarité (propriété des nombres dits « premiers » de n’être pas divisibles par d’autres nombres que 1 et eux-mêmes). Par la suite, entre 1949 et 1951, alors qu’il est devenu membre du Département de Mathématiques de Berkeley, Lehmer propose une série de méthodes de génération de nombres pseudo-aléatoires par congruence. Ce sont des méthodes de génération arithmétique qui associent une récurrence linéaire à un calcul de congruence de façon à ce que le nombre trouvé reste toujours dans l’intervalle [0, m-1], m étant l’entier qui exprime la valeur module. Le nombre suivant est donc calculé comme étant le reste de la division entière par le module du résultat de la récurrence linéaire auparavant effectuée sur le ou les nombres pseudo-aléatoires précédents (que ce soit une récurrence linéaire additive, multiplicative ou mixte). Cette méthode l’a finalement emporté parce que ses avantages sont au moins au nombre de deux : technologique d’abord, mathématique ensuite. Technologique parce que si l’on s’arrange bien, dès lors que l’on a affaire à un ordinateur numérique, qu’il soit décimal ou binaire, les divisions peuvent être réduites à un simple retrait ou à un décalage de bits dans le codage des nombres, ce qui assure une rapidité de traitement quasi-optimale. Mathématique, parce qu’il se trouve que ce mode de génération inspiré des fonctions de Lucas se prête bien plus facilement à l’évaluation par les tests statistiques que la méthode du « milieu du carré » par exemple. Pour les informations sur la carrière de D. H. Lehmer, nous avons notamment consulté le site à vocation historique de l’Université de Berkeley, [Lehmer, D. H., 2001].



1 [Parvais, J.-P., Reffye (de), Ph. et Lucas, P., 1977], p. 259.

1 [Parvais, J.-P., Reffye (de), Ph. et Lucas, P., 1977], p. 261.

2 [Parvais, J.-P., Reffye (de), Ph. et Lucas, P., 1977], p. 260.

1 [Parvais, J.-P., Reffye (de), Ph. et Lucas, P., 1977], p. 260.

2 Ce qui pourrait paraître paradoxal à première vue. L’insertion de l’aléa dans le modèle n’est-elle pas gage d’imprécision ? Retrouvant sur ce point l’intuition de R. A. Fisher au sujet des modèles statistiques, des spécialistes en recherche opérationnelle, comme Dimitri N. Chorafas par exemple, ont assez vite considéré que l’approximation est affaire de décision eu égard à l’échelle privilégiée : dans certains cas, le modèle déterministe est une approximation et c’est le modèle stochastique qui est plus « voisin de la réalité », [Chorafas, D. N., 1966], pp. 32-33.

me Voir [Café, Cacao, Thé, Vol. 22, n°1, 1978], p. 62. À ce colloque sur le cacao, il existe en tout treize sessions techniques : 1- résistance aux maladies, 2- épidémiologie, 3- protection des plantes, 4- virologie, 5- phytopathologie en général, 6- mirides, 7- pollinisateurs, 8- insectes déprédateurs secondaires, 9- sélection et agronomie, 10- pédologie, 11- économie, 12- technologie, 13- assistance technique et vulgarisation.

1 Avec l’introduction de la simulation aléatoire dans la dynamique d’une population au moyen de processus stochastiques de naissance et de mort. Ces travaux ont été publiés par Leslie dans la revue « Biometrika ». Voir supra. Précisons ici que leur auteur avait d’abord calculé les occurrences des événements de ses modèles à la main avant même d’utiliser des calculateurs automatiques. Voir [Leslie, P. H., 1945] et [Leslie, P. H., 1958]. La communauté des chercheurs en dynamique des populations n’a donc pas attendu l’émergence des calculateurs numériques pour avoir l’idée non seulement de prendre en compte l’aléa mais aussi et surtout de le reconstituer, de le régénérer, dans ses modèles.

2 [Café, Cacao, Thé, Vol. 22, n°1, 1978], pp. 62-63.

1 Où figure, en plus des précédents (Parvais, de Reffye, Lucas), le nom du généticien de l’IFCC G. Mossu.

1 Nous considérerons ici que c’est principalement de Reffye qui a imprimé sa structure rigoureuse à l’ensemble de ce travail collectif. Outre le fait qu’il s’est trouvé être le premier signataire de l’article de 1978, il y a dans ce travail, comme nous le verrons, une forte parenté avec ses travaux plus personnels de 1975 et 1976, aussi bien dans l’argumentation générale que dans la technique de modélisation

2 [Reffye (de), Ph., Parvais, J.-P., Mossu, G. et Lucas, P., 1978], p. 251.

3 [Reffye (de), Ph., Parvais, J.-P., Mossu, G. et Lucas, P., 1978], pp. 258 et 260.

1 À la fin des années 1960, Gérard Calot était Administrateur au service de la démographie de l’INSEE ainsi que professeur de statistiques et probabilités à l’ENSAE (Ecole Nationale Supérieure de la Statistique et de l’Administration Economique). Comme il se doit, dans son fameux Cours de probabilités comme dans son Cours de statistiques descriptives, respectivement publiés en 1967 et 1969 (et que de Reffye connaît et cite dans l’article de 1978), son approche et ses exemples sont nettement inspirés de problématiques économiques. En, 1972, Calot deviendra directeur de l’INED (Institut National d’Etudes Démographiques).

2 Cette information nous a été donnée lors d’un entretien personnel avec Philippe de Reffye que nous avons eu par courrier électronique le 6 juin 2003.

3 Nous avons repris ici les notations de [Reffye (de), Ph., Parvais, J.-P., Mossu, G. et Lucas, P., 1978], p. 255.

1 [Reffye (de), Ph., Parvais, J.-P., Mossu, G. et Lucas, P., 1978], p. 254.

2 [Reffye (de), Ph., Parvais, J.-P., Mossu, G. et Lucas, P., 1978], p. 255.

1 On dit qu’un grain de pollen sur le style est efficace si : « 1- il germe, 2- il pénètre dans l’ovule, 3- il empêche toute pénétration ultérieure dans cet ovule, qui n’est donc plus disponible », [Reffye (de), Ph., Parvais, J.-P., Mossu, G. et Lucas, P., 1978], p. 256.

2 [Reffye (de), Ph., Parvais, J.-P., Mossu, G. et Lucas, P., 1978], p. 257.

1 [Reffye (de), Ph., Parvais, J.-P., Mossu, G. et Lucas, P., 1978], p. 257. C’est nous qui soulignons.

2 La courbe globale étudiée est, comme nous l’avons dit, celle qui représente le nombre de cabosses ayant un nombre donné de graines par cabosse. C’est elle qui peut présenter trois types de faciès différents.

3 Il y a d’autres particularités biologiques qui font également varier l’importance relative des sous-modèles les uns à l’égard des autres de façon quantitative, notamment le flétrissement des cabosses. Nous ne les restituerons pas ici dans le détail.

4 Comme on fait une analyse mathématique qualitative de certains phénomènes physiques par des considérations générales sur l’allure de leur courbe représentative.

1 [Reffye (de), Ph., Parvais, J.-P., Mossu, G. et Lucas, P., 1978], p. 264.

1 [Reffye (de), Ph., Parvais, J.-P., Mossu, G. et Lucas, P., 1978], p. 264. Dès 1949, on s’aperçoit que parmi les usagers de la méthode de Monte-Carlo, il y a un consensus (dont Naylor et Balintfy se feront l’écho ensuite en 1966) sur l’évolution des usages de cette méthode : on serait passé d’un usage de la méthode comme technique de résolution numérique stochastique de problèmes formalisés de façon déterministe (avec les travaux de von Neumann, Ulam et Metropolis) à son usage comme technique de traitement de problèmes directement stochastiques. Voir [Marshall, A. W., 1954]. En fait, dès l’origine, il est possible d’interpréter le recours à cette technique également dans ce deuxième sens. Ce qui montre son ambivalence originelle et sa difficulté à entrer dans les catégories épistémiques classiques.

1 [Reffye (de), Ph., Parvais, J.-P., Mossu, G. et Lucas, P., 1978], p. 264.

2 [Reffye (de), Ph., Parvais, J.-P., Mossu, G. et Lucas, P., 1978], p. 273.

1 En 1979, au début du mémoire de sa thèse d’Etat, de Reffye remerciera personnellement J. Capot pour son implication dans cet achat décisif.

2Un tel achat représentait en effet un investissement assez lourd. Dans la fiche technique du HP 9825 disponible sur le site du HP Museum, on trouve que le prix de base du HP 9825 était de 5900 dollars en 1976. La table traçante coûtait pour sa part 485 dollars. Voir [Hicks, D., 1995-2002], plus précisément : http://www.hpmuseum.org.hp9825.htm.

1 Voir sur ce point [Ramunni, G., 1989], p. 146.

2 Pour ces données techniques, nous nous sommes notamment appuyé sur [Hicks, D., 1995-2002], http://www.hpmuseum.org.hp9825.htm.

3 Voir [Hicks, D., 1995-2002], http://www.hpmuseum.org.hp9825A.htm.

1 Cette phrase est tirée du catalogue HP de 1977, section « 
Yüklə 8,85 Mb.

Dostları ilə paylaş:
1   ...   97   98   99   100   101   102   103   104   ...   112




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©muhaz.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin