1 Voir supra et [Giegerenzer, G. et al., 1989, 1997], pp. 110-113. De Reffye ne cite pas Fisher dans sa bibliographie mais il cite l’ouvrage français faisant référence dans les années 1970, le monumental (deux tomes d’environ 600 pages chacun) Analyse de données de J.-P. Benzécri, paru en 1973. Toutefois son approche n’est pas absolument biométrique encore moins « analytique » au sens de l’analyse de données de Benzécri puisque l’école qu’il connaît et qu’il suit le mieux est celle de la génétique formelle. Or, cette école a d’abord pu se présenter comme non modéliste, c’est-à-dire comme n’ayant pas eu à renoncer à la théorisation mathématique, mécanique et explicative des phénomènes biologiques, dans la mesure où son approche se concentrait sur le niveau individuel des gènes et sur les caractères observables de nature discrète. Voir [Giegerenzer, G. et al., 1989, 1997], p. 145. Elle ne s’est présentée comme « modéliste » qu’après sa conciliation avec la biométrie dans les travaux de Fisher, notamment. De son côté, l’école de Benzécri, très influente dans la France des années 1960-1970, a pu sembler un moment dissidente dans la réconciliation fishérienne des approches biométrique et mendélienne autour de la notion de modèle, en ce qu’elle a préféré « appréhender directement les faits dans leur complexité, sans l’interposition d’un modèle plus ou moins conventionnel », [Vessereau, A., 1947, 1992], p. 127. Cette école a davantage insisté sur le moment inductif du recours aux statistiques. Mais elle a négligé le moment déductif du recours aux lois de probabilité. En effet, le passage de l’un à l’autre se fait sans certitude rationnelle mais seulement conformément à une certitude pratique. Voir [Vessereau, A, 1947, 1960, 1988], pp. 27-28. Rompant avec les perspectives de la biométrie française, c’est avec cette seule certitude pratique que de Reffye décide de travailler et de poursuivre son enquête rationnelle dans le second travail de 1974. Donc, même s’il cite l’ouvrage de Benzécri (comme on cite un ouvrage incontournable dans une bibliographie), en réalité il n’en suit pas la philosophie ultra-empiriste. C’est en ce sens qu’il se juge davantage impressionné et influencé par ce qu’il appelle les « modèles » de la physique mathématique classique qu’on enseigne dans les classes préparatoires. Il est donc plus proche de Fisher que de Benzécri. Il va même au-delà parce qu’il connaît les modèles probabilistes de la recherche opérationnelle.
2 [Reffye (de), Ph., 1975], p. 1.
1 Une loi binomiale intervient lors d’épreuves répétées sur des événements complémentaires. Ainsi, si l’univers se réduit à deux événements, lorsque l’on répète n fois le tirage aléatoire entre ces deux événements, les probabilités respectives de ces deux événements, p et 1-p, se composent pour former celles de leurs différentes combinaisons. Les valeurs de ces probabilités composées sont alors égales aux termes successifs du binôme de Newton ((1-p) + p )n (d’où le nom de loi binomiale) : la probabilité globale que l’événement dont la probabilité élémentaire est p se répète k fois sur n tirages est donc Pk = Cnk pk (1-p)n-k.
1 L’interprétation objectiviste est celle qui consiste à voir dans les mesures statistiques la manifestation d’un hasard objectif intervenant dans les phénomènes eux-mêmes. Elle va souvent de pair avec une perspective modéliste selon l’historien et sociologue des sciences Ian Hacking [Hacking, I., 1990, 2001], p. 98 : « the fundamental distinction between ‘objective’ and ‘subjective’ in probability – so often put in terms of frequency vs. belief – is between modelling and inference. » L’interprétation subjectiviste attribue ces fluctuations aléatoires à l’impossibilité de notre total contrôle ou de notre totale connaissance des conditions dans lesquelles nous mesurons ces phénomènes. Or, l’approche modéliste de la fructification semble pouvoir donner raison aux deux. Tout dépend du niveau ontologique que l’on choisit de valoriser. Si l’on juge plus réel, c’est-à-dire plus ontologiquement fondé, le niveau des processus physico-chimiques, on considérera que l’échelle plus agrégée de manifestation des caractères de la fructification, en faisant intervenir des lois de probabilité, hérite de l’ignorance dans laquelle nous sommes à l’égard de ces phénomènes élémentaires. On optera alors pour une interprétation subjectiviste du modèle de fructification et on ne verra pas là de rupture majeur avec le courant dominant de la biométrie française. Mais si l’on ontologise préférentiellement le niveau de la graine et du fruit, ce qui peut aussi se justifier, par exemple dans un cadre agronomique (c’est ce que l’on appelle alors faire de la science « pragmatique » : mais cette qualification est finalement très relative comme on le voit), alors c’est ce niveau de la graine qui sera considéré comme élémentaire. Et, à ce niveau, on pourra tout aussi bien considérer qu’on a affaire à un hasard « objectif », d’où une interprétation que nous pouvons qualifier en ce cas de quasi-objectiviste. Par là le formalisme se trouve presque ré-enraciné.
2 Dans notre présentation, nous simplifions le modèle de de Reffye, dans la mesure où il faudrait tenir compte, comme lui, du fait qu’il y a deux loges dans une cerise et non une seule. Mais cette considération ne ferait que compliquer le calcul sans modifier pour autant les principes généraux mis en œuvre.
1 [Reffye (de), Ph., 1975], p. 7.
2 [Giegerenzer, G. et al., 1989, 1997], p. 79.
2 [Reffye (de), Ph., 1975], p. 10.
3 [Reffye (de), Ph., 1975], p. 13.
4 [Reffye (de), Ph., 1975], p. 31.
5 Il s’agit de l’indépendance entre deux grains voisins pour la manifestation du même genre d’événements dans la maturation.
1 Ce qui pourrait lui être contesté. C’est donc bien une décision de sa part. Car, comme de nombreux mathématiciens le rappellent depuis la naissance des tests de signification (même si cela fait justement encore débat), il n’y pas de raison de type purement logique qui nous autorise à passer d’une fréquence analysée à une probabilité synthétisée. L’objectivité de la fréquence mesurée n’est pas de même nature que l’objectivité de la probabilité supposée à partir de la fréquence mesurée. On retrouve là une caractéristique plus générale des modèles mathématiques : si un modèle est possible, alors un autre modèle est toujours également possible. De Reffye s’appuie ici nettement sur une certitude pratique et non sur une certitude logique, c’est-à-dire qui viendrait des règles axiomatisées et internes de l’outil statistique.
2 [Reffye (de), Ph., 1975], p. 71.
1 [Demarly, Dattée, Kammacher, Essad, 1975], p. 1.
2 [Demarly, Dattée, Kammacher, Essad, 1975], p. 1.
3 [Demarly, Dattée, Kammacher, Essad, 1975], p. 3. C’est nous qui soulignons.
1 Ce colloque s’était tenu à Paris du 20 au 22 mai 1963. La majorité des participants étaient français.
3 Sur l’index des 2 CD-Rom contenant l’intégralité des articles de la revue Café, Cacao, Thé ([Café, Cacao, Thé, CD I] et [Café, Cacao, Thé, CD II]), les mots clés « modèle », « modèle mathématique », « modèle de simulation » ne renvoient qu’aux différents articles de de Reffye de 1976 à 1983 ainsi qu’à deux articles de D. Snoeck de 1991 et de 1993, et enfin à un article de P. Lachenaud de 1993.
1 [Marticou, H. et Muller, R., 1964], p. 173.
2 [Marticou, H. et Muller, R., 1964], p. 201. Pour rappeler la nécessité de ces hypothèses, les auteurs s’appuient (ibid., p. 181) sur le manuel des statisticiens français E. Morice et F. Chartier : Méthode statistique, tome II (Analyse statistique), publié par l’INSEE en 1954.
3 Voir [Lotodé, R., 1971] : « Il s’agit en fait : […] de déterminer une taille de parcelle élémentaire optimum, qui pourra dépendre des circonstances (présence ou absence de lignes de bordure autour des parcelles élémentaires, nécessité dans certains cas de l’effet de masse, disponibilité en surface, personnel et crédit), mais qui donnera dans chaque cas le maximum de précision. »
4 À la fin des années 1960, R. Lotodé est un ingénieur agronome de l’INA de Paris. Il est nommé d’abord « Maître principal de recherches » à l’ORSTOM. C’est à ce poste qu’on le retrouve notamment dans ses premières publications. Il est simple membre de la « Section de biométrie de l’IFCC au Cameroun » alors que J. Dejardin, statisticien et Directeur de recherches à l’ORSTOM en est encore le responsable en titre. À partir de 1969, R. Lotodé obtient cependant le poste de chef de ce qui s’appellera alors « Division de biométrie de l’IFCC au Cameroun ». Il rentre à Montpellier en 1977. Et il devient ensuite chef du « Service de Biométrie de l’IFCC à Montpellier », de 1981 à 1987, service dans lequel il contribuera essentiellement à développer l’analyse multivariée des données.
1 Lotodé cite L. R. Taylor comme source de ce travail mais sans donner de référence précise. Son article de 4 pages est d’ailleurs dépourvu de bibliographie.
2 [Lotodé, R., 1969], p. 216. C’est nous qui soulignons.
3 [Lotodé, R., 1969], p. 219.
4 [Lotodé, R., 1969], p. 219.
1-1/2b [Lotodé, R., 1969], p. 219. C’est nous qui soulignons.
1 Voir, en plus de l’article précédemment cité, [Lotodé, R., 1971] et [Bruneau de Miré, Ph. et Lotodé, R., 1974].
2 [Lotodé, R. et Jadin, P., 1981]. L’ingénieur agronome P. Jadin est alors chef de la section de pédologie de l’IFCC en Côte-d’Ivoire.
3 Voir sur ce point [Lotodé, R., 1971], p. 91.
4 [Lotodé, R., 1971], p. 91.
1 [Reffye (de), Ph. et Snoeck, J., 1976], p. 11.
2 [Reffye (de), Ph. et Snoeck, J., 1976], p. 11.
1 À en croire sa bibliographie ([Reffye (de), Ph. et Snoeck, J., 1976], p. 31), il s’agit en fait de chercheurs indiens fidèles à la tradition biométrique anglo-saxonne : N. A. Awatramani et H. Subramanya pour la première solution critiquée, C. S. Srinivasan pour la deuxième solution. Ces trois auteurs ont publié leurs analyses dans la revue indienne Journal of Coffee Research (Balehonnur), respectivement en 1973 et 1972.
2 [Reffye (de), Ph. et Snoeck, J., 1976], p. 11.
3 [Reffye (de), Ph. et Snoeck, J., 1976], p. 11.
1 On pourrait observer de semblables retournements critiques dans d’autres travaux de la même époque en sciences de la vie. Nous aurons ainsi l’occasion de voir que les milieux de la foresterie américaine commencent eux aussi à rejeter ce primat donné au calcul massif, rassurant par son apparente objectivité et facilité, mais souvent insignifiant à bien des égards. À partir des années 1970, ils vont eux aussi se tourner vers la modélisation. Voir sur ce point notre entretien avec François Houllier [Houllier, F. et Varenne, F., 2000].
2 L’école de Benzécri restera influente très longtemps dans les milieux des sciences humaines et sociales dans la mesure où ces disciplines ne se poseront pas tout de suite, ni dans les mêmes termes, la question que se posa en revanche assez tôt l’agronomie, à savoir : comment est-il possible de rendre opérationnelles nos spéculations ? Elle sera donc vite évincée dans les sciences de la vie orientées vers l’opérationnel, sauf dans la pure analyse de données appliquées à la médecine où elle restera par la suite cantonnée, car le primat de la physiologie règnera encore longtemps dans la biomédecine. Il y a donc bien une façon spéculative de recourir à la biométrie et aux statistiques.
1 [Reffye (de), Ph. et Snoeck, J., 1976], p. 11.
2 [Reffye (de), Ph. et Snoeck, J., 1976], p. 11.
3 Analyser et minimiser la variance revient notamment à découvrir les axes d’inertie de ce nuage de points et à exprimer ensuite les données dans ce nouveau référentiel. Voir [Lagarde (de), J., 1995], pp. 21-24.
1 [Beaumont, J. H., 1939], p. 223. L’horticulteur et botaniste J. Herb Beaumont est nommé directeur de la station expérimentale d’Hawaii en 1936. Il sera ensuite reconnu à Hawaii et dans le reste des Etats-Unis pour avoir étudié en 1953 et rapporté d’Australie à Hawaii, puis au département californien de science horticole, une variété d’arbre à noix de Macadamia présentant de grandes qualités ornementales. Sur décision de la « California Macadamia Society », cette variété portera ensuite son nom à partir de 1965.
2 [Reffye (de), Ph. et Snoeck, J., 1976], p. 11. Voir la conclusion de [Beaumont, J. H., 1939], p. 234 : “[It may be concluded ] that the volume of the crop is largely determined by the growth made in the preceding growing and crop season” .
3 [Reffye (de), Ph. et Snoeck, J., 1976], p. 11. Voir [Beaumont, J. H., 1939], p. 230 : “The best simple expression of the independent relationships of yield on the several estimates of tree growth and size is provided by the partial regression coefficients according to the equation (y-) = bl (l - ) + bt (t - ) + bc (c - ) where y = 1937 individual-tree yield of cherry coffee in pounds ; l = 1937 average lateral growth per tree in inches ; t = 1936 average terminal growth of verticals per tree in inches ; and c = sum of the squared circumferences of verticals per tree in 1937 in squared centimeters.”
1 Voir la littérature citée par [Beaumont, J., H., 1939], p. 223 et rapportée dans sa bibliographie page 235.
1 [Reffye (de), Ph. et Snoeck, J., 1976], p. 11.
2 La dialectique du point représentatif et de la surface spatialisée est une métaphore très ancienne dans l’histoire des théories de la connaissance et de la représentation. Voir [Köhler, P., 1912], passim. Elle a été brillamment mise en œuvre dans l’épistémologie métaphysique de Leibniz car elle fait corps avec le système philosophique tout entier. C’est en général ce genre de métaphores empruntées à la géométrie projective qui dominent encore les analyses de l’époque moderne et contemporaine sur la question de la connaissance humaine et de son pouvoir abstractif. Bachelard lui-même y a encore eu recours. Voir [Bachelard, G., 1928, 1973], pp. 17-18.
1 [Reffye (de), Ph. et Snoeck, J., 1976], pp. 11-12.
2 Voilà le genre de distorsion qui peut exister entre les motivations conscientes des acteurs et les conséquences effectives de leurs actes ; ce qui ne peut être accessible que d’un point de vue historique et compréhensif. On en peut saisir ici un cas exemplaire. Tel est aussi un des facteurs, difficilement réductibles, de la contingence des faits historiques.
1 C’est notamment le cas pour le modèle sigmoïde qu’ils vont s’autoriser à reprendre. Sans référence précise faisant autorité, ils invoqueront seulement, et en général, les études antérieures sur la temporalité des phénomènes de croissance. Rappelons que ces travaux classiques sur la forme sigmoïde remontent au 19ème siècle, notamment à la loi de Verhulst. Voir [Lotka, A. J., 1925, 1956], pp. 69-71.
2 Cette dissociation des processus est donc bien en quelque sorte la première hypothèse ou hypothèse fondamentale de la modélisation dissociée puis informatiquement recombinée qui va suivre.
1 Cette expérience de clarification des concepts et des notions par la reformulation pour l’ordinateur a été souvent faite par les concepteurs de systèmes experts dans tous les domaines. Pour la biologie, voir notre entretien avec Alain Coléno, |Coléno, A. et Varenne, F., 2001].
2 [Reffye (de), Ph. et Snoeck, J., 1976], p. 13.
3 [Reffye (de), Ph. et Snoeck, J., 1976], p. 14. C’est nous qui soulignons.
1 Voir [Cox, D. R., 1958], chapter 2, pp. 15-22. Dans ce chapitre, l’auteur analyse et énumère les trois « hypothèses clés » nécessaires à la bonne tenue d’un plan d’expériences statistiques : additivité des traitements, constance des traitements, non interférence des traitements d’une unité (ou d’un bloc expérimental) avec le comportement d’une autre unité. Voir la note suivante pour la question de l’additivité.
2 On peut se référer sur ce point à [Vessereau, A., 1947, 1988], p. 196 : « Cette hypothèse [d’additivité] se résume en disant qu’il n’y a pas d’interaction A*B entre les effets des facteurs contrôlés A et B. En d’autres termes, le facteur A par exemple n’agit pas différemment suivant la façon différente dont agit de son côté le facteur B (variantes B1, B2, …) ; A et B interviennent indépendamment l’un de l’autre et leurs effets s’ajoutent purement et simplement. » [C’est l’auteur qui souligne.] Voir également [Lagarde (de), J., 1995], p. 131 : pour procéder à une analyse de variance simple, « l’effet global doit être égal à la somme des effets individuels ». D’où la fréquente construction de modèles mathématiques purement additifs pour représenter les effets des facteurs contrôlés. Dans le cas où l’on fait néanmoins intervenir les interactions, on le fait sous la forme de multiplication des contributions des facteurs contrôlés (A*B). Il en résulte un problème majeur d’interprétation des résultats. Voir [Vessereau, A., 1947, 1988], p. 298 : « Il est souvent préférable, dans des cas aussi complexes, de renoncer aux avantages théoriques que présente la décomposition systématique de la somme des carrés QT [termes carrés des effets de l’interaction A*B], et de tester directement telles hypothèses particulières dont on désire prouver la validité. » Autrement dit, quand les phénomènes sont fortement non-linéaires et qu’il intervient des termes quadratiques, il faut les modéliser au lieu d’analyser la variance de leurs facteurs.
3 Dans la plupart des cas de modélisation, cela peut sembler un coup de poker que de se donner a priori la forme fonctionnelle précise du modèle, de surcroît non-linéaire, pour en estimer ensuite directement les paramètres sans même se poser auparavant la question de la pertinence de cette forme elle-même. À partir des années 1950, les développements en probabilité, principalement sous l’impulsion de recherches en reconnaissance de formes, vont d’ailleurs proposer des techniques d’estimation de la forme fonctionnelle du modèle dans le cadre de ce que l’on a appelé l’analyse non-paramétrique. Or, ce problème n’est pas posé par nos auteurs. Mais remarquons justement que, dans le cas qui les occupe, s’il y a bien un a priori, ila plutôt joué en amont, c’est-à-dire avant la suggestion de la forme du modèle, sous la forme d’une connaissance biologique particulière (qui dans un autre contexte aurait pu sembler de peu d’importance) : les auteurs se sont appuyés sur des connaissance botaniques et biologiques précisément afin de trouver de quoi fractionner précisément le phénomène réel en étapes favorables à la modélisation, c’est-à-dire susceptibles de suggérer d’elles-mêmes assez facilement et intuitivement (sans gros coup de poker donc) des formes de modèles simples, bien que non-linéaires. La capacité qu’ont les auteurs à exprimer ces sous-modèles sous des formes fonctionnelles a priori simples dépend donc en fait directement du choix antérieur du fractionnement lui-même.
1 [Reffye (de), Ph. et Snoeck, J., 1976], p. 15.
-rt [Reffye (de), Ph. et Snoeck, J., 1976], p. 18.
1 [Reffye (de), Ph. et Snoeck, J., 1976], p. 18.
1 [Reffye (de), Ph. et Snoeck, J., 1976], p. 17. Le rappel sur les ∆T a pour fonction de nous préparer ici à intégrer les nombres de rameaux dans l’organigramme général de traitement de la croissance, c’est-à-dire dans le traitement combiné du second modèle partiel par le premier modèle partiel.
2 [Reffye (de), Ph. et Snoeck, J., 1976], pp. 18-19.
3 Nous simplifions ici les réflexions. Les auteurs traitent également du cas où le rameau plagiotrope ramifie à son tour ([Reffye (de), Ph. et Snoeck, J., 1976], pp. 20-22). Ce qui intervient pour le clone Robusta 126. Mais cette complication ne change pas l’esprit de la méthode adoptée et peut donc être mise de côté sans grand dommage pour notre exposé.
4 [Reffye (de), Ph. et Snoeck, J., 1976], p. 23.
1 Ce résumé simplifié s’inspire directement de l’organigramme symbolique qui est figuré dans l’article à la page 23.
2 [Reffye (de), Ph. et Snoeck, J., 1976], p. 23.
1 Pour les données techniques de ce passage, nous nous sommes aidé de [Hicks, D., 1995-2002], notamment de la fiche technique de la HP 9820 disponible plus précisément à l’adresse www.hpmuseum.org/hp9820.htm.
2 La « Monroe Calculator Company » a été fondée en 1912 aux Etats-Unis. Cette firme a commercialisé parmi les premières machines électriques à additionner. Ces dernières étaient d’ailleurs souvent construites en Italie pour le compte de Monroe. Les machines électroniques Monroe ont ensuite été parmi les premiers calculateurs électroniques de bureau à transistors et à circuits intégrés. Elles ont été construites à partir de 1968, essentiellement au Japon, sur le modèle de machines Canon. La politique de la compagnie Monroe a consisté à ne pas concevoir de machines programmables mais à proposer des mémoires (avec des registres fonctionnant par délai acoustique, fabriqués par NEC) et des fonctions scientifiques assez complexes en accès direct sur le clavier, notamment dans les versions dites « 1920 » du milieu des années 1970. La logique de conception et d’utilisation y restait donc fondamentalement arithmétique et non algébrique. Ces machines coûtaient alors entre 700 et 1300 dollars de l’époque. Pour ces informations, nous nous sommes appuyé sur des documents diffusés sur Internet : [Bensene, R., 2002] et [Monroe Computer Museum of America, 2002].
3 Dans la partie « Remerciements » de sa thèse d’Etat de 1979, de Reffye remerciera nommément et personnellement tous les assistants de recherche qui l’ont aidé, dont Valentin Yapo. Dans leur grande majorité, ces techniciens sont des autochtones en poste à l’IFCC.
1 Pour une présentation technique, voir notre annexe D.
2 C’est la tendance qu’ont les caféiers ou d’autres arbres à voir leur tige ou leurs rameaux plier sous la charge des fruits qu’ils portent.
3 [Reffye (de), Ph., 1976], p. 251.
me [Reffye (de), Ph., 1976], p. 252.
1 [Lemaître, J., 1990, 1995], Introduction, p. 904. La discipline qui correspond à la « résistance des matériaux » regroupe de façon composite un ensemble de théorisations des différents types de comportements des matériaux : mécanique générale, mécanique des solides, mécanique des milieux continus (dont la rhéologie). Signalons qu’à la même époque (1975), le CNRS se dote d’un département des Sciences Pour l’Ingénieur (SPI) dont [Ramunni, G., 1995] raconte la naissance controversée puis l’évolution postérieure. Toujours est-il que dès 1975, la section IV de ce nouveau département est pleinement et explicitement dédiée à la « mécanique et à l’énergétique ». Plus précisément, la sous-section dite « mécanique » rassemble les disciplines suivantes : « mécanique des fluides, mécanique des solides, rhéologie et mécanique des sols, mécanique des vibrations et acoustique, mécanique générale » [Ramunni, G., 1995], p. 68, n. 24. À cette date, la « résistance des matériaux » est donc bien considérée comme une « science pour l’ingénieur ».
1 [Reffye (de), Ph., 1976], p. 255.
2 [Reffye (de), Ph., 1976], p. 254.
3 De Reffye rappelle qu’« on peut le démontrer » mais il ne le redémontre pas lui-même. Il s’appuie sur des cours de résistance des matériaux qu’il cite en bibliographie : ceux de Bruhat, de Courbon et de Montaguer [Reffye (de), Ph., 1976], p. 272.
1 Voir l’encadré pour la détermination de la formule utilisée.
2 [Reffye (de), Ph., 1976], p. 256.
3 « En pratique, trois mesures par arbre suffisent pour avoir une bonne approximation du module », [Reffye (de), Ph., 1976], p. 256.
1 [Reffye (de), Ph., 1976], pp. 259-260.
1 Dans le cas de figure qui nous occupe, même si on peut l’interpréter en ce sens, nous n’irons pas jusqu’à dire qu’il s’agit d’un argument d’autorité masqué parce que chosifié et fondé sur un « recrutement » des symboles, des procédés intellectuels et des techniques informatiques. Un tel « recrutement », compris au sens de [Latour, B., 1989, 1995], fonctionnerait sans doute comme une politique de l’exhibition du programme informatique présenté comme fait accompli, c’est-à-dire encore comme une chose bien réelle car compacte (dotée de propriétés enchevêtrées et inextricables) et non plus comme un simple argument. La chose réalisée, c’est-à-dire littéralement rendue réelle de ce fait, aurait pour immense avantage de ne pas prêter à contestation, à contre-argument ou contre-exemple. Nous ne pensons pas devoir employer une telle grille de lecture sociologique dans la mesure où le caractère sibyllin du programme n’est pas, à l’heure où il a été conçu, ce qui est prioritairement voulu en tant que tel. Il est avant tout le simple fruit de limitations techniques, notamment dues à la faible mémoire de la machine utilisée. D’autre part, à ce moment-là, de Reffye ne recherchait pas particulièrement à imposer sa compétence à travers sa maîtrise de la programmation (puisqu’il ne lui semblait pas encore y avoir beaucoup de répondant et donc d’attentes de ce côté là, à l’IFCC) mais plutôt à travers les résultats biologiques et agronomiques obtenus. De plus, dès 1976, comme on le voit dans ses premiers programmes, s’il recherche une telle reconnaissance, c’est bien plutôt à travers la visualisation réaliste des résultats de la simulation. En effet, comme on le verra bientôt, c’est cela qui lui semblera un bon moyen d’imposer son approche auprès de ses pairs et de faire consensus autour de lui, donc de « recruter » si l’on veut. Il ne faudrait donc pas faire ici une lecture anachronique qui présenterait d’emblée celui qui le premier a employé l’ordinateur dans un domaine scientifique historiquement éloigné de ses lieux de naissance, comme ayant été l’occasion et l’objet d’enjeux de pouvoir immédiatement considérables, même si certains signaux précoces en ce sens peuvent, de notre point de vue postérieur mais autrement informé, donc déformant, y être décelés.
2 Voir [Simondon, G., 1958, 1969, 1989], pp. 20-23. Cependant, ce qui reste conceptuellement très pertinent dans l’analyse de Simondon pour le cas du programme implémentant ce que nous appelons une modélisation fractionnée (car il y a bien une sorte de « convergence des fonctions dans une unité structurale »,