Visualisation et abstraction
Avant d’en passer à cette décision pour la simulation proprement dite, il nous faut revenir un moment sur un terme qu’emploient de Reffye et Snoeck dans l’article de 1976. Il peut paraître choquant dans un article de mathématiques appliquées. Il s’agit du terme « visualisation ». Il est possible d’en éclairer dès maintenant le sens ainsi que le type de rapport qu’il entretient à la technique de simulation qui sera préconisée. Dans la fin de l’introduction de l’article de 1976, de Reffye et Snoeck reviennent sur la véritable alternative qu’ils évoquaient déjà dans notre avant-dernière citation : la « visualisation ». Qu’est-ce qu’ils entendent par là ? Alors que dans ce premier passage, l’appel à la visualisation ne semblait pas automatiquement imposer une visibilité effective, puisqu’il s’agissait seulement de renvoyer à une méthode mathématique alternative susceptible de faire éclater de nouveau en ses diverses dimensions le « point » statistique représentatif qui s’était rendu coupable d’avoir trop condensé et écrasé l’information2, dans la fin de l’introduction, c’est bien la visualisation effective, concrète, sans détour, qui est proposée telle quelle : le traçage des arbres par ordinateur sur une table traçante. Cependant les auteurs prennent la peine d’indiquer qu’elle n’est pas le but final du travail de recherche, mais qu’elle n’en est qu’un « corollaire ». Ce corollaire est néanmoins conçu lui-même comme un moyen d’accréditation supplémentaire de l’approche modéliste et synthétique nouvelle qu’il va présenter :
« Comme corollaire, on devrait pouvoir préciser le modèle au point d’envisager le traçage automatique du caféier à chaque instant de sa vie à l’aide d’un ordinateur qui aurait reçu et intégré les données de la croissance et du développement de l’arbre. »1
Donc de Reffye et Snoeck prennent bien garde de ne pas en appeler directement à notre expérience perceptive et commune en tant que telle, c’est-à-dire en tant qu’elle serait réputée plus précise que les approches abstractives. Ils n’utilisent donc pas directement l’argument de l’imprécision de l’abstraction. Quand bien même de Reffye en particulier aurait conscience de commencer à donner un autre rôle aux mathématiques dans les modèles, il ne lui est pas possible d’attaquer de front les pouvoirs séculaires qui ont été conférés à l’abstraction via les mathématiques. Souvenons-nous que, dans ses études, il a toujours été séduit par la mise en équation des phénomènes en ce qu’elle vaut comme résumé à la fois abstractif et objectif de la diversité des phénomènes. En tout état de cause, et si on lit bien le texte de 1976, de Reffye tient à insister ici sur l’interprétation inverse : c’est en cherchant à être plus précis dans nos modélisations mathématiques qu’il nous est secondairement, mais significativement, possible d’en venir à une visualisation effective et techniquement assistée par ordinateur.
Que faut-il conclure de cela ? D’une part, de Reffye, en toute conscience, mène un combat contre les statistiques qu’il accuse de se livrer à des manipulations parfois insignifiantes. Or il mène ce combat au nom de l’idéal, peut-être déjà périmé à son époque (mais régulateur chez lui), de l’objectivité d’une loi mathématique optimale, de son enracinement dans le réel : c’est ce qu’il appelle se donner un « modèle » mathématique. D’autre part, ce faisant, mais cette fois-ci involontairement, son action a une conséquence qui se trouve être en léger porte-à-faux par rapport à ce qu’il pense qu’elle fait2 : elle ne contribue pas spécialement ni immédiatement à valoriser la recherche de lois mathématiques précises et objectives ; bien plutôt elle modifie le rôle cognitif des mathématiques dans l’entreprise de modélisation en les faisant passer d’une utilisation analytique à une utilisation synthétique. Le modèle de simulation de la croissance de l’arbre incarnera en fait une telle rupture de manière exemplaire.
Par ailleurs, dans l’article de 1976 qui présentera ce modèle, les choix techniques seront en permanence justifiés au regard de l’objectif prioritaire qui est celui de la précision. Ce n’est donc pas l’efficacité qui est directement invoquée pour la conception de ce nouveau genre de modèle mais une qualité du modèle qui se trouvera entraîner avec elle celle que recherche spécifiquement l’agronome. La précision est ici supposée apporter, par surcroît, la vertu d’adapter le modèle à un usage opérationnel. Ce que nous savons de de Reffye nous permet de dire qu’il ne peut pas s’agir ici pour lui d’une « stratégie » de façade qui viserait à masquer de façon cynique sous les dehors du savant désintéressé le caractère en fait purement pragmatique car agronomique de sa véritable motivation. Il ne travaille et il ne fait les choix qu’il fait que parce qu’il n’y a pas que cette motivation pragmatique qui l’anime, même si, au final, c’est bien elle qui habite, en revanche, l’institution qui l’abrite.
On ne saurait comprendre les choix ultimes de cet acteur jusque dans le détail du travail de ses recherches sans les rapporter aussi à son idéal scientifique propre. Une lecture purement sociologique serait ici nivelante voire fausse pour l’essentiel. Car dans cet article, il nous est donné de constater que, de son point de vue, c’est au nom de la précision du savoir scientifique qu’il faut travailler à modifier les solutions de ses prédécesseurs. On ne peut comprendre ses choix que si on se les représente aussi dans un contexte autre que purement stratégique. C’est précisément la raison pour laquelle sa philosophie du travail scientifique entendu comme recherche de lois mathématisées de la nature peut se conjoindre à un objectif qui, à l’échelle institutionnelle et sociale, est, il est vrai, tout autre.
Première modélisation fractionnée : l’approche cinétique du caféier
La question est donc ici la suivante : à quel type de modélisation son épistémologie comme les limites techniques qu’il a reconnues le conduisent–elles ? Dans le modèle de 1975-1976, de Reffye veut suivre la formation et la croissance des rameaux du caféier. Pour cela, il choisit de se proposer un modèle mathématique qui soit capable de prédire pour chaque instant futur le nombre de rameaux formés. C’est alors seulement qu’il sera possible d’en extraire le nombre de rameaux porteurs de fruits.
Le caféier, à partir d’une tige principale poussant verticalement (elle est dite « orthotrope »), donne naissance de proche en proche à des rameaux qui, pour leur part, croissent dans une direction sensiblement horizontale (ils sont dits « plagiotropes »). Or, avant toute chose, de Reffye s’appuie sur le fait, bien connu en botanique, qu’il est possible de distinguer l’étape de formation de celle de la croissance du rameau. C’est en vertu de cette importante considération qu’il lui paraît possible de faire estimer au modèle le nombre total de nœuds plagiotropes d’un arbre à chaque instant. En effet, grâce à la prise en compte de cette relative dissociation entre le processus de formation des étages plagiotropes et le processus de leur croissance, la procédure de modélisation mathématique peut se simplifier puisqu’elle peut se décomposer elle-même en deux étapes dont chacune est modélisable plus simplement. Attention à bien comprendre que ce n’est pas la modélisation elle-même qui est ici simplifiée au sens où elle serait simplificatrice. Elle est seulement plus simple à réaliser ; ce qui est différent. Elle serait simplificatrice si elle faisait abstraction de certains détails. En fait, quand nous disons qu’elle est simple, nous voulons dire qu’elle est plus simple à fabriquer à partir du moment où elle choisit de « coller » opportunément à la dissociation entre divers processus telle qu’elle est présente dans les phénomènes réels eux-mêmes.
À la différence de l’approche des biométriciens classiques, ce qui est simplifié ici, c’est donc la procédure de réalisation du modèle, mais pas le modèle total résultant ni donc la représentation de la réalité. Voilà précisément là où peut servir l’ordinateur. Car en cette année 1976, il devient possible de fabriquer le modèle mathématique total, étapes par étapes, sans qu’il soit conçu a priori dans sa formulation totale résultante, parce qu’un calculateur automatique programmable est à la disposition de l’agronome modélisateur. Simplifier ainsi la procédure de confection pas à pas du modèle conduit à un modèle résultant complexe mais susceptible d’être supporté par l’infrastructure informatique. La mise à disposition d’un nouvel outil de calcul, plus puissant et programmable, contribue donc ici au déploiement d’un type de modélisation axé principalement sur la morphologie, cela au rebours des approches statistiques traditionnelles axées sur la physiologie. Le calculateur peut ainsi présider à la recombinaison pas à pas de ces sous-modèles conçus par les scientifiques séparément et de façon découplée ou fractionnée. Le modèle, de mathématique qu’il était, peut devenir alors logico-mathématique. Nous verrons dans quelles circonstances exactes l’IFCC a pu opportunément bénéficier d’un matériel informatique à cet effet. Retenons pour l’instant ce fait fondamental que de Reffye et Snoeck décident d’utiliser cette dissociation dans les processus biologiques pour procéder par étapes dans la constitution de leur modèle complexe, pour la fragmenter.
Après avoir exprimé ce projet de modéliser par phases successives les étapes mêmes du processus réel, les deux auteurs remarquent que, par des mesures sur un grand nombre d’arbres, il est tout d’abord possible d’estimer l’intervalle de temps moyen ΔT nécessaire à la formation d’un étage plagiotrope à un instant T donné. Cet étage étant créé, il devient possible également et dans un second temps (pour le calcul), d’estimer les paramètres de la fonction de croissance du rameau standard à cet étage. Ainsi, en composant ces deux fonctions de modélisation par le calcul automatique et grâce à des branchements logiques conditionnels traités par le langage informatique, on devrait pouvoir reconstituer le nombre total de nœuds plagiotropes présents sur un arbre à un instant T donné.
La modélisation de la formation des rameaux : les hypothèses
Sous quelle forme précise ces fonctions de modélisation se présentent-elles et comment de Reffye et Snoeck les justifient-ils ? Tout d’abord, pour ce qui est de la modélisation de la formation des étages ou rameaux, ils partent de considérations qualitatives faites à partir de l’observation d’une courbe empirique simple : l’accroissement annuel en nombre d’étages plagiotropes d’un arbre moyen. C’est à partir d’elle que les hypothèses menant aux fonctions mathématiques modèles vont être suggérées. Avant cette modélisation, il y a donc d’abord une phase d’observation en vue de produire des hypothèses. Mais ce que les auteurs observent n’est que la simple allure de l’évolution de certaines données bien précises. Il faut remarquer que leur choix de la forme fonctionnelle du modèle mathématique ne s’appuie ici sur aucune heuristique explicite ni systématique mais seulement sur un coup d’œil, une culture mathématique personnelle ou bien encore sur l’invocation vague de travaux antérieurs portant sur la modélisation de phénomènes biologiques similaires1. Cependant de Reffye et Snoeck n’observent pas n’importe quoi puisqu’ils ne choisissent d’observer que les données intermédiaires (le nombre d’étages créés à un âge donné) dont ils ont déjà supposé (de façon crédible d’un point de vue biologique) qu’elles pourraient donner lieu à une modélisation simplifiée et par étapes2. Or, cette courbe de mesures montre d’une part que le nombre d’étages plagiotropes qu’un caféier fabrique ne dépend que de son âge : il est donc possible de faire abstraction des variations climatiques. Cela est une hypothèse d’autant plus valable que la Côte-d’Ivoire subit un climat tropical qui ne connaît que peu de variations. Pour accréditer davantage encore leur hypothèse, les auteurs s’appuient sur le fait que l’expert caféiculteur l’utilise tous les jours implicitement, mais en sens inverse, notamment lorsqu’il parvient à estimer l’âge d’un caféier à partir de sa croissance annuelle, c’est-à-dire à partir du nombre de ses derniers étages formés. Cette première hypothèse serait ainsi d’autant plus crédible qu’elle explicite un savoir expert enfoui dans la compétence implicite du caféiculteur. Modéliser impose donc, entre autres choses, d’expliciter l’implicite de certains savoirs experts non encore discursivement accessibles1.
Mais, d’autre part, la forme de cette courbe empirique est, elle aussi, très instructive. C’est elle qui va suggérer le type de la fonction mathématique modèle, c’est-à-dire la deuxième hypothèse. Si on l’interpole, la forme de cette courbe discrète est très proche de celle d’une sigmoïde continue (ou courbe en S). On y distingue en effet « une phase initiale accélérée, une phase linéaire intermédiaire et une phase finale ralentie »2. Cela n’a rien de surprenant, là non plus, car il s’agit de la forme classique que prennent les fonctions de croissance d’un organisme végétal lorsqu’il n’est pas perturbé. Or ce type de courbe peut être indirectement représenté par une fonction mathématique explicitement constructible : la dérivée d’une courbe sigmoïde est une courbe en cloche. Ce sont ces types de courbe en cloche (les fonctions eulériennes de type B) dont les mathématiciens connaissent de façon explicite les fonctions de densité et qu’ils peuvent donc nous permettre de calculer. Or, il est important de noter que c’est précisément dans le fait que l’on dispose de formulations mathématiques explicites pour ces fonctions modélisatrices que de Reffye et Snoeck voient la légitimité qu’il y a désormais à dire que l’on « simule » l’arbre :
« Il est intéressant de pouvoir ajuster les courbes observées à des courbes mathématiques afin de pouvoir reconstituer la croissance d’une façon continue, c’est-à-dire la simuler. »3
Dans cette première étape de la modélisation de 1976, la « simulation » est donc d’abord comprise par de Reffye et Snoeck comme une reconstitution intégrale d’un phénomène continu par une équation mathématique explicite, exprimable elle-même sous une forme close. Dans cette première étape, simuler, c’est reconstituer continûment la dynamique du phénomène. Or, pour ce suivi continu, de Reffye pense d’abord et avant tout à un suivi mathématique fonctionnel continu, c’est-à-dire d’abord à une fonction analytique, ce dernier terme étant pris au sens de l’analyse mathématique. Cela est important à signaler car nous verrons par la suite que cette interprétation étroite des termes « simulation » et « simuler » va souffrir de quelques gauchissements cruciaux qui feront qu’à la fin de l’article, les termes seront conservés alors même que l’on n’aura plus à faire à un modèle mathématique fonctionnel pur mais à un modèle composite.
Par ailleurs, notons que lorsque de Reffye affirme qu’il nous est permis d’interpoler ici la fonction de croissance, il insère également une hypothèse simplificatrice (la troisième donc) qui consiste à dire que l’on peut représenter sans dommages de façon continue le phénomène discontinu de formation des étages. De Reffye est conscient du caractère hypothétique de cette affirmation. Mais cette hypothèse lui est essentielle s’il veut pouvoir se donner un type de fonctions mathématiques suffisamment régulier pour permettre que des manipulations mathématiques sur ces fonctions nous acheminent ensuite vers une solution calculable. C’est bien le cas des fonctions sigmoïdes dont il faut d’abord supposer qu’elles sont continues pour pouvoir passer à la dérivée. C’est pourquoi le modèle général pourra être qualifié de « modèle mathématique continu ».
Pour finir sur les hypothèses, on voit donc déjà que, quelle que soit l’issue de cette tentative de modélisation, il serait bien évidemment faux de dire qu’elle ne simplifie aucunement les phénomènes pour parvenir à les représenter. Il y a d’abord l’hypothèse que la croissance moyenne ne dépend que de l’âge ; il y a ensuite l’hypothèse de la forme sigmoïde de la courbe de croissance ; il y a enfin l’hypothèse que cette courbe peut être traitée sous sa forme continue sans dommages. Pour de Reffye, modéliser la croissance de l’arbre continûment et au plus près, ce n’est donc certes pas se priver tout à fait d’hypothèses simplificatrices, mais c’est d’une part changer le niveau biologique auquel on s’autorise à insérer ces hypothèses. C’est faire des hypothèses à un niveau biologique inédit par rapport aux hypothèses classiques de l’analyse multivariée. Et, d’autre part, c’est se défaire des hypothèses fréquentes mais rarement explicitées ni rappelées qui soutiennent toutes les analyses de variance : que ce soit l’hypothèse d’indépendance et de pure additivité1 des différents facteurs ou même l’hypothèse de faible interaction des facteurs. En effet, l’apport de l’analyse de variance est quasi nul lorsque les interactions entre facteurs, c’est-à-dire en fait les non-linéarités, sont significatives car l’interprétation des résultats et leur utilisation deviennent très délicates2. Modéliser directement par des fonctions complexes au lieu de pratiquer une analyse de variance revient à se donner des hypothèses de modélisation multiples et diversifiées. C’est se libérer des hypothèses contraignantes communes aux modèles statistiques en s’en forgeant certes d’autres, mais plus librement et de façon plus souple3.
Le sous-modèle de la formation des rameaux
Travaillant donc dans cet esprit, et ayant fait l’hypothèse que l’on peut considérer avoir affaire à une fonction eulérienne de type B, de Reffye et Snoeck montrent ensuite que l’on peut exprimer analytiquement ΔN/ΔT, à savoir l’accroissement mensuel du nombre d’étages plagiotropes, en fonction de l’âge du caféier, T, et de sa durée de vie, T0, exprimés en mois:
F(T) = ΔN/ΔT = K (T) (T0-T)pq
Dans cette formule, K, p et q sont des coefficients inconnus mais à estimer par ajustement, c’est-à-dire par un recours aux courbes empiriques. Cela est possible par une simple régression linéaire une fois que l’on a linéarisé la formule précédente de la façon suivante (en supposant ici que ΔT = 1 mois) :
Log ΔN = Log K + p Log T + q Log (T0-T)
Remarquons que cette propriété de linéarisation figure là aussi parmi les grands avantages de ce modèle mathématique si l’on vise, comme c’est le cas ici, une application opérationnelle. La valeur de l’ajustement des coefficients K, p et q sur les données mesurées est ensuite estimée par de Reffye au moyen du coefficient de régression qui se trouve être très bon (R2=0.995). On peut alors exprimer explicitement le nombre total d’étages que peut former le caféier :
Cependant, il faut le noter, cela est sans intérêt immédiat puisqu’il nous faudrait pouvoir évaluer précisément l’âge de chacun des nœuds des étages plagiotropes afin de leur appliquer leur propre fonction mathématique de croissance. Il faut donc en rester à un niveau plus fin si l’on veut évaluer le nombre de nœuds fructifères sur un arbre à un âge donné.
Pour le moment donc, nous sommes seulement à même de déterminer le nombre d’étages créés par mois à un âge donné. Or, on cherche à connaître le nombre total d’étages plagiotropes à un âge fixé pour pouvoir ensuite les faire pousser un à un à partir de leur date d’apparition. Il faut donc d’abord exprimer le laps de temps qui est nécessaire pour qu’un nouvel étage apparaisse à un âge donné et sommer ensuite tous ces laps de temps élémentaires valables à chaque instant T(i) jusqu’à obtenir T, l’âge du caféier :
T = Σ ΔT(i) = Σ F-1 (T(i))
Il faut donc prendre l’inverse de la fonction explicite F(T) précédente ( F-1 (T) ou 1/ F(T) ) et additionner à de nombreuses reprises les valeurs numériques qu’elle prend aux différents moments auxquels apparaît un nouvel étage. Or, c’est ce type de calcul itératif qui commence à exiger le recours à un calculateur :
« Le cumul des ΔT ne peut s’effectuer qu’avec un calculateur. »1
Le calcul de la croissance orthotrope est décomposé et se fait pas à pas car il n’y a plus d’expression mathématique explicite et simple. L’ordinateur est ici exigé en ce qu’il permet de calculer à chaque moment le laps de temps qu’il faut pour qu’un autre événement (à savoir la formation d’un étage plagiotrope supplémentaire) intervienne, cela jusqu’à l’âge T qui nous intéresse ; et, ce faisant, son programme empile dans une variable N (N = N+ 1 à chaque passage) le nombre de fois où il a fait ce calcul. Le nombre N obtenu au final, c’est-à-dire lorsque le programme s’arrête, correspond bien au nombre total d’étages plagiotropes du caféier à l’âge T.
Pour de Reffye et Snoeck, cet organigramme intermédiaire a l’intérêt de simuler la croissance orthotrope telle qu’elle se manifeste réellement dans l’arbre : par étapes et par laps de temps successifs. Malgré un fondement mathématique continuiste dans les fonctions des modèles élémentaires ou sous-modèles, on trouve là une possibilité de discrétiser de façon réaliste les événements de croissance puisqu’on n’exprime pas le nombre d’étages en fonction du temps mais, au contraire, le laps de temps qu’il faut pour qu’un étage se crée. C’est la première entorse à leur première interprétation de la notion de « simulation » telle que nous l’avions vue précédemment.
De façon significative, les auteurs adoptent donc un point de vue tout à la fois plus historique et plus proche du travail de « décision » attribué à l’arbre en tant qu’il est un acteur de sa croissance. C’est le moyen le plus simple selon eux si l’on veut pouvoir poursuivre la modélisation en traitant ensuite mathématiquement la croissance de ces étages formés puisqu’il sont désormais précisément situés temporellement, c’est-à-dire du point de vue de leur origine temporelle. Les auteurs se sont ainsi créé la possibilité d’avoir ces données temporelles intermédiaires (les dates de formation de chacun des étages plagiotropes). Ils ont synthétisé des données en quelque sorte. Elles sont en effet cruciales pour l’estimation du nombre de nœuds fructifères, comme nous le verrons.
La simulation procède donc ici par modèles d’abord découplés de façon à se créer des données intermédiaires qui soient elles-mêmes traitables par un deuxième modèle mais plus précisément que les seules données du problème accessibles immédiatement par la mesure. De plus, la validation du modèle se fait ici par étapes, comme sa constitution et en même temps qu’elle. En effet, le premier modèle mathématique peut être validé séparément, à l’étape à laquelle nous en sommes pour le moment, c’est-à-dire avant même que la synthèse finale entre les deux modèles mathématiques ne soit faite. Cela est dû à la propriété qu’ont les données intermédiaires créées par le premier modèle (ici le nombre d’étages plagiotropes formés par unité de temps) de correspondre à des observables biologiques susceptibles de conduire à d’éventuelles invalidations patentes du modèle partiel. Même si, en lui-même, il n’intéresse pas directement la résolution du problème posé, le premier modèle partiel ou sous-modèle se présente donc comme validé de façon autonome.
Le sous-modèle de la croissance des rameaux et l’organigramme intégrateur
Poursuivons sur ce point afin de saisir comment les auteurs décident ensuite de coupler concrètement leurs modèles mathématiques partiels. Car, avant de reconstituer une représentation totale de la croissance et de l’architecture de l’arbre, il nous faut auparavant avoir un modèle de croissance des étages plagiotropes dès lors que l’on connaît déjà un modèle de leur formation. Il s’agira d’un deuxième modèle partiel dont on peut considérer que son action mathématique suivra, dans le temps du calcul, l’action du premier : le découpage du modèle général en modèles partiels suit la chronologie même des phénomènes biologiques réels. Pour ce deuxième modèle, de Reffye et Snoeck vont procéder d’une façon similaire à celle qu’ils avaient adoptée pour la modélisation de la formation des étages. Ils vont tout d’abord avoir une approche observationnelle sur un grand nombre d’étages plagiotropes. Dessinant la courbe du nombre de nœuds formés en fonction du temps, ils constatent que l’on peut la modéliser de façon vraisemblable par un modèle mathématique simple de la forme suivante :
g(t) = n0 (1- e)
où « n0 est le nombre maximal de nœuds que peut atteindre un plagiotrope et r un paramètre mesurant la vitesse de croissance »-rt. La seule justification qu’ils apportent ici s’exprime dans l’affirmation que c’est, selon leur propre terme, la forme de la courbe observée qui leur a « suggéré »1 ce type de modèle. De même, en linéarisant comme précédemment, c’est-à-dire par passage au logarithme, il leur est possible de trouver, par régression, un ajustement qui s’avère tout à fait « excellent » selon leurs dires. Ainsi trouvent-ils, pour le clone dit 182 de Coffea Robusta, une fonction g (t) qui exprime le nombre de nœuds émis par unité de temps sur un étage plagiotrope donné. Mais tous les nœuds formés ne sont pas fructifères. À chaque instant il faudrait donc pouvoir déterminer combien parmi les nœuds formés sont réellement fructifères.
Dès lors apparaît une étape au cours de laquelle les auteurs font intervenir un certain savoir botanique d’observation. Comme pour l’hypothèse de dissociation des processus de formation et de croissance des étages plagiotropes, ce savoir botanique reste cependant relativement élémentaire. On peut en effet considérer qu’après leur formation et au cours de leur croissance, les étages plagiotropes passent successivement par trois phases distinctes : les nœuds produits portent des feuilles, ensuite ils entrent dans une phase pendant laquelle ils sont fructifères, enfin ils se dénudent. Sur un même rameau, il y a donc trois zones : une zone à nœuds feuillus qui se trouve au bout du rameau, une zone à nœuds dénudés située à la base du rameau et une zone à nœuds fructifères située entre les deux. Or, d’après les relevés disponibles, il est possible d’estimer la durée de vie d’une feuille ainsi que celle d’un nœud fructifère. Tout nœud qui apparaît au bout du rameau se présente d’abord comme pourvu de feuilles. Il le sera jusqu’à un certain temps t0 qui est la durée de vie moyenne d’une feuille. Donc, sur un même rameau plagiotrope, le nombre total de nœuds portant des feuilles à l’instant t est :
Si t≤ t0 : nfeuilles = g(t)
Si t> t0 : nfeuilles = g(t) – g(t-t0)
Par la suite, les nœuds fructifères étant « également bornés dans le temps entre un temps minimal d’apparition t1 et une durée de vie maximale t2 », « il y a trois possibilités en ce qui concerne le rameau de rang k, d’âge T - = t »1 :
Si t < t1 : nfructifères = 0 (le rameau ne porte que des feuilles)
Si t2>t>t1 : nfructifères = g(t-t1)
Si t>t2>t1 : nfructifères = g(t-t1) – g(t-t2)
D’après les observations faites sur les arbres réels, les auteurs estiment qu’en moyenne :
t0 = 10 mois, t1 = 6 mois et t2 = 19 mois2.
Il leur est donc possible d’écrire ces équations de façon chiffrée. Les modèles mathématiques partiels sont au final tous intégralement interprétés3. Il est possible aux auteurs de proposer ce qu’ils appellent significativement une « Synthèse globale de la croissance du caféier » :
« En recombinant les instructions de croissance de la tige et des rameaux, on obtient en quelque sorte le programme de la croissance et du fonctionnement génétique et physiologique de l’arbre. Ce programme peut se mettre sous trois formes équivalentes, bien que très différentes :
a) organigramme du programme de croissance,
b) architecture de l’arbre à l’instant T,
c) graphe théorique des courbes de rendement. »4
Ce passage présente l’intérêt de fournir un grand nombre d’indices sur l’état d’esprit nouveau dans lequel les auteurs ont fait ce travail de modélisation. Tout d’abord, le processus biologique de croissance et de mise en place de l’architecture est explicitement assimilé à un « programme » de calculateur qui aurait ainsi à exécuter un certain nombre d’« instructions » successives. De ce fait, le modèle semble ici ne plus se réduire aux expressions mathématiques convoquées, aux calculs, mais il s’étend à l’ensemble des instructions du calculateur automatique programmable, c’est-à-dire au programme informatique tout entier. Or notons bien qu’il s’agit ici de beaucoup plus que d’une simple métaphore issue de cette vogue pour la cybernétique qui a été propre à la biologie des années 1960-1970. En effet, dans ce cas de figure, il est incontestable que le programme existe et qu’il n’est donc pas une spéculation ni une idée régulatrice. Certes, c’est une construction humaine. En ce sens, il s’agit d’un artefact. Mais c’est le résultat à la fois tangible et opérationnel de cette recherche. Et les auteurs sont donc naturellement tentés de passer de l’analogie à l’identification puisque ce programme informatique est un simulateur dès lors qu’il reconstitue chaque étape biologiquement significative de la croissance de l’arbre. Le terme « simulation » désigne le fonctionnement total du modèle mixte ou composite et non plus seulement le calcul approché d’une fonction mathématique explicitée. La « simulation » est une reconstitution car l’organigramme reconstitue pas à pas la mise en place des étages plagiotropes ainsi que celle des entre-nœuds qui croissent sur ces étages.
Organigramme simplifié de la « synthèse globale de la croissance du caféier »
Programme du modèle mathématique continu (1976)1
1 - au début du programme, on entre l’âge final T de l’arbre.
2 – Formation du rameau : avec la fonction F(t), le programme calcule le temps qu’il a fallu pour que le premier rameau ou le rameau suivant se forme. L’âge courant t de l’arbre est alors incrémenté de ce laps de temps. L’âge du rameau courant va donc être T-t.
3 – Etat de croissance du rameau : ensuite, deux solutions sont possibles : si T-t < t1, le rameau est trop jeune et ne porte que des feuilles, le programme s’arrête car tout autre rameau qui pousserait serait désormais plus jeune donc sans fruits également ; sinon il y a encore deux sous-possibilités : si T-t < t2 alors Δnfructifères = g(T- t-t1) (le rameau est trop jeune pour qu’il s’y trouve des nœuds dénudés), sinon Δnfructifères = g(T-t-t1) – g(T-t-t2)2 (ce sont des nœuds assez vieux mais aussi assez jeunes qui sont fructifères et il y a donc des nœuds dénudés),
4 - ensuite le programme incrémente le nombre courant de nœuds du Δnfructifères calculé précédemment, et il incrémente le nombre courant de rameaux de 1 (Fin du test de l’état de croissance du rameau),
5 - enfin si t(Fin du test de formation du rameau courant), sinon il s’arrête.
À la fin, le nombre courant de rameaux est le nombre total de rameaux de l’arbre à l’âge T et le nombre courant de nœuds fructifères est le nombre total de ses nœuds fructifères.
Avec cet organigramme, on voit bien que le fonctionnement du premier modèle mathématique F(t) est échantillonné ou, si l’on veut, fractionné, de façon à laisser s’effectuer, à chacune des étapes déterminées par la fonction F(t), le fonctionnement du second modèle mathématique g (t). Sans la programmation sur ordinateur, il n’aurait pas été possible d’effectuer cette fragmentation et donc de conserver la complexité de chacun de ces modèles mathématiques telle quelle. Il aurait fallu trouver des modèles plus simples dont la composition aurait été calculable à la main ou bien encore un modèle mathématique global également calculable à la main comme ceux que proposaient habituellement les biométriciens de l’IFCC.
Le rôle de la technique : le HP 9820 et le langage HPL (Hewlett-Packard Language)1
Dans l’article de 1976, de Reffye et Snoeck insistent aussi sur le caractère décisif qu’il y a à disposer pour ce faire de ce qu’ils appellent un « calculateur programmable ». Au début de son travail à l’IFCC, de Reffye avait eu beaucoup de mal à faire tous les calculs qu’il souhaitait conduire. À son arrivée en Afrique, il ne disposait que de machines à calculer électromagnétiques ou mécaniques. Pour sa thèse de 1975, il n’avait encore qu’une machine à calculer électronique à mémoires Monroe2 que son directeur de laboratoire, qui n’était autre que J. Snoeck, avait finalement réussi à lui obtenir. Dans la première version de son programme, de Reffye dessine lui-même à la main les arbres obtenus par le calcul ou bien encore, il les fait dessiner par un assistant de recherche ivoirien de l’IFCC qui se trouve être un très bon dessinateur : Valentin Yapo3. Un de ces dessins « manuels » déterminés par les résultats précis du programme sera d’ailleurs publié tel quel dans l’article de 1976 à côté de ceux obtenus plus tard par table traçante.
Mais, par la suite, de Reffye va bénéficier d’une aide décisive. Comme pendant cette période ivoirienne, il est parfois amené à fréquenter les physiciens de la Faculté d’Abidjan, il se trouve que deux d’entre eux, Marchand et Lapasset, vont s’intéresser à son travail. Ils vont le conseiller techniquement et l’informer de l’apparition toute récente de machines programmables de bureau. Pendant un certain temps, en 1975 et 1976, ces derniers vont lui laisser un libre accès au calculateur programmable de la Faculté de physique : le tout nouveau calculateur Hewlett-Packard HP 9820 A, sur le marché depuis 19721. Un tel calculateur est dit programmable en ce qu’il permet d’intégrer des fonctions logiques avec des fonctions mathématiques classiques dans une production formelle unique : un programme. Ce programme devient le lieu d’un entrelacement étroit, et pas à pas, entre le formalisme logique, le formalisme algébrique et le formalisme analytique. L’organigramme proposé, malgré sa mixité, peut ainsi aisément y être implémenté.
Il faut noter que le prix de la version de base de cette machine égale celui des machines Monroe les plus évoluées de la même époque : environ 1300 dollars. L’IFCC prévoit donc d’en acheter une, mais pas dans l’immédiat, et de Reffye travaille d’abord uniquement sur la machine qui lui est prêtée. C’est donc grâce à la mise à disposition d’un tel appareil qu’il peut, en autodidacte, s’initier à la programmation et au langage de programmation d’Hewlett-Packard dérivé du FORTRAN qu’est le HPL (Hewlett-Packard Language) et qu’il peut publier, avec J. Snoeck, l’article du premier trimestre de 1976.
« Matérialiser » la représentation pour caractériser la verse du caféier
Au début de l’année 1976, le modèle de croissance continue semble remplir la fonction qu’en attendaient les agronomes. Jusqu’en 1980 au moins, il sera notamment utilisé pour évaluer l’impact des engrais sur la croissance, comme en témoignera un travail plus tardif de J. Snoeck que nous évoquerons bientôt. Mais, dans cette même problématique de perfectionnement de la représentation des plantes en vue de l’amélioration de leur rendement par sélection génétique, la préoccupation de de Reffye devient quelque peu différente en cette année 1976. Un phénomène limitant majeur est en effet apparu dans le développement des hybrides « Arabusta » de l’équipe de J. Capot : la verse2. Dans le cas de l’hybride nouvellement conçu, ce phénomène, déjà connu pour d’autres variétés, devient à ce point fréquent et donc limitant pour le rendement (puisque les fruits en souffrent directement) que la pratique qui s’est mise en place à l’IFCC pour y remédier consiste à recourir systématiquement à des tuteurs en très grand nombre. Or, ce qui peut se faire dans une station d’essai n’est pas économiquement envisageable pour une production intensive normalisée : les coûts en temps et en main d’œuvre y seraient prohibitifs. Ne pas recourir au tuteurage dans ces conditions serait néanmoins dramatique car, le caféier étant une plante arbustive productive pendant plusieurs années et non un végétal dont l’exploitation totale se fait sur une seule année, le dommage causé par la verse « concerne non seulement l’année en cours, mais aussi les années suivantes »3.
Il faut donc tâcher de sélectionner les clones d’Arabusta qui seraient les plus résistants à la casse ou à la verse. Or, pour ce faire, s’ils peuvent s’appuyer sur ce qu’ils constatent de visu du comportement moyen sur le terrain de certains clones d’Arabusta, les agronomes manquent de marqueurs précis et discriminants pour une telle sélection. De Reffye pense alors qu’il peut modifier son programme de modélisation de croissance dans le but de donner à voir plus précisément quels sont les facteurs clés qui interviennent dans ce phénomène de verse. Car il faut que ces facteurs décelés analytiquement (mais par le recours à une représentation synthétique complexifiée) soient en même temps précisément et aisément mesurables par le sélectionneur. Là encore, il ne s’agit pas d’expliquer théoriquement les phénomènes mais de trouver une échelle pertinente de mesure à laquelle se trouvent certains caractères de l’arbre (encore à déterminer) ayant pour propriété de donner lieu une fois insérés dans un modèle logico-mathématique non seulement à une prédiction conforme aux résultats finaux mais aussi à une prise objective plus précoce sur les phénomènes aux yeux du sélectionneur. Cette prise est « objective » si elle part d’observables précis et discriminants donnant eux-mêmes lieu à une interaction opérationnelle sur l’objet d’étude ultime propre à la problématique scientifique considérée ici, à savoir le caféier et son génotype. Par cette nouvelle modélisation, de Reffye pense en fait qu’il va pouvoir « caractériser » au sens fort du terme la verse du caféier. En effet, dans le travail du deuxième article de 1974, il avait décelé ce qu’il avait appelé deux « caractères » génétiques transmissibles et inaperçus jusqu’alors : les probabilités P1 (probabilité de formation des cerises) et P2 (probabilité de formation des grains). De même, en procédant à une modélisation des comportements mécaniques des tiges et des rameaux en croissance, il pense pouvoir exhiber le ou les « caractères » conditionnés par la génétique et qui déterminent eux-mêmes le risque de verse. Ce seraient alors ces caractères mesurables qui commanderaient une sélection précise et rigoureuse et non plus empirique, c’est-à-dire à vue, sur les seules performances globales de terrain.
L’insertion d’un savoir d’ingénieur : la résistance des matériaux
De Reffye distingue deux types de phénomènes mécaniques pouvant affecter la tige et les rameaux du caféier : le flambage pour la tige orthotrope, la flexion pour les rameaux plagiotropes. Ce type de problèmes appelle un genre de techniques mathématiques développées d’ordinaire, depuis le milieu du 19 siècle, dans la « théorie de la résistance des matériaux » selon les termes mêmes de de Reffyeme. En fait, il s’agit, peut-on dire, d’une science appliquée ou d’une science pour l’ingénieur qui semble devoir se distinguer d’une science jugée plus fondamentale. Elle est en tout cas plus ou moins reconnue comme telle dès ses débuts dans la mesure où ses promoteurs reconnaissent qu’à la différence des autres formalismes mathématiques portant sur des phénomènes physiques, « toutes ces théories reposent sur des hypothèses qui ne traduisent qu’imparfaitement les faits »1. On pourrait objecter qu’il est en est sans doute de même des théories fondamentales, comme la théorie de l’électromagnétisme de Maxwell, par exemple. En fait, ce qui distingue la discipline dite « résistance des matériaux » des sciences physiques jugées plus fondamentales tient tout d’abord à ses objectifs volontiers pragmatiques, ensuite à la nature de ses objets qui sont essentiellement des artefacts humains et enfin à la conséquence majeure de ces deux particularités précédentes : son caractère déjà éminemment composite.
Pour sa part, de Reffye en accentue le caractère théorique pour son usage propre. Il se prépare ainsi à adapter des formules mathématiques valables pour des solides homogènes, intervenant habituellement dans des structures construites par l’homme, au problème de la verse du caféier. Le transfert de méthode de cette science des artefacts à la mécanique de l’arbre ne lui pose pas de problème. Il ne précise pas les hypothèses. Sans poser la question de son existence et de la pertinence de sa définition dans ce cas de figure, il se contente d’indiquer qu’il se propose « de calculer le module de Young de la partie lignifiée » du rameau1.
Rappels de « résistance des matériaux »
Une application directe à l’arbre vivant ou un transfert de méthode ?
Dans le deuxième article de 1976 qui intègre la mécanique du caféier, de Reffye redéfinit d’abord le module de Young E qui intervient dans la formule phénoménologique de la résistance des matériaux exprimant l’allongement h-h0 par traction d’une barre de section S soumise à une force F :
h-ho = 2
À partir de cette définition du module de Young, il lui est possible de définir le moment fléchissant M en un point de la barre lorsqu’elle est soumise à un effort de flexion :
M =
où r est le rayon de courbure engendré par l’effort de flexion et I le moment d’inertie de la section3. Comme les tiges et les rameaux sont à section à peu près circulaire, on a :
I =
où R est le rayon de la section de la tige.
Dès lors, disposant de la définition du module de Young et de celle du moment fléchissant, il lui est possible de formuler l’équation de la flèche d’une barre soumise à une force de flexion en son extrémité libre. Si de plus on considère qu’un rameau de caféier est un tronc de cône de longueur h0, dont le plus grand diamètre est D0 (diamètre de la base du cône) et dont le plus petit diamètre est d (celui de l’extrémité libre), la flèche due à l’effort de flexion s’exprime comme suit :
Y0 =
Cette formule permet également d’écrire le module de Young en fonction de la flèche mesurée. C’est de cette dernière expression que de Reffye va se servir directement pour son programme :
E =
En appliquant des poids F connus aux extrémités de plusieurs branches et de tiges de clones de type Robusta 182 et en mesurant la flèche obtenue Y0 ainsi que les dimensions correspondantes (h0, D0 et d), de Reffye procède alors à différentes mesures du module de Young1. Il le trouve relativement stable pour un même clone, que ce soit sur ses rameaux ou sur sa tige. Il en tire la conclusion qu’il peut être considéré comme une « constante génétique caractéristique »2. Son premier but est donc atteint : trouver un caractère du comportement mécanique de l’arbre aisément mesurable3. De plus, en faisant des mesures variées, il se confirme que ce caractère discrimine très bien les différentes espèces et variétés de caféiers selon leur résistance à la verse. Pour les Arabusta notamment, on mesure un module de Young faible, ce qui est signe d’une faible résistance à la verse comme on le constate visuellement en champ.
Par la suite, de Reffye veut marier la représentation de la verse des caféiers sur table traçante avec la représentation de la géométrie et de la croissance de l’arbre dont il dispose déjà. Il cherche à produire un programme qui associerait le comportement mécanique de l’arbre à sa croissance géométrique. Il lui faut donc d’abord exprimer la force critique (FC) nécessaire au flambage d’une tige de caféier : une tige verticale de longueur h flambe lorsqu’elle passe d’un équilibre stable à un équilibre instable par rapport à l’effort qu’exerce un poids sur son extrémité libre. On peut l’exprimer directement en faisant apparaître le nombre de nœuds n et la taille de l’entre-nœud moyen dh de la tige à la place de la hauteur de la tige :
FC = où D = 2.r (diamètre de la tige)
Le programme de croissance sera donc capable de déterminer quand il y aura flambage puisqu’il est déjà capable de déterminer le nombre d’entre-nœuds ainsi que la totalité des éléments biologiques dont le poids s’exerce sur l’extrémité de la tige :
« En effet, la charge de fruits par nœud étant connue, ainsi que le poids moyen d’un entre-nœud et d’une feuille, l’arbre étant symétrique, la résultante des poids s’applique sur la tige, en un point calculable. Si en ce point la charge dépasse la force critique, la tige pliera selon les lois de la théorie de la résistance des matériaux ; l’axe orthotrope sera alors en flambage.
De même, chaque branche étant connue géométriquement, ainsi que mécaniquement, pour la répartition des charges sur sa longueur, on pourra la faire fléchir selon les mêmes lois. »1
Dans le cas des rameaux, il est en effet également possible d’exprimer pas à pas, c’est-à-dire ici entre-nœud par entre-nœud, la flexion forte qu’ils subissent et donc la forme globale du rameau, cela grâce à des formulations approchées des équations fondamentales. Le calculateur programmable et la table traçante de la faculté d’Abidjan ont, là encore, servi de supports au travail de de Reffye. L’article publie alors des profils de caféiers plus ou moins affectés par la verse en fonction des modules de Young qu’on leur affecte au début du programme.
Un programme plus complexe et une programmation plus structurée
Ce programme est nettement plus complexe que celui du simple modèle de croissance car le nombre de branchements devient considérable. La liste en HPL est cependant encore publiée à la fin de l’article mais l’organigramme n’y figure pas. Seules figurent les attributions des registres aux variables du problème mathématique. Ce programme comporte en tout 63 lignes en HPL et il utilise une cinquantaine de registres sur les 172 disponibles dans la mémoire de la HP 9820 A. Par ailleurs, le style de programmation s’est quelque peu complexifié puisque de Reffye n’avait recours, dans son premier programme, qu’à des branchements directs de lignes (par l’instruction « GTO » = GO TO n°de ligne) alors que désormais il recourt le plus souvent à des appels de sous-routines (par l’instruction « GSB » = GO SUB « label »). Ces morceaux de programmes (ou routines) caractérisés et baptisés par des labels se terminent par l’instruction RET ( = RETURN ) qui commande un retour à l’endroit du programme qui succède à celui auquel la routine avait été appelée. Le branchement GOTO en revanche est un simple saut définitif. Pour sa part, il n’appelle pas un morceau du programme en tant que morceau fonctionnel autonome, c’est-à-dire qui serait situé à un sous-niveau hiérarchique et dont la machine pourrait s’extraire ensuite pour reprendre le fil principal et hiérarchiquement plus élevé du programme, contrairement à GOSUB. Lorsqu’on a recours à GOTO, on est donc obligé de maîtriser complètement ce qui se produit dans la suite rigoureuse et linéaire des lignes d’instructions et de faire que cette suite soit bien ce qui logiquement doit se produire. Lorsque des types de tâches sont répétés (et non seulement des tâches précises comme dans les simples boucles), cela dévore très vite de la mémoire puisque l’on doit reproduire à chaque fois le morceau de code qui leur correspond. Cela implique qu’il devienne très redondant. En revanche, parce qu’elles peuvent être appelées de différents endroits et surtout parce qu’elles peuvent renvoyer à ces mêmes différents endroits une fois leur sous-traitement effectué, les sous-routines permettent une programmation mieux hiérarchisée et moins redondante, donc plus économique en mémoire et plus souple.
En ce qui le concerne, le nouveau programme de de Reffye, dit « Simulation de la verse du caféier », reprend l’ancien programme de croissance, dit « Traçage de l’architecture », avec les mêmes attributions de registres pour les variables intervenant dans la croissance. Mais il est intéressant de remarquer que ce qui constituait le cœur du premier programme est instrumenté par le second sous la forme de routines : ce sont justement les équations de croissance de la tige et les équations de croissance des rameaux qui ont été reléguées dans deux sous-routines séparées. Donc la boucle principale est celle de la détermination et du traçage sur le plotter HP 9862 de la forme de la courbure à chaque pas. Les processus de croissance sont appelés l’un après l’autre, mais chaque fois seulement après que la représentation des éléments architecturaux apparus dans l’étape précédente ait été calculée, avec l’éventuelle verse qu’ils occasionnent. Le calcul de la verse est donc lui aussi traité pas à pas après chaque pousse et avant chaque autre pousse : l’intrication mutuelle des sous-modèles est totale, comme on le voit.
Comment publier un programme informatique ?
À la lecture de ce programme, quelque chose de frappant peut être immédiatement constaté : son caractère inintelligible dans le détail de sa séquence. Comme on ne dispose pas d’un organigramme, il faut en effet procéder à une lecture attentive, avec un papier et un crayon, si l’on veut suivre la séquence des tâches qu’il accomplit en vue d’en comprendre ensuite la structure générale. Cette compréhension est rendue d’autant plus difficile que de Reffye renonce à nous donner l’attribution de la cinquantaine de registres qui y figurent et dont les noms sont très sibyllins puisqu’il ne peuvent être appelés que par leur formule générique R(i). Seule une vingtaine de noms de registres sur la cinquantaine utilisés se voient clairement attribuer leurs correspondants mathématiques et biologiques dans un tableau récapitulatif. Cette explicitation limitée constitue, on le comprend, un véritable défi à la mémoire du lecteur et donc à la vérification précise du programme. Dès lors, pourquoi publier la liste d’un programme ?
Citer la liste non totalement commentée d’un programme dans ces conditions ne relève plus vraiment d’une entreprise de communication et de clarification des preuves, comme cela semble devoir être la règle pour un article scientifique, mais sans doute plutôt d’une volonté de produire un certain effet de réalité par rapport à la production technique laborieuse que constitue indéniablement la conception d’un programme informatique1. Il y a là un mouvement d’intégration et de concrétisation de l’instrument linguistique de contrôle de la machine programmable (le programme) qui devient ainsi l’analogue d’un objet technique « concret », au sens de Simondon2. D’une part, en effet, le fait que l’on se trouve ici en face d’une liste d’instructions symboliques, que l’on peut encore citer intégralement, montre qu’il s’agit clairement d’une production intellectuelle, proche en cela d’un argument scientifique présenté en langage naturel ou sous la forme d’un symbolisme mathématique (équations ou formules). La nature du programme peut dès lors sembler homogène à celle des signes ou des symboles habituels. Mais d’autre part, la longueur et la rapide opacité structurelle d’une telle liste font qu’on ne peut considérer avoir affaire à une simple écriture symbolique d’un nouveau genre. Le décryptage visuel qu’elle exige est d’une tout autre nature que celui que demande une simple lecture ou une classique interprétation des symbolismes mathématiques. Une lecture-interprétation des symboles mathématiques procède en effet principalement par évocation successive puis simultanée, en imagination, des opérations que chaque symbole tout à la fois désigne, abrège et remplace. Au besoin, une telle lecture se complète et s’assure de sa compréhension d’une part au moyen d’une reprise active, c’est-à-dire écrite, du cheminement qui donne naissance et sens aux symboles formulés : on lit un livre de mathématiques ou de physique théorique un crayon à la main. D’autre part, le lecteur peut s’expliciter la formule symbolique nouvelle, car résultant d’un travail de recherche inédit, en la rendant opératoire sur des valeurs particulières (des exemples donc) pour s’assurer de sa capacité à « prendre » en une seule vue de l’esprit (ce que signifie « comprendre ») l’opération globale qu’elle institue à partir des opérations déjà instituées et intériorisées par le lecteur qu’il est et la communauté qui est la sienne.
Or, peut-il en être de même avec la liste d’un programme informatique ? Si l’on peut en droit suivre une liste de programme en écrivant à la main ses étapes successives pour suivre pas à pas l’automate des états logiques que la machine suit, en fait, dès que le programme devient complexe et notamment, comme c’est le cas ici, dès qu’il recourt à des sous-routines emboîtées qu’il appelle un très grand nombre de fois (plusieurs centaines ou plusieurs milliers ou millions de fois), il n’est pas possible au lecteur de se livrer à ce suivi pas à pas. S’il n’en est pas le concepteur, son travail de compréhension du programme ne peut être en fait que directement symétrique et opposé à celui qui est d’ordinaire le sien face à des symboles mathématiques : un travail de synthèse et d’abréviation à l’égard des opérations pas à pas du programme et non un travail d’analyse, comme c’était le cas pour le symbolique. Alors que l’opératoire est enveloppé dans le symbole et dans la formule mathématique, et qu’il demande à être pour cela déplié et explicité1, l’opératoire est en revanche la substance même, certes immédiatement accessible et lisible, de la liste d’un programme, mais rapidement incompréhensible. Pour s’expliquer un programme, on ne va pas vers l’opératoire élémentaire, bien plutôt, on en part. Il n’y a là nul symbole qui envelopperait une tâche complexe et précise à se figurer, mais il y a au contraire à tenter de synthétiser ces tâches morcelées et en lambeaux, en quelque sorte, pour les constituer à une échelle logique intégrée où elles peuvent nous donner du sens. Ce travail inverse est extrêmement difficile voire impossible en fait, sinon en droit, surtout quand aucune indication mnémotechnique sur la structure du programme n’est donnée dans la liste. Il est bien plus difficile que celui de l’explicitation de formules symboliques puisqu’il se fonde sur un travail d’imagination doublé d’un travail empirique d’essai (et erreur) de synthèse, non orienté a priori, donc souvent fondé sur l’heuristique du pari. Ce travail est inductif plus que déductif. Il demande des capacités d’observation et de rapprochement bien loin d’une analyse linéaire. Il est donc un défi pour l’imagination autant que pour le pouvoir de synthèse de l’imagination.
C’est une des raisons épistémologiques pour lesquelles de Reffye et d’autres chercheurs, à la même époque2, tout en continuant dans un premier temps à publier la liste de leurs programmes, commencent à ne plus voir l’intérêt qu’il y a à lui donner la fonction d’une explicitation et d’une justification du travail accompli, ce qui devrait continuer d’être la fonction principale d’un article scientifique. À tel point qu’au début des années 1980, pour les articles plus tardifs qui présenteront les travaux de sa thèse d’Etat, de Reffye décidera de ne plus faire paraître que les organigrammes logiques de ses programmes. Dans ses productions, la publication des listes des programmes sera donc progressivement remplacée par la publication des seuls organigrammes, plus courts, plus lisibles et plus universels. En effet, en visualisant les séquences logiques sous forme d’un graphe, la fonction des routines comme les branchements conditionnels, l’organigramme présente également le grand avantage de ne pas opposer au lecteur ou à l’utilisateur la barrière de la spécificité du langage de programmation utilisé. Mais faire ce choix impliquera d’accepter une certaine déperdition dans la transmission de l’information. Or, comme nous le verrons plus loin, mais comme nous pouvons d’ores et déjà le supposer, ce choix ne sera pas sans quelques conséquences. Tout au moins, cette supposition, encore à confirmer, peut-elle déjà nous expliquer en partie pourquoi de Reffye et la plupart des utilisateurs pionniers de programmes codés en langage évolué ont d’abord fait le choix de publier leurs codes in extenso. Ils l’ont fait jusqu’au moment où le gain en explicitation pouvait être jugé nul au regard de la difficulté de la relecture.
Résultat : des préconisations précises pour le sélectionneur
Finalement, quelles sont les retombées opérationnelles pour ce programme intégré que propose de Reffye ? À la fin de la présentation de son travail de simulation, il insiste essentiellement sur les préconisations que l’on peut en tirer pour le sélectionneur agronome. Même si, avec son nouveau programme, il complexifie et rend plus réalistes les représentations du caféier en fractionnant davantage encore la modélisation logico-mathématique qui la sous-tend1, son recours à la simulation de la verse et à sa visualisation sur table traçante2 passe avant tout pour une confirmation de la validité des équations théoriques elles-mêmes adaptées des formulations classiques de la résistance des matériaux.
La simulation et la visualisation ne sont donc pas d’abord présentées comme des fins en soi. Elles doivent plutôt jouer le rôle argumentatif d’une confirmation empirique seconde en tant qu’elles donnent la possibilité d’une comparaison directe des résultats « théoriques » avec les observables en champ : par une sorte de transitivité de la confirmation, l’expérimentation confirme la simulation qui elle-même confirme le sous-modèle théorique pour le phénomène de verse. Cette comparaison du champ et de la simulation peut se faire à l’œil nu mais aussi plus rigoureusement avec des outils statistiques adaptés. En effet, grâce à la technique de la modélisation mathématique fractionnée et recombinée, la visualisation de la verse est fondée ici sur une formalisation théorique qui se présente clairement comme surajoutée et comme imbriquée dans la formalisation antérieure de la croissance architecturale et géométrique déjà validée pour elle-même. Il est donc possible de considérer comme relativement validé ce nouveau morceau de théorie dès lors que la simulation globale donne une représentation toujours plus fidèle de la réalité, surtout du point de vue du nouveau phénomène particulier qui nous intéresse : la verse. S’appuyant sur ces considérations épistémologiques, assez peu explicites dans l’article parce qu’elles lui paraissent évidentes1, l’auteur se concentre sur ce qui lui semble validé afin d’en tirer les bénéfices pour l’entreprise de sélection de l’IFCC : la reconstitution, à l’aide des sous-modèles de résistance des matériaux (notamment avec les formules de la « force critique », force à partir de laquelle la tige du caféier flambe), d’un scénario mathématique de combinaison des caractères génétiques intervenant dans la casse, sert à désigner les marqueurs génétiques qu’il faut en dernier ressort sélectionner. Ainsi écrit-il :
« Le modèle mathématique mis au point permet de définir avec précision le rôle de chaque paramètre de l’architecture du caféier dans la résistance à la verse. Les progrès réalisés par la sélection sur chaque paramètre peuvent faire l’objet d’une simulation, pour voir directement l’amélioration de la stabilité qui en découle. »2
Le genre de sélection qu’évoque de Reffye s’effectue par bouturages des souches qui s’avèrent les meilleurs en champ du point de vue du caractère que l’on choisit. Comme la méthode logico-mathématique qu’il préconise donne aussi à l’expérimentateur les moyens de mesurer précisément et sans ambiguïté les caractères principaux intervenant dans les équations du sous-modèle mécanique (module de Young, longueur de l’entre-nœud, diamètre des tiges), elle donne finalement la possibilité au sélectionneur de disposer de critères précis pour ses propres décisions. Il pourra ainsi tout à la fois mesurer des critères et prédire le comportement en stabilité des souches qu’il aura sélectionnées. La modélisation logico-mathématique est peut-être une formalisation mixte, impure pourrait-on dire. Il n’en demeure pas moins que son avantage décisif est donc de désigner et d’intégrer de l’expérimentable, du mesurable, dans des computations prédictives.
La réception des deux premiers modèles de de Reffye à l’IFCC
De façon révélatrice, dans une bibliographique analytique présentée par mots-clés (« biologie », « méthode culturale » « chimie », « aléas », « amélioration » et « technologie »), le fascicule n°2 de 1977 de la revue Café, Cacao, Thé1 classera l’article de 1976 sur la mécanique du caféier et sa modélisation dans la catégorie « aléas ». Aux yeux du comité de rédaction qui a lu et publié cet article, l’accent n’est donc pas à mettre sur la méthode, sur la technique ou sur la modélisation proprement dite, mais sur le phénomène modélisé (la verse) et le problème agronomique considéré. La référence à cet article de de Reffye se trouve ainsi voisiner avec une référence à un article traitant de la sélection de cultivars pour la résistance à certaines maladies. Par ailleurs, de Reffye a l’opportunité de présenter son modèle de verse du caféier au huitième colloque international sur le café qui se tient justement par chance à Abidjan, du 28 novembre au 3 décembre 1977. Or, d’après le rapport de synthèse écrit par René Coste, alors secrétaire administratif permanent de l’ASIC2, ce travail a été classé dans la catégorie « innovation agrotechnique en caféiculture » et le commentaire signale simplement qu’il s’agit d’une application de la théorie de la résistance des matériaux au caféier et que cela permet essentiellement « d’expliquer les modalités de la sélection du matériel végétal contre la verse du caféier »3. Enfin, en 1978, dans un index général et analytique des articles parus les années précédentes dans Café, Cacao, Thé, la revue classe ces articles de de Reffye dans la catégorie « café », à côté d’autres catégories d’articles comme « cacao », etc. On voit donc que, dans ces articles, les techniciens et chercheurs agronomes de l’IFCC et de l’ASIC considèrent très prioritairement les seuls aspects agronomiques ainsi que les perspectives de sélection qu’ils peuvent promettre dans le seul cas du café.
Deux conditions pour « simuler »
Finalement, jusqu’à ce second article de 1976 sur la mécanique du caféier y compris, nous voyons que de Reffye considère que l’on a affaire à une simulation sur calculateur à deux conditions. D’une part, on peut dire que l’on « simule » sur calculateur à partir du moment où un modèle logico-mathématique conçu de façon fractionnée est le soubassement de computations numériques. D’autre part, il y a simulation selon lui si l’on a la capacité de visualiser les résultats de ces computations. Dès lors, le résultat visuel que présentent la machine et sa table traçante ressemble sensiblement au phénomène perçu par nos propres moyens perceptifs et à notre échelle : à bon droit il peut être dit le feindre, le simuler.
Il est un autre point à noter. De Reffye a produit ces travaux dans un grand isolement. Il ne cite pas alors les travaux de Dan Cohen ou de Honda même si ces derniers avaient déjà proposé leurs approches géométriques et graphiques de la simulation pour les formes ramifiées. Il n’est donc aucunement influencé par eux. De fait, il dispose d’un matériel informatique bien moins performant : il n’aurait pu prolonger leur travail tout à fait dans la même direction. À la différence de Cohen et Honda, de Reffye met de surcroît l’accent dès le départ sur les caractères morphologiques importants pour l’agronomie que sont les nœuds : ce n’est pas l’aspect visuel esthétique pour un argument théorique qui l’intéresse, mais ce qu’il veut, c’est arriver à une quantification précise du nombre de nœuds fructifères. Ainsi, il est obligé de mobiliser une connaissance botanique bien plus précise que Cohen et Honda.
Dans les travaux qui vont suivre, aux deux premières conditions déterminant l’usage du terme « simulation » d’ores et déjà choisies par de Reffye (fragmentation, visualisation graphique) vont se joindre d’autres conditions qui régulent depuis plus longtemps déjà l’usage de ce même terme dans d’autres domaines (mais elles apparaissaient aussi déjà chez Eden et Cohen). Dans le cadre d’une nouvelle problématique agronomique, la recherche opérationnelle va ainsi de nouveau inspirer l’agronome par une de ses autres autres méthodes de mathématiques descriptives : la simulation probabiliste.
Dostları ilə paylaş: |