Université Louis Lumière Lyon 2 Faculté de Géographie, Histoire de l’Art, Tourisme


La plante conçue comme population de méristèmes



Yüklə 8,85 Mb.
səhifə48/112
tarix25.07.2018
ölçüsü8,85 Mb.
#58113
1   ...   44   45   46   47   48   49   50   51   ...   112

La plante conçue comme population de méristèmes

C’est donc contre l’idée que l’on pourrait à première vue représenter la complexité d’une plante en croissance par la modélisation mathématique fonctionnelle2 d’un comportement moyen, et ce même en vue d’un usage particulier clairement ciblé3 (comme l’optimisation d’un rendement), que de Reffye décide d’adopter une approche populationnelle, probabiliste et synthétique. Comme le fait le « démographe des plantes » James White en cette même année 1979, de Reffye considère la plante au niveau des méristèmes : il la conçoit de manière décisive comme une population de méristèmes. Mais cette approche populationnelle ne se contentera pas des comportements moyens. Elle se focalisera sur les comportements individualisés des différents membres qui composent les populations. Elle se développera à l’échelle de ces individus que sont les méristèmes. Car c’est le comportement de ces méristèmes pris un à un qui seul semble pouvoir être mathématiquement modélisé selon une loi de probabilité dont la structure et les paramètres varient, il est vrai, en fonction de l’ordre de ramification. C’est à cette échelle et sur ces organes seulement que l’on retombe sur un comportement suffisamment homogène et donc susceptible d’une formalisation à la fois locale et intégrable.

En conformité avec l’approche qu’il avait déjà systématiquement mise en œuvre dans ses premiers modèles de caféiers comme dans les modèles de simulation stochastique de pollinisation de cacaoyers, de Reffye part alors explicitement du principe que l’on peut fractionner les différents aspects du phénomène global de mise en place de l’architecture de toute plante en général, de manière à les recombiner ensuite de manière très intriquée, étape par étape, dans l’infrastructure du programme informatique4. Ces aspects complémentaires sont au nombre de trois : topologique (arrangement mutuel des méristèmes, des entre-nœuds et des organes), géométrique (tailles des entre-nœuds, métrique de la croissance) et mécanique (phénomènes de flambage, de verse ou de casse des tiges). Or il est à noter que l’essentiel du travail approfondi de la thèse réside dans l’analyse du premier aspect, celui qui concerne la modélisation stochastique de la topologie fine d’un arbre réel du point de vue de l’histoire particulière de ses méristèmes. Alors que cet aspect topologique du travail argumentatif et mathématique de de Reffye occupe environ 115 pages du mémoire de la thèse de 1979 sur les 130 pages qui sont au total dédiées à l’argumentation biologique et mathématique, seules 10 pages suffisent à expliciter, à la fin, l’introduction des modules de traitement de la géométrie et de la mécanique des plantes simulées. Ici nous rapporterons donc d’abord et surtout ce qui a été décisif et réellement novateur dans la formulation, la légitimation et le calibrage du modèle stochastique pour la topologie de l’architecture de toute plante. Là est l’apport principal du travail de 1979.

Ce travail sur l’aspect topologique est lui-même effectué en 3 temps : 1- de Reffye introduit d’abord un formalisme probabiliste général pour modéliser l’activité des méristèmes du point de vue de leur croissance ; 2- par la suite, il ajoute une prise en compte de la mortalité des méristèmes, phénomène qui avait été ignoré ou occulté par la plupart des modélisations antérieures de l’architecture, on s’en souvient ; 3- enfin, il met en œuvre une « théorie de la mesure de la ramification »1 dans laquelle une forme générale pour la loi de probabilité de ramification est proposée. Croissance, mortalité et ramification sont ainsi considérées comme les trois événements cardinaux qui peuvent à tour de rôle affecter localement la vie d’un méristème et modifier globalement la topologie de la plante.



Modélisation probabiliste de l’activité de croissance des méristèmes

Dans l’approche topologique, le temps et l’espace sont discrétisés. Il faut donc se donner une unité de mesure ayant une signification biologique repérable sur le terrain. Il s’agira de l’entre-nœud2. Ainsi, « la croissance d’un axe se fait par entre-nœuds successifs »3. De Reffye reprend alors à sa thèse de 1975 la supposition selon laquelle une loi de probabilité serait un formalisme élémentaire idéal car elle permettrait de capter à la fois la variabilité inter-clonale et la variabilité intra-clonale du point de vue architectural :


« Si on prend par exemple le cas du caféier, et que l’on observe l’architecture d’une ligne de plantation clonale, on saisira à la fois la ressemblance entre deux arbres du même clone en même temps que la différence. Leur ressemblance est due évidemment à leur identité génétique et leur différence aux nombreuses perturbations locales à caractère aléatoire. Si l’on compare ce clone au clone de la ligne suivante, on constate que leur différence architecturale est essentiellement génétique. La conséquence logique de cette observation est d’attribuer une probabilité de fonctionnement identique aux bourgeons d’un même clone et une probabilité différente à ceux du clone voisin. Ce concept [de probabilité] rend compte des ressemblances et des différences inter et intra clonales. »4
Une grande partie du premier chapitre de la thèse de 1979 consiste donc à trouver une formulation mathématique qui permette de remonter des mesures statistiques de terrain aux processus stochastiques qui donnent naissance aux premiers entre-nœuds d’une plante. Pour ce faire, le matériel choisi au départ sera constitué de jeunes boutures non encore affectées par la mortalité méristématique. Cela permet de formuler et de calibrer la probabilité de l’activité de croissance des bourgeons, c’est-à-dire la probabilité pour un méristème de faire ou non un entre-nœud. En faisant l’approximation de la somme d’une série avec une intégrale, de Reffye peut en effet procéder à un calcul d’inversion permettant de passer de la distribution observée des tailles des tiges à la loi probabiliste d’activité des méristèmes1. Puisque la distribution en probabilité de la taille des tiges résulte de la réitération de l’activité du méristème, elle se fait en conséquence selon une loi binomiale simple dont l’un des paramètres est la probabilité d’activité elle-même. Avec la formule du binôme valant pour cette loi binomiale, on peut donc écrire explicitement et de manière analytique la probabilité de tirer une tige de taille donnée en fonction de cette taille et de la probabilité d’activité du méristème2.

Afin de vérifier la formulation de cette loi probabiliste et ses paramètres calibrés, de Reffye écrit un premier sous-programme transitoire en HPL. Ce programme utilise la loi probabiliste de manière synthétique et il « simule »3 ainsi la croissance d’une population de bourgeons à partir de la valeur de la probabilité calibrée sur les données. Ce sous-programme recourt aux méthodes de tirage de nombres aléatoires de type Monte-Carlo dont nous savons que de Reffye les utilise et les maîtrise depuis 1974. À ce sujet, de Reffye, affirme à plusieurs reprises qu’il s’inspire des méthodes issues de la recherche opérationnelle (toujours notamment à partir du livre de Naylor et Balintfy, 1966) et que ces méthodes sont encore peu usitées en modélisation appliquée à la biologie4. Il sait donc que c’est là que figure, entre autres, une des nouveautés de sa proposition par rapport aux autres pratiques de modélisation en biologie.



Il est à noter que de Reffye ne demeure pas totalement satisfait de ce plaquage des méthodes de modélisation probabiliste. Il reste même encore assez embarrassé de ne s’être livré à ces échelles-là qu’à ce qui pourrait n’être conçu par d’autres que comme une modélisation descriptive. C’est pourquoi il tâchera, en conclusion de sa thèse, de justifier sur un plan général l’introduction de lois probabilistes en biologie au moyen d’un argument typiquement mécaniste qui, pour nous, s’avère très révélateur. Il ne le reproduira plus par la suite mais il nous en dit long sur l’esprit dans lequel il s’autorise alors à recourir aux probabilités :
« Dans la plupart des systèmes physiques, la variabilité des paramètres relève directement de l’imprécision sur les mesures. Il n’en est pas de même dans les systèmes biologiques où à toute variable on est souvent forcé d’associer une loi de distribution expérimentale, qu’on résume assez grossièrement par ses deux premiers moments, moyenne et variance. Cette différence peut sans doute s’expliquer par le fait que l’information circule lentement dans un être biologique sous forme de molécules labiles et donc doublement vulnérables. Ce qui fait que le processus biologique dépend dans son évolution de la probabilité de la transmission de l’information. »1
Dans ce passage, de Reffye fait d’abord allusion aux méthodes d’analyse de variance de la biométrie pour les opposer aux origines du calcul des incertitudes dans les sciences exactes (notamment en astronomie, comme on peut le supposer). Pour lui, la légitimité de la biométrie vient du fait qu’il y a une sorte d’émergence d’un hasard, à une certaine échelle, dans certains phénomènes biologiques élémentaires pour des raisons qu’il conçoit de manière purement mécaniste : cette sorte de hasard « objectif » émergent serait due à la différence des vitesses de certaines molécules informatives. Or, nous allons voir que c’est parce qu’il peut se représenter préalablement un tel scénario mécaniste d’émergence du hasard dans l’activité de croissance qu’il s’autorise finalement à employer les processus stochastiques, en rompant ce faisant avec l’approche purement analytique ou informationnelle de la biométrie. Il poursuit en effet immédiatement :
« La conséquence logique d’un tel état de fait est de remonter quand cela est possible aux processus stochastiques qui engendrent la loi de distribution expérimentale. Ce faisant, on est à même de mesurer le fonctionnement du système, et de le résoudre numériquement, ce qui peut permettre de remonter aux causes. »2
Son interprétation de la biométrie par l’ignorance des causes montre bien qu’il se situe encore dans une vision passablement mécaniste de la biologie, où le modèle d’une science accomplie reste celui de la mécanique et de la physique statistique. Davantage, ce passage nous permet de comprendre que de Reffye attribue à sa simulation le pouvoir de désigner plus proprement les « causes » des architecture rencontrées. Son approche de 1979 reste inspirée par un désir de déceler des causalités ou des lois théoriques à valeur universelle. Même s’il donne aux probabilités une interprétation plus objectiviste que les biométriciens, sa conception du modèle formel s’oppose à celle des positivistes ou fictionnalistes les plus radicaux. Il est remarquable que ce soit dans ce contexte interprétatif qu’il s’autorise à recourir aux processus stochastiques en tant qu’instruments de synthèse et non plus d’analyse et qu’il contribue à développer une forme nouvelle de modélisation.

Si l’on poursuit justement notre analyse de la construction progressive de son modèle, de Reffye nous livre l’organigramme du sous-programme simulant l’activité du méristème. Il le commente de la façon suivante :


« L’organigramme suivant peut simuler selon la méthode de Monte-Carlo une population de T tiges au hasard, qui auront la même liaison moyenne-variance V = f(x). Il faut toutefois un grand nombre de tiges simulées pour observer une bonne concordance entre les simulations et les observations – en effet les simulations convergent vers la relation V = f(x) suivant la loi des grands nombres. »3
Outre le fait que le sous-modèle testé ne nous est présenté que comme un équivalent statistique, nous comprenons également que ce sous-programme transitoire est utilisé pour une vérification empirique intermédiaire de la validité de la loi probabiliste particulière valant pour chaque méristème. Il nous est fondamental de comprendre ici que, comme dans les travaux antérieurs sur la pollinisation du cacaoyer, la validation du modèle informatique fractionné et intégratif commence donc déjà à ce niveau là. Ainsi, la validation n’est pas essentiellement ou pas seulement exercée à la fin, c’est-à-dire à l’issue du processus d’intégration des différents sous-modèles. Elle commence déjà au niveau des sous-modèles. La validation n’est pas ou pas seulement informationnelle et globale comme c’est en revanche le cas dans les modèles statistiques compris à un niveau purement phénoménologique. Elle intègre différentes étapes et différents niveaux de validation à des échelles qui, biologiquement, sont diversement signifiantes. Le processus de validation est donc lui-même intriqué et complexe. De par son caractère pluri-échelle, il contribue déjà à manifester l’idée que le modèle informatique est ici davantage conçu comme une réplication du phénomène réel, dans la diversité des expériences que l’on en peut avoir, que comme une simple abstraction informationnelle valant à un seul niveau et selon une seule perspective pragmatique ou opérationnelle précise.

Par la suite, le travail de de Reffye consiste, assez classiquement, à complexifier cette loi probabiliste de l’activité de croissance élémentaire du méristème pour que sa modélisation ne vaille pas uniquement pour les très jeunes plantes et les boutures. Il s’agit notamment de prendre en compte la non stationnarité de cette activité de croissance en fonction de l’ordre de ramification. Souvenons-nous ici que c’est précisément la non prise en compte de cette source de variabilité par les modèles purement géométriques de Hisao Honda qui avait conduit Jack B. Fisher à se détourner finalement des simulations graphiques sur ordinateur. Or, de ce point de vue là, de Reffye va une fois de plus à l’école de la recherche opérationnelle. De façon décisive, il s’installe résolument dans le formalisme des processus stochastiques. Il lui est alors possible de prendre en compte cette non stationnarité, qu’il interprète pour sa part comme un simple amortissement de la probabilité de croissance en fonction de l’ordre du méristème sur l’axe considéré : la variabilité des paramètres de la loi de probabilité est ainsi prise en charge et formalisée par le concept bien défini de « processus stochastique »1. Rappelons en substance qu’un processus stochastique est conçu d’emblée comme une cascade d’événements gérés eux-mêmes par des lois de probabilités éventuellement différentes. Ces lois de probabilités dépendent donc de leur situation dans l’arborescence des événements aléatoires auxquels elles ont elles-mêmes donné lieu. Dès lors, la taille de la tige résultante ne peut plus simplement être calculée comme la somme de N variables aléatoires indépendantes, contrairement au cas initial : mais on peut tout de même formaliser une dépendance entre ces probabilités tout en conservant les moyens de faire des calculs de sommation pour les événements aléatoires successifs qui leur correspondent, c’est-à-dire tout en restant à l’intérieur d’un formalisme homogène. Or, c’est ce formalisme qui, selon de Reffye, permet de prendre en compte l’évolution du comportement du méristème en fonction de sa situation dans l’architecture en croissance, c’est-à-dire en fonction de son âge biologique.

Toutefois, tous les processus stochastiques ne sont pas également féconds et manipulables. Cette échappatoire et cette complexification du côté des formalismes de la recherche opérationnelle pourraient donc se révéler stériles à l’usage. En fait, de Reffye se propose tout de suite l’hypothèse simplifiante (qui lui paraît crédible) selon laquelle « l’étape N ne dépend que de l’étape N-1 »2. Ce processus stochastique peut ainsi prendre très vite la forme simple d’une « chaîne de Markov »1. De Reffye conçoit alors un sous-programme simple permettant de « simuler le fonctionnement d’un bourgeon à accroissements dépendants ». Il nous en fournit l’organigramme. Mais, cette fois-ci, il ne compare pas les résultats de la simulation numérique (toujours conçue selon la méthode de Monte-Carlo) avec les données de terrain mais avec les résultats « théoriques » que l’on trouve par ailleurs pour la moyenne et la variance. Ces résultats, qu’il qualifie de « théoriques », sont calculés directement au moyen de formules analytiques et littérales qui découlent elles-mêmes du passage à une représentation algébrique de la chaîne de Markov et à la matrice de variance-covariance associée2. Cette simulation intermédiaire lui sert à comparer et, dit-il, à « voir l’excellente concordance entre la théorie et la simulation »3. Les lois de probabilités construites selon ce processus sont donc validées aux yeux de de Reffye.

Mais on pourrait là encore se demander pourquoi, si de Reffye dispose des formules littérales permettant d’exprimer directement la variance et la moyenne de la hauteur des tiges, il ne prévoit pas de les employer en lieu et place des simulations pas à pas : le programme en serait simplifié, le calcul moins lourd et plus sûr. Nous pouvons interpréter ce choix de la manière suivante : il s’agit pour lui de penser dès maintenant au programme intégratif où tous les sous-modèles seront assemblés et où de telles formules mathématiques explicites n’auront plus cours à l’échelle globale du fait de l’interaction avec d’autres phénomènes. Il lui faut donc conserver la reproduction réaliste du pas à pas du phénomène dans son historicité même afin d’accueillir au mieux la survenue d’autres phénomènes interférants. La condensation des formules ne peut servir ici à remplacer la simulation. Elle sert plutôt au contraire à valider la simulation dans son aptitude à remplacer, à valoir pour une formulation qui, sinon, serait théorique.

De façon significative, nous pouvons d’ores et déjà faire remarquer que les simulations intermédiaires de de Reffye, au cours de son travail d’explicitation et de légitimation, se trouvent servir à deux types bien différents de validation : validation empirique de la simulation par confrontation avec un échantillon de données de terrain qui a été jugé simple d’un point de vue empirique (les boutures), validation théorique de la simulation par confrontation avec les formules analytiques condensantes dans un cas qui a été jugé simple d’un point de vue théorique (c’est-à-dire avec des phénomènes élémentaires désintriqués).

Par la suite, de Reffye peut développer une méthode d’identification directe des paramètres numériques de la simulation qu’il appelle « méthode de résolution de l’architecture par les cimes »4. Cette méthode nécessite des hypothèses supplémentaires restreignant la généralité du processus stochastique. Elle n’est donc valable que pour certains types d’architecture, dont le « modèle architectural de Roux » qui correspond justement au caféier. Il faut notamment supposer, dans un premier temps, que les accroissements sont indépendants, c’est-à-dire que l’activité P du bourgeon orthotrope en particulier (c’est-à-dire sa probabilité de croissance) est constante. De Reffye montre que, dans ce cas précis, si l’on se place à K entre-nœuds du sommet de l’arbre et si l’on observe une population d’arbres identiques (clones) et de même âge, la dimension de la tige varie selon une loi binomiale négative de paramètres K et P. Dès lors si, à partir des mesures de terrain, on calcule, entre autres, la longueur moyenne des tiges et la variance des nombres de rameaux, on peut directement calculer, grâce à des formules algébriques simples, l’activité du bourgeon et la dimension de l’arbre. Dans ce cas de figure également, de Reffye peut se livrer à une simulation numérique intermédiaire dont il compare les résultats avec les valeurs exactes données par les formules. Là encore, il compare les valeurs théoriques, et non des observations, avec des valeurs simulées. Cette comparaison confirme la validité de la simulation mais elle offre aussi l’important intérêt de permettre de chiffrer a priori la taille minimale de l’échantillon qu’il est nécessaire de mesurer en champ pour être sûr que l’on aura affaire à une bonne estimation des paramètres des lois probabilistes. En l’espèce, la comparaison théorie/simulation indique que l’échantillon devra présenter plus de 200 individus1. Par la suite, de Reffye montre que, moyennant une certaine complexification dans les calculs à la main, la méthode peut toujours valoir dans le cas plus réaliste d’une croissance dépendante amortie. Il montre donc sa généralité. La méthode de résolution par les cimes se révèle d’une immense importance pour minimiser le travail de mesure sur le terrain.

Vient alors la phase d’application de ce modèle de simulation numérique au caféier Robusta. Ce modèle est encore partiel puisqu’il ne se présente que sous la forme de processus stochastiques. De Reffye montre qu’il est possible d’identifier tous les paramètres de ce modèle au moyen des données recueillies sur le terrain. Pour un même clone de caféier, d’après les tableaux qu’il nous fournit, la corrélation r calculée entre les observations et les valeurs simulées à partir du modèle probabiliste ajusté se révèle toujours très bonne (r>0,96)2. Il nous donne également la possibilité de comparer, sur les mêmes graphiques, les histogrammes observés et les histogrammes simulés. On y constate clairement le fort recouvrement des uns par les autres3. La forme de la distribution statistique simulée est donc elle même correctement simulée, et pas seulement ses premiers moments.

À cette étape-là de la construction du modèle, à côté de la simulation numérique servant à la validation, de Reffye propose de commencer à « voir les implications graphiques » de cette modélisation stochastique de l’activité des bourgeons. Pour ce faire, il recourt à son ordinateur HP et au traceur de courbe qui lui est connecté. Comme la gestion de la géométrie et de la mécanique des branches reste encore à introduire à ce stade-là, le programme dessine uniquement des profils arborescents rectilignes. Ils sont en deux dimensions et représentent le rabattement de toute la plante sur la feuille de papier, c’est-à-dire une projection d’un volume sur un plan. L’intérêt de cette représentation graphique intermédiaire est que l’on peut déjà observer qualitativement la différence de port entre divers clones du caféier par exemple. Comme on connaît également le nombre exact d’entre-nœuds pour tous ces arbres simulés, on peut même déjà commencer à expliquer la variation inter-clonale et intra-clonale de la production en cerise, c’est-à-dire, au final, en café. Le lien, déjà connu par ailleurs pour certains clones, entre le rendement et l’allure qualitative de leur architecture telle qu’elle est clairement reproduite sur le traceur de courbes est ainsi vérifié. Autrement dit, le lien entre une appréhension qualitative coutumière et un résultat quantitatif probable est explicité et confirmé par la visualisation automatique du profil calculé. Ainsi, certains clones confirment leur adoption préférentielle d’une forme trapue ou plutôt conique ou encore ogivale4, etc.

Notons ici que de Reffye qualifie cette reproduction encore très stylisée de « représentation graphique » alors qu’il réserve l’expression de « simulation spatiale » pour désigner ce qui sera le résultat final des modèles intégrés dans l’infrastructure informatique. Significativement, la représentation est encore clairement abstractive et symbolique pour de Reffye alors que la simulation finale sera plus fidèle à la réalité botanique, ne serait-ce que parce qu’elle restituera une véritable gestion de la tridimensionnalité de la plante. Cette « représentation graphique » intermédiaire présente également l’intérêt de marquer les limites du modèle du fait de la non prise en compte de la mortalité des bourgeons lors de la croissance. C’est aussi en cela que l’on a encore affaire à des « profils théoriques ». Ils ne sont pas susceptibles de reproduire la réalité parfaitement. Et ils mettent ainsi en évidence les différents phénomènes biologiques que les autres sous-modèles mathématiques devront prendre en compte :
« En réalité, plus on progresse du sommet vers la base, plus la mortalité affecte les bourgeons. Ainsi, à 30 étages du sommet, 90% des rameaux sont morts et 50% sont déjà tombés. Ceci dégarnit le caféier et change notamment sa silhouette. »1
Une modélisation de l’architecture doit en conséquence prendre en compte ce phénomène très important si l’on veut pouvoir évaluer correctement le rendement du caféier dès lors qu’il est très lié à l’architecture globale de l’arbre. C’est ce à quoi de Reffye va s’atteler dans la suite.

Mortalité des méristèmes et ramifications avec retard

Dans un deuxième temps, il s’agit en effet de définir plus finement l’architecture de l’arbre. Pour la prise en compte de ce nouveau phénomène biologique qui lui-même explique, au niveau du méristème, les phénomènes observables d’avortement ou d’élagage naturel de certains rameaux dans l’architecture, de Reffye procède de la même manière que précédemment. Il recourt à des processus stochastiques en définissant une mortalité et une viabilité pour les méristèmes. Il est à remarquer que la viabilité ne coïncide pas avec l’activité. Il lui faut donc procéder à des calculs algébriques de composition de probabilités assez longs pour arriver à exprimer analytiquement l’espérance de la taille d’une tige et sa variance. À ce stade-là, de Reffye réitère sa méthode de validation théorique de la simulation puisqu’il dispose des formules analytiques. Il nous livre ainsi l’organigramme du sous-programme de simulation de la croissance d’un méristème d’activité et de viabilité données. Le programme procède toujours méristème par méristème. Il est conçu pour faire d’abord le test probabiliste (par une méthode de Monte-Carlo) de la viabilité pour le méristème en question ; et si ce test est positif, il fait alors le test probabiliste de l’activité de croissance. C’est ainsi que les deux phénomènes sont aisément intriqués dans le nouveau sous-programme, sans les complications mathématiques des formules analytiques : le traitement de leur intrication peut être séquentiel car le programme simule l’historicité du phénomène complexe au niveau du destin individuel d’un méristème. Il simule un passage du temps pas à pas à cette échelle où précisément l’intrication de ces phénomènes biologiques peut être traitée comme une succession élémentaire.

De Reffye nous présente alors les valeurs simulées par ce nouveau sous-programme en regard des valeurs qui ont été calculées selon les formules « théoriques » de manière à confirmer la bonne aptitude du sous-programme à simuler numériquement l’avortement ou l’élagage naturel. Il effectue ensuite le calibrage de ce modèle de simulation numérique sur des clones de caféier particulièrement bien mesurés et suivis ; ce qui n’est pas le cas pour tous. Le nombre des mesures nécessaires, ou plutôt le nombre de tiges qu’il faut décompter sur différents arbres d’un même clone s’élève en effet parfois à près de 20001. Il réutilise enfin son module de « représentation graphique » des profils grossiers, en y incorporant le nouveau sous-programme simulant la viabilité intriquée avec l’activité, de manière à évaluer qualitativement la prise en compte du phénomène d’élagage. D’après ses tableaux de mesure et ses valeurs simulées, de Reffye en conclut avec satisfaction qu’« on obtient alors des ‘caféiers aléatoires’ qui ont le même comportement que celui observé en champ »2.

Il reste cependant encore un phénomène biologique qui n’est pas pris en compte et qui peut affecter l’architecture de l’arbre à un moment donné de son histoire. Il s’agit de l’éventuelle dormance affectant les bourgeons axillaires, autrement dit les bourgeons donnant naissance aux axes latéraux. Un bourgeon axillaire formé lors de la création d’un entre-nœud de la tige peut ne fonctionner que quelque temps plus tard, avec un certain retard. De Reffye introduit alors la notion de « probabilité de fonctionnement ». Dans l’organigramme du nouveau sous-programme valant plus spécifiquement pour les bourgeons axillaires, un test de dormance est donc inséré. Il est fait préalablement au test d’activité. Là encore, on peut comparer valeurs simulées et valeurs théoriques pour une population de rameaux.



Validation et vérification : arbre calculable et arbre non calculable

Cependant, lorsqu’il s’agit de prendre en compte tous ces derniers phénomènes biologiques ainsi que l’effet d’amortissement de l’activité, de Reffye ne parvient plus à calculer et à exprimer analytiquement la taille théorique de la tige et sa variance. Il écrit laconiquement : « Dans le cas général où b(N) [ = probabilité de croissance b fonction de la dimension N de l’arbre] n’est pas constant, le problème est plus difficile à résoudre »3. Et là s’arrêtent les calculs. En contraste avec le scrupule qui avait été jusqu’à présent le sien lorsqu’il s’agissait de calculer de manière analytique les paramètres des processus stochastiques, de Reffye propose alors de se rabattre sur un ajustement par tâtonnements :


« Dans ce cas, il est plus facile de procéder à un ajustement direct empirique par la méthode de Monte-Carlo, en faisant varier les coefficients de l’activité jusqu’à ce que les histogrammes simulés et observés coïncident d’une façon satisfaisante. »4
Remarquons que cet ajustement est dit « empirique » dans la mesure où l’on fait plusieurs essais avec des paramètres choisis d’abord au hasard et où l’on visualise graphiquement l’allure des différents histogrammes de simulation résultants. On constate donc visuellement la plus ou moins grande concordance entre les histogrammes des phénomènes réellement observés et les histogrammes des simulations. Cette pratique est analogue à la modélisation statistique dite non-paramétrique. C’est donc à l’usage, sur ses performances comparées, que le modèle de simulation est ajusté, dès lors qu’il est devenu trop complexe à cause de l’intrication des divers phénomènes biologiques modélisés. C’est que le modèle ne peut plus être inversé mathématiquement. En ce sens, de Reffye en fait bien un usage « direct ». Mais ce dernier reste prudent sur la nature précise de l’obstacle : n’étant pas mathématicien, il reconnaît implicitement qu’il ne s’agit peut-être pas d’une impossibilité mathématique en soi, mais plutôt d’une difficulté mathématique pour lui (« le problème est plus difficile …», « il est plus facile …»). Toujours est-il que se révèle là un autre emploi pour sa simulation : la possibilité de calibrer cette fois-ci au niveau du phénomène global les paramètres qui manquent. Mais, du même coup, on perd la sécurité de la validation séparée. En ce sens, nous constatons qu’il arrive un moment où le processus de validation fractionnée pas à pas ne peut plus être poursuivi.

Il est tout à fait révélateur pour nous que de Reffye se soit senti fortement gêné par un tel procédé de dernier recours : c’est qu’à plusieurs reprises, il manifeste une certaine méfiance à l’égard des résultats d’une simulation intégrée. C’est pour cela qu’il prend soin de procéder autant que possible à des validations théoriques, étape par étape, dans la construction progressive de son modèle intégrateur. Cette méfiance de principe se manifeste clairement dans un passage de la thèse dans lequel il revient sur l’approche qui a été initialement la sienne. Il y exprime sa conviction qu’il faut toujours pouvoir disposer d’un « arbre élémentaire » qui présente la particularité d’être entièrement calculable à la main et d’être ainsi susceptible de servir de contrôle à toute la simulation. Ce passage a le mérite de nous faire mieux comprendre le sens de la distinction entre ce que nous avions d’abord appelé validation empirique et validation théorique :


« La vérification du bon fonctionnement des programmes de simulation d’architecture exige de savoir résoudre théoriquement au moins un arbre particulier. Cet arbre sera l’‘Arbre élémentaire’. Bien que relégué dans un sous chapitre du présent travail, il en est à l’origine. Ce n’est que lorsqu’il a été bien connu et résolu que nous avons tenté l’approche des arbres réels. L’Arbre élémentaire et tous ceux qui en dérivent simplement ont la propriété d’avoir toutes leurs caractéristiques architecturales calculables […] On peut alors facilement rendre compte du bon fonctionnement des simulations en observant la convergence entre les caractéristiques simulées et leurs valeurs théoriques. »1
Ce que nous avions appelé la « validation théorique » recouvre donc en fait la vérification du programme : il s’agit de savoir si le programme fait bien ce que l’on prévoit qu’il fasse d’un point de vue formel. C’est la qualité de l’implémentation informatique du modèle mathématique qui est ici testée. Alors que dans le cas de la « validation empirique », il s’agit d’une validation proprement dite, à savoir une comparaison entre ce que donne le modèle et la réalité observable. De Reffye ne fait pas cette distinction aussi nettement que le feront plus tard les informaticiens dédiés à la modélisation2. Mais il a conscience de l’importance de la vérification du programme au moyen de calculs analytiques poussés le plus loin possible, en parallèle des simulations.

La notion d’« Arbre élémentaire » calculable se trouve remplir une autre fonction importante selon de Reffye, à laquelle il ne veut pas renoncer :


« Le fait que l’on peut formuler l’arbre montre comment se combinent entre elles les notions d’activité, de viabilité, de ramification, d’axillaires par nœud et de dimension dans l’expression de la structure de l’arbre. Ceci permet de mesurer l’importance relative de chaque notion dans l’architecture, et l’on voit bien que chacune est indispensable pour décrire l’Arbre entièrement, et que l’on ne saurait le ramener, comme nous l’avons dit plus haut, à uniquement [sic] des problèmes de ramification. »1
Cette seconde fonction de l’« Arbre élémentaire » est de nature théorique cette fois-ci. C’est-à-dire que, selon de Reffye, c’est seulement grâce à elle que l’on peut encore « mesurer » intellectuellement, autrement dit comprendre, le poids relatif de chacun des phénomènes biologiques intervenants. De Reffye sous-entend que sans cette notion, la simulation informatique rend définitivement opaque à notre esprit le sens biologique de ses très nombreux calculs souterrains. La notion d’arbre calculable permettrait donc de ne pas être victime de ce voile opaque et elle servirait autant à percer à jour le sens biologique de chacun des phénomènes contribuant à l’architecture globale qu’à contrôler l’implémentation informatique. Elle servirait à nous donner à voir ce qu’il nous faut encore tâcher de comprendre d’un regard de l’esprit ; elle servirait à nous en donner une intuition intellectuelle si l’on peut dire. En se donnant une telle notion, de Reffye admet qu’il peut aussi permettre de penser le phénomène complexe de l’architecture avec les concepts de la biologie et non plus seulement avec ceux de la physique ou des disciplines connexes. Comme il nous le dit en substance à la fin de ce passage, il espère convaincre les biologistes qu’une des retombées d’un tel travail autour d’une simulation de l’architecture peut également leur fournir les moyens d’expliquer et de montrer clairement, grâce à des concepts purement biologiques et botaniques cette fois-ci, que l’architecture d’un arbre n’est pas réductible à un réseau hydrographique, ce dont ils sont déjà bien persuadés mais sans qu’ils aient eu jusque là les moyens de proposer une alternative de conceptualisation liée à une modélisation mathématique à la fois fidèle à la biologie et crédible.

Simulation spatiale et intégrale : le verdict du rendu visuel

La dernière étape du travail de 1979 consiste dans un premier temps à faire compléter par l’ordinateur les profils d’architecture en 2D par des symboles alphanumériques assez grossiers représentant les feuilles (deux parenthèses accolées) et les fruits (deux astérisques superposées)2. Pour faire déterminer par l’ordinateur les nœuds porteurs de feuilles et/ou de fruits, de Reffye lui fait prendre en compte à chaque fois l’âge et la situation du nœud. Il réutilise en partie les règles sur les durées de vie qu’il avait déjà employées dans le modèle de 1976 alors qu’il ne prenait encore en compte que les valeurs moyennes et les groupes d’axes. De Reffye affirme alors qu’il dispose de « toute l’information nécessaire pour reconstituer entièrement le robusta étudié »3.



À ce stade-là, il ne parle donc plus de modélisation, mais bien de reconstitution du caféier. Qu’entend-il par là ? En fait, il conçoit la reconstitution essentiellement à l’image d’une réplication visuelle. Ce qui nous permet d’affirmer cela est le fait qu’à partir de cette étape de la thèse, il commence à émailler systématiquement son propos de photocopies de tracés d’arbres divers effectués sur le plotter HP. Et il commente ces dessins effectués par l’ordinateur avec ce genre de phrases : « Cela est bien conforme à l’observation de la plante elle-même », « La répartition et la taille des [axes] secondaires est également satisfaisante visuellement ». La « simulation intégrale » permet donc une sorte de validation qualitative, c’est-à-dire à l’œil, et valable en ce sens à l’échelle globale. D’où la multiplication des termes qui renvoient à la vision. Le rendu visuel des premiers profils intégraux devrait déjà permettre, selon lui, une sorte de légitimation de son travail quant à sa valeur biologique. Rappelons en effet ici que la biologie donne traditionnellement un fort poids à l’observation1. Nous ajouterions que c’est d’autant plus vrai de la botanique. De Reffye attend l’assentiment des botanistes. Cette interprétation se confirme lorsqu’on lit la phrase suivante : « Il convient de souligner que l’aspect visuel du caféier est bien restitué et que les experts de l’IFCC le reconnaissent comme valable. »2 De Reffye recourt ici à une sorte d’argument d’autorité. Mais les autorités dont il se réclame sont elles-mêmes reconnues, semble-t-il. Donc l’argument peut, selon lui, être jugé bon. En fait, il fait référence ici au savoir enfoui de l’expert. Ce savoir, non aisément formulable, se caractériserait selon lui par le fait qu’il ne peut servir de pierre de touche qu’à une échelle intégrée. Il ne pouvait donc valoir sur des modèles mathématiques locaux. L’expert serait alors celui qui a acquis une espèce de flair valable essentiellement sur le terrain, c’est-à-dire au cœur des phénomènes dans leurs manifestations intriquées, et complexes pour cela. Les experts porteraient en eux, en leur compétence inséparablement intellectuelle et pragmatique, le moyen de discriminer les bonnes simulations intégrales des mauvaises. À bien y réfléchir, cela supposerait au fond que l’expert procède, sans qu’il en ait peut-être réellement conscience, de la même manière que l’infrastructure informatique du programme général en HPL3 de de Reffye : une intégration de savoirs épars, une intrication de systématicités ou de cohérences locales, partielles et distribuées. Toutes choses que l’on renvoie ordinairement à un savoir de type plutôt qualitatif car faiblement résumable et donc difficilement formulable et communicable. À tirer jusqu’au bout les conséquences de ces hypothèses implicites dans le propos cité plus haut, on devrait donc conclure qu’aux yeux de de Reffye, son programme simule le sens du réel qu’a patiemment acquis l’expert au contact du terrain : en répliquant le réel, il simule la compétence de l’expert, à savoir l’expertise elle-même. Et il lui semble pour cela rompre en partie la barrière traditionnelle entre le savoir qualitatif non transférable et le savoir quantitatif seul transférable.

Simulation de la phyllotaxie

Cependant, pour être plus crédible, le passage à la simulation intégrale et effective (en 3 D) impose, dans un second temps, d’ajouter les deux modules de prise en charge des aspects géométriques et mécaniques de l’arbre. Pour la géométrie, il faut notamment prendre en compte la phyllotaxie réelle des rameaux. Elle peut être spiralée ou plane. De Reffye rappelle que tout problème de cet ordre peut être géré comme la rotation dans l’espace d’un vecteur autour de l’axe qui porte le rameau. Il reprend donc explicitement la vieille notion d’« angle de divergence » déjà développée par Schimper et Braun. Et il écrit la formule analytique permettant d’exprimer le nouveau vecteur en fonction du précédent. Il est à noter que cette formule ne pose en elle-même aucun problème. Elle se suffit d’être récursive puisque le traitement des axes, dans la simulation, est exhaustif et pas à pas. Elle peut même être complexifiée à volonté, par la suite. Elle est de toute façon aisément supportée par l’infrastructure logicielle.

Cette formule présente l’avantage d’être très simple chez le caféier. Et, même si son objectif est la conception d’un modèle de simulation universel, pour la simulation tridimensionnelle effective, de Reffye se limite dans un premier temps à ce type d’arbre. On peut ainsi considérer que les N premiers axes d’un caféier, ou axes d’ordre 1, sont régulièrement implantés en formant des angles de 2/N les uns par rapport aux autres. Quant au sous-modèle « mécanique », de Reffye reprend simplement ses travaux publiés de 1976 sur la simulation du flambage et de la casse que nous avions déjà analysés plus haut.

Vitesse, mémoire et souplesse limitées

Finalement, avec ces deux derniers modules, de Reffye peut faire représenter à l’ordinateur un arbre subissant son propre poids, sous n’importe quel angle de vue et avec une prise en compte de la perspective. Il s’agit d’une projection encore plus visuellement réaliste, car elle est effectuée sans rabattement comme c’était en revanche le cas pour les simples « représentations graphiques ». De Reffye donne la liste intégrale des programmes HPL en annexe : ils occupent de 100 à 152 lignes. Le programme le plus long prend 5,5 Ko de mémoire vive. C’est-à-dire qu’ils utilisent parfois presque la moitié de la mémoire disponible (15 Ko). De plus la plupart des registres sont employés. De fait, les points calculés sont dessinés au moment même où ils sont calculés : pour des raisons de limitation en mémoire, ils ne demeurent plus directement accessibles après coup. Ces limitations en mémoire sont par ailleurs contournées par une programmation qui utilise massivement la récursivité et la définition des tâches sous la forme de sous-routines que le programme principal appelle un grand nombre de fois.

Un autre enseignement de ces derniers ajouts est la faible manœuvrabilité de la simulation intégrale obtenue. Pour ces raisons de limitation de vitesse et de mémoire, faire effectuer une simulation intégrale sur l’ordinateur disponible alors à l’IFCC prend énormément de temps :
« À titre d’exemple sur le calculateur HP 9825, il faut 20 minutes pour tracer un caféier aléatoire en rabattement à la dimension 70 [ = nombre d’unités de croissance], mais il faut 4 heures pour obtenir une projection plane de la construction spatiale de l’arbre en flexion. »1
Les calculs les plus lourds sont donc de loin ceux qui sont exigés par la prise en compte des rotations et des flexions successives des axes et des unités de croissance dans l’espace. La topologie elle-même, avec ses processus stochastiques gérés par la méthode de Monte-Carlo, se révèle finalement assez peu coûteuse en temps. Il peut donc paraître parfois préférable de se limiter aux « représentations graphiques » initiales sans recourir aux modules de mise en espace géométrique. La gestion de la tridimensionnalité demande donc un surcroît de mémoire et un progrès dans les vitesses de calcul.

Néanmoins, la conservation de ces modules est essentielle à de Reffye pour qu’il accomplisse tout à fait la tâche qu’Hallé lui avait entre-temps assignée : simuler de manière réaliste, du point de vue botanique, tous les « modèles architecturaux ». En quelques pages mais en recourant surtout aux reproductions des différents résultats visuels, de Reffye montre que les concepts probabilistes, géométriques et mécaniques qu’il a introduits sur le cas particulier du caféier mais dans un souci de généralité, de même que l’infrastructure informatique qu’il a mise au point pour les intégrer les uns aux autres, valent aussi bien pour chacun de tous les modèles architecturaux que pour le caféier :


« Le but fixé est de faire croître une plante fictive d’un modèle donné selon la stratégie architecturale définie par (Hallé, Oldeman et Tomlinson, 1978). Naturellement une grande souplesse de programmation est nécessaire, afin de permettre d’aborder la variabilité au sein d’un même modèle, et d’approcher d’aussi près que l’on veut une espèce réelle particulière. »1
Autrement dit, de Reffye reconnaît le caractère « fictif » de la plante simulée, mais au sens où c’est la réplication d’une plante possible et non nécessairement la reproduction d’une plante réelle particulière. Une telle simulation permet l’exploration des possibles. En ce sens, elle rejoint le pouvoir qu’ont les mathématiques de dire, ou plutôt de faire voir et d’explorer toute la virtualité du réel avant qu’il n’advienne2. Dans tous ses modèles stochastiques, elle capte en effet toute la variabilité a priori localement possible de telle sorte que la variabilité de l’architecture globale soit une résultante des variabilités locales sans leur être pour autant ni directement ni simplement proportionnée. Elle permet ainsi de serrer au plus près le réel observable, singulier, notamment lorsque l’on ajoute des sous-modèles qui prennent en compte des phénomènes biologiques de plus en plus fins.

Quand on change de modèle architectural, on peut modifier les paramètres des sous-modèles mathématiques et de leurs divers branchements conditionnels pour les adapter le mieux possible à la diversité botanique réelle : là est le sens de cette souplesse que de Reffye invoque. Il nous faut cependant remarquer que dans cette première version en HPL, c’est sur le programme lui-même qu’il faut le plus souvent intervenir pour modifier les paramètres. Cette souplesse demeure donc très relative : elle ne se vérifie que pour l’utilisateur qui aurait directement accès à la liste du programme. La généralité du programme n’est en fait perceptible que pour son concepteur. Dans quelle mesure finalement une telle souplesse peut-elle être le réel signe d’une généralité de l’infrastructure du modèle de simulation ? Car, fidèle à sa quête d’éventuelles lois générales de la nature, c’est bien cette idée que de Reffye essaie de mettre en valeur sur la fin de son travail.

Davantage : le programme a-t-il réellement capté une structure abstraite suffisamment générale pour rendre compte jusque dans le détail de tous les types d’architecture végétale recensés ? Autrement dit : est-ce encore un modèle ? S’il ne nous appartient pas de répondre à cette question, tout au moins le fait que de Reffye se la pose et croit pouvoir y répondre par l’affirmative nous indique que la structure du modèle a du moins changé de nature : le modèle qui sous-tend la simulation ne peut plus être dit mathématique. C’est un modèle mixte, pluriformalisé. Comme dans les travaux précédents menés par de Reffye sur le cacaoyer, c’est bien une infrastructure informatique qui permet ici la compatibilité et l’interopérabilité entre les sous-modèles mathématiques. En 1981, de Reffye s’avancera un peu plus encore et dévoilera la raison profonde qui lui fait penser qu’il touche là à quelque chose d’universel et de fortement déterminant. Il considérera en effet que le programme informatique « n’est autre que la traduction du programme génétique du modèle [architectural] »3.

Diversité des applications réalisées et envisagées

À l’issue de son travail de recherche, de Reffye croit pouvoir déceler au moins 4 champs d’application possible pour ses simulations :


1) Sur le plan de la botanique, la continuité sous-jacente découverte entre les différents modèles architecturaux pourrait être utile aux botanistes théoriciens comme aux spécialistes de la phylogenèse. Le modèle de simulation pourrait aider à concevoir d’une manière de nouveau unifiée la structure générale d’une plante. Ici, de Reffye exprime donc quelque chose comme le souhait d’en revenir aux spéculations goethéennes sur la « plante primitive » unique. Ce qui indique que la diversité des modèles architecturaux le gêne, même s’il en a pris son parti. Il lui paraît de surcroît possible de « tester les implications graphiques de toute hypothèse théorique sur le fonctionnement des bourgeons »1. À cet égard, de Reffye affirme que le tracé graphique est indispensable puisqu’à ce niveau-là, c’est l’expert qui doit être le dernier juge. Dans ce cas de figure, la simulation vaut comme une espèce nouvelle d’expérimentation : elle permet de rejeter certains sous-modèles mathématiques dans le cas où la simulation intégrale n’est pas validée par « l’œil de l’expert »2. De Reffye reprend en fait ici une idée dont nous avons vu qu’elle avait été énoncée par Honda dès 1971.

2) Sur le plan des théories de la morphogenèse, des études quantitatives transversales pourraient être menées sur la simulation de manière à mettre en évidence d’éventuelles interdépendances du point de vue du fonctionnement.

3) Sur un plan très appliqué cette fois-ci, il rappelle que des méthodes de récolte automatique ont déjà tiré parti des simulations du comportement mécanique des arbres à l’IFCC : la verse est prévenue sur le terrain grâce à ce moyen de la prédire par ordinateur. La production s’en trouve augmentée. Les machines à récolte automatique bénéficient aussi d’une meilleure connaissance des propriétés mécaniques des arbres (oscillations, résonances…) et sont plus efficaces.

4) Sur le plan plus strictement agronomique, celui de la productivité à l’hectare, de Reffye précise que son logiciel peut a priori prendre en compte la gêne entre arbres (si on lui fournit les paramètres mesurés sur un échantillon) et qu’il peut donc calculer le nombre de fleurs à l’hectare en fonction de la densité des arbres3 : il lui serait donc possible, par tâtonnements, de désigner approximativement la densité optimale. Il indique qu’en cette fin de l’année 1979, des expérimentations allant dans ce sens sont en cours.


Il n’en demeure pas moins que, du point de vue agronomique qui reste d’abord le sien à cette époque, la réussite principale de cette simulation tient dans sa capacité à prédire très précisément la production annuelle moyenne d’un clone de caféier : de Reffye trouve une corrélation de 98% entre ce qui est observé et ce qui est simulé. Néanmoins, si ce travail de modélisation et de simulation montre que l’architecture est bien définie à un âge donné, elle montre aussi que, pour une individu, la floraison, et donc la production, est fortement dépendante du climat. Certaines anomalies des essais agronomiques trouvent là leur explication. L’optimisation à partir du rapport architecture/rendement reste toutefois possible si on la conçoit au niveau de l’espérance mathématique. Donc, même si elle s’est montrée capable d’expliquer et de contourner ponctuellement les insuffisances de la méthode des plans d’expériences, la solution de modélisation de de Reffye ne paraît pas susceptible de la remplacer toutes affaires cessantes et sans condition.

Réception et suite immédiate du programme de simulation des plantes (1979-1981)

C'est dans de bonnes conditions que de Reffye soutient ce travail de thèse à l’Université d’Orsay à la fin de 1979. Son jury est composé de Yves Demarly, Francis Hallé, Yvette Dattée1 (professeur de génétique à Orsay), Claude Millier (professeur de « biomathématique » à l’ENGREF2), M. Lapasset (physicien de l’Université d’Abidjan). Vis-à-vis de ses collègues directs, de Reffye obtient rapidement un certain succès même du côté des botanistes qui sont peu habitués aux équations mathématiques. De fait, les simulations graphiques font beaucoup pour la persuasion de certains de ses collègues encore très réfractaires à toute formalisation en botanique : de Reffye découvre ainsi le formidable pouvoir de communication et de persuasion que lui permettent ces mises en images du modèle fragmenté. Le trouble et l’admiration que ces images causent se transmettent également aux supérieurs hiérarchiques de de Reffye. Ces derniers commencent à considérer qu’ils ont là un chercheur de premier plan, même si, dans les deux années qui suivent, ils ne trouvent pas à l’employer ailleurs que dans un même contexte de science appliquée. D’autant plus que l’approche de de Reffye ne fait tout de même pas l’unanimité dans la mesure où il rencontre inévitablement les critiques des écophysiologistes. Ces derniers lui reprochent de ne se livrer qu’à une modélisation platement descriptive alors qu’il faudrait s’intéresser aux véritables mécanismes et facteurs en jeu dans la croissance : température, humidité, nutrition, mécanismes de fonctionnement des bourgeons… Il ne les convainc pas du tout lorsqu’il invoque le fait que sa modélisation probabiliste rend compte des « causes » et qu’en cela elle serait supérieure à l’approche phénoménologique des modèles statistiques classiques.

Dans les mois qui suivent, il reste en Côte-d’Ivoire, notamment pour poursuivre les expérimentations qui doivent servir au calibrage des simulations de gêne lorsque les arbres simulés sont en futaie. D’autre part, il continue à travailler à la modélisation d’équilibres biologiques (pollinisation par des insectes) en compagnie de son collègue agronome de l’IFCC, René Lecoustre. Il est à noter que la simulation de la gêne qui devait aboutir à la désignation des densités optimales échoue en réalité assez vite, notamment du fait des limitations en calcul de l’ordinateur HP employé. Il faudrait modéliser la co-croissance d’un certain nombre d’arbres voisins. Or, si l’on conserve la solution du suivi méristème par méristème, cela suppose de prendre en compte un très grand nombre de points de calcul. Et cela nécessite aussi de ne pas négliger les aspects géométriques et mécaniques dont on a vu qu’ils exigeaient une bien plus grande rapidité de calcul. Ce qui se révèle au-delà des capacités des HP 9825, même dotés d’extensions de mémoire. C’est un des premiers échecs que rencontre de Reffye : sa méthode de simulation réaliste semble ne pas permettre le passage à l’échelle des peuplements ou des plantations, c’est-à-dire à l’échelle réellement agronomique.

À cette même époque, il subit un autre échec qui l’affecte assez profondément : son refus au concours d’entrée à l’INRA comme chargé de recherche. De Reffye sent à ce moment-là que son approche peut lui permettre d’entreprendre et de poursuivre des recherches de nature plus fondamentale, mais toujours en lien avec l’agronomie. C’est pourquoi il se présente à ce concours, en partie aussi avec l’espoir de rentrer en métropole avec sa famille. Il décide de miser sur son travail antérieur de modélisation stochastique et fragmentée de la pollinisation du cacaoyer par les insectes. Le fait que l’application en agronomie soit, pour ce travail, d’ores et déjà incontestable lui semble un facteur important. Il rédige donc un document de synthèse à l’attention du jury : comme à son habitude, il présente un travail de modélisation fragmentée en deux parties, celle des moments favorables de la plante, puis celle du comportement des insectes, la combinaison informatique des deux modélisations permettant une prévision de la pollinisation et donc de la fructification. Mais le jury, constitué essentiellement de biologistes et d’agronomes, semble totalement désorienté par cette approche très inhabituelle : la modélisation stochastique par la théorie des files d’attente lui est notamment très peu familière. Le document lui paraît d’ailleurs mal présenté et assez abscons. La grande majorité du jury n’est donc pas convaincue. De Reffye n’est pratiquement soutenu que par un seul jeune chercheur, alors rattaché au « secteur végétal » et directeur du « département de pathologie végétale » de l’INRA, Alain Coléno1. Ce dernier reconnaît une valeur indéniable au raisonnement général du candidat même s’il avoue ne pas pouvoir suivre dans le détail l’approche informatique, cela malgré le fait qu’il est sans doute un des plus qualifiés du jury pour évaluer le côté statistique du travail de de Reffye. Mais arrêtons-nous brièvement sur ce personnage un peu hors norme de l’INRA, puisqu’il se souviendra de cette première rencontre malheureuse et qu’il jouera plus tard un rôle important dans la carrière de de Reffye. Nous reviendrons par la suite sur le cursus de de Reffye.

Ingénieur de l’INA, Coléno avait passé son doctorat d’Etat en 1973, à l’Université de Rennes. Son travail portait sur les maladies bactériennes affectant les végétaux. Selon Coléno, cette thématique devait être abordée tant du point de vue immunologique que du point de vue populationnel, dès lors que la médecine des plantes en semis, à la différence de la médecine animale, a tout de suite à faire à des problèmes de transmission et de multiplication au niveau du plant tout entier. Dans la deuxième partie de sa thèse, très statistique et fidèle à l’esprit de la biométrie anglaise, Coléno montrait que l’on pouvait déterminer des seuils de contamination en deçà desquels la transmission était improbable et la maladie peu susceptible de se développer. Cette partie débouchait assez naturellement sur des applications immédiates en agronomie. Mais l’Université considéra que ce côté pratique n’avait rien à faire dans une thèse d’Etat en biologie et elle la lui fit supprimer avant la soutenance2. Coléno fut tout de même recruté à l’INRA comme chargé de recherche. Il continua à y travailler sur des problèmes de pathologie végétale. Il recourait pour cela essentiellement à des techniques d’analyse de données (dans un esprit inductiviste proche de celui de Benzécri3), d’analyse en composante principale, voire à des techniques d’analyse non-paramétrique. Ces techniques étaient alors en plein essor à l’INRA, notamment grâce à l’informatique. Coléno recourait également à la modélisation par compartiments, en particulier dans l’étude des relations entre le développement, les différents cycles parasitaires et les conditions météorologiques favorisant ou non une maladie. Dans le département de pathologie végétale, dont il devint le directeur en 1978 et en partie sous son impulsion, régnait une sorte de pluridisciplinarité assez féconde et qui se résumait surtout à une collaboration entre mathématiciens et biologistes autour de ce que Legay commençait à appeler publiquement la « méthode des modèles ».

À l’époque où il rencontre de Reffye, Coléno a donc un passé de biométricien particulièrement aguerri. Pour sa part, la candidature de de Reffye coïncide avec le moment où il emprunte plus personnellement ce qu’il appelle une troisième voie pour la modélisation mathématique en pathologie végétale, à côté de la modélisation génétique et de la modélisation statistique : la modélisation des études qui mènent au diagnostic. Ce travail donne un rôle central à l’ordinateur, mais conçu comme machine de simulation logique du raisonnement de l’expert en microbiologie. C’est d’ailleurs pourquoi Coléno tissa par la suite des liens avec les chercheurs en systèmes experts et en intelligence artificielle. Pour ce bon praticien et bon connaisseur des différents types de modélisation mathématique alors en usage, pour ce plus récent partisan de l’informatisation des compétences, la simulation réaliste de de Reffye révèle toutefois un emploi très nouveau des probabilités d’une part et de l’ordinateur d’autre part. Même s’il n’y reconnaît aucune des façons de modéliser qu’il pratique jusqu’alors, Coléno sent malgré tout qu’il y a là une nouvelle piste qu’il faut défendre : c’est pourquoi il soutient de Reffye contre la majorité de ses collègues. Mais ce soutien ne suffira pas.

Cet épisode révèle assez combien la modélisation fragmentée doublée d’une simulation sur ordinateur peut, à l’époque, recevoir un faible d’écho : l’intérêt scientifique apparaît très peu évident aux yeux du jury. De Reffye restera longtemps assez dépité de la décision prise. Sur le moment, il ressent durement ce refus de l’INRA. Il en conçoit de nouveau une certaine amertume par rapport à sa vocation de chercheur dont on sait par ailleurs qu’il doute régulièrement et cela, dès sa période de formation.

Bientôt cependant, une opportunité de rentrer en France, tout en restant dans son institution d’accueil, s’offre à lui. Et il choisit d’accepter ce qu’on lui propose : il rentre en France, à Montpellier plus précisément, où il est rattaché à la station de l’IFCC qui deviendra en 1983 l’IRCC (Institut de Recherche sur le Café, le Cacao et autres plantes stimulantes) suite à des remaniements institutionnels majeurs dont nous allons montrer tout de suite qu’il y prend part rapidement.



Yüklə 8,85 Mb.

Dostları ilə paylaş:
1   ...   44   45   46   47   48   49   50   51   ...   112




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©muhaz.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin