CHAPITRE 20 - La simulation géométrique à vocation botanique : Honda et Fisher (1971-1977)
Nous l’avons vu, en ce début des années 1970, la modélisation d’origine logiciste que Lindenmayer bâtit sur les ruines de l’approche de Woodger, innove incontestablement. Mais en même temps, elle résiste à un certain versant pragmatique de la modélisation de la morphogenèse, car elle oblige à faire entrer les formes de la plante dans le carcan d’un formalisme a priori, certes plus souple, mais loin d’être encore assez souple pour les formes ramifiées supérieures. C’est là le signe de son penchant théorique irrésistible. Les convergences qu’elle autorise sont donc surtout orientées vers les destins intrinsèques des formalismes. Loin de plier complètement les formalismes vers la réalité biologique de la morphogenèse, c’est bien plutôt la biologie qu’elle fait plier vers les problèmes informatiques. Comme dans le cas similaire de l’importation des algorithmes génétiques en informatique, la biologie sert ici de modèle pour des formalismes de computation sans qu’il y ait de retombées immédiates pour la biologie1. Certes, cette convergence solidifie et pérennise ce nouveau domaine d’études formelles. Mais la biologie s’y serait lentement asphyxiée si quelque chose de nouveau n’y avait pas été par la suite insufflé. Une série d’événements et de rencontres vont bien plus tard ramener la modélisation et la simulation logicistes vers les êtres vivants. Mais entre-temps, une autre école de simulation, d’origine essentiellement japonaise, décida, quant à elle, de partir de l’arbre réel pour y revenir tout de suite.
Reconnaissance de formes d’arbres et écrans graphiques à l’Université de Kyoto
C’est un physicien de l’Université de Kyoto, du nom de Hisao Honda, qui, en 1970, se trouve reprendre explicitement la proposition de Cohen consistant à simuler graphiquement et par ordinateur la croissance pas à pas d’une forme arborescente. Auparavant, Honda avait souvent été impressionné par les grands arbres du parc de l’Université de Kyoto. Et, face à eux, il s’était demandé comment on pouvait reconnaître une espèce d’arbre au moyen d’une simple inspection visuelle du port de l’arbre. Or, du point de vue de sa problématique scientifique propre, la question biologique de la morphogenèse lui apparaît très vite comme parallèle à une question de reconnaissance de forme ; ce qui est sa spécialité première. C’est donc d’abord en tant que chercheur en reconnaissance de forme et dans le cadre d’un développement du matériel informatique particulièrement tourné vers les applications graphiques, qu’il se trouve intéressé par la problématique de la détermination, par les gènes, de la genèse des formes vivantes et, en particulier, des formes arborescentes. Sa propre question initiale est en effet précisément la suivante : « Comment se fait-il que l’on puisse deviner l’espèce d’un arbre à partir de sa forme qui est très variable et qui ne peut être saisie facilement en des termes scientifiques ? »1
Il se trouve que Honda peut techniquement aborder cette question en physicien à Kyoto car, depuis 1969, étant en poste au Centre de Traitement de Données de l’Université, il dispose pour sa part d’un matériel informatique particulièrement performant pour l’époque : le FACOM 270-30 de Fujitsu. Or, cet ordinateur est doté d’un écran graphique de très bonne qualité : le FACOM 6231C de Fujitsu. Ce qui lui permet de représenter finement les arborescences calculées2. Honda est par ailleurs déjà sensibilisé à certaines problématiques biologiques car, après sa thèse de physique de 1965, il a suivi un cours doctoral de biologie moléculaire portant spécifiquement sur l’ARN de transfert et les enzymes associées3.
La problématique initiale de Honda en l’espèce est celle d’une reconnaissance infra-linguistique : certains caractères visibles nous sont reconnaissables et nous servent à reconnaître les arbres alors même que nous ne sommes pas des spécialistes de la botanique et que nous n’avons pas de mots pour les désigner. C’est un problème de reconnaissance humaine ordinaire. Puisque l’on n’a pas de mots pour désigner ces caractères, il est difficile de construire par la seule introspection et donc a priori le processus mental mis en œuvre dans ce genre de reconnaissance. Comme cela est alors classique pour la reconnaissance de formes automatisées, Honda préconise que l’on se propose des « modèles »4 d’arbres, constructifs, pas à pas, à réitération et à paramètres variables. Ces modèles seront sélectionnés par un processus d’essais et erreurs. Le meilleur de ces modèles génératifs pourra être un modèle du processus implicite (non verbal et non verbalisable donc ne référant pas à des catégories linguistiques) de reconnaissance de l’arbre par un homme normalement cultivé. Or, ce problème de reconnaissance de forme que se propose de résoudre Honda dans son département de physique est, selon lui, tout à fait parallèle à cette question précise de morphogenèse biologique : « Quelle information sur la forme le gène contient-il et à travers quel processus son information est-elle représentée comme une forme ? »5 C’est en lisant Cohen qu’il se convainc de l’existence d’un tel parallélisme.
Or, voici en quels termes il légitime la bi-disciplinarité de son étude sur ordinateur : selon Honda, ces deux questions peuvent être « sublimées »6 en une seule, celle qui fait l’objet de l’article de 1971. Cette question précise est la suivante : « Comment décrire la forme économiquement ou comment extraire l’essence d’une information disparate au sujet de la forme ? »7 Remarquons ici que Honda adopte une approche similaire à celle de Cohen car, des premiers travaux de simulation sur ordinateur de forme arborescente (dont ceux de Ulam1), il retient finalement la même idée que lui : des règles de génération simples peuvent donner naissance à des formes globales compliquées et très variables en fonction des paramètres des règles. En 1967, Cohen en tirait un argument théorique sur la plausibilité d’une masse relativement faible d’information dans les gènes déterminant la forme. En 1971, Honda veut donc aussi montrer que l’on peut donner naissance, sur ordinateur, à l’image d’un « corps semblable à un arbre » (« tree-like body ») au moyen de l’interaction entre règles élémentaires simples : pour son modèle d’arborescence, il ne choisit pas un modèle très détaillé et complexe (sinon la praticabilité mentale d’un tel modèle pour la reconnaissance de forme serait douteuse comme la praticabilité biochimique le serait également pour le stockage informationnel dans le génotype). Au contraire, il choisit d’avoir seulement accès à l’angle de branchaison et au rapport de réduction de la longueur de chaque rameau après bifurcation. Mais, à la différence de Cohen, il représente des arbres en trois dimensions et non seulement des structures arborescentes plates. Simplement le programme informatique en FORTRAN (langage qu’il apprend pour l’occasion) travaillera à projeter chaque état de l’arbre sur l’écran selon des règles de projection simples. La simulation de Honda est donc clairement fondée sur une formalisation géométrique puisqu’elle est orientée vers la production d’une figure réaliste sur un écran graphique. De plus, pour la branchaison et la croissance du rameau, contrairement à Cohen, Honda néglige les influences du voisinage. Moyennant ces hypothèses volontairement grossières car rendant les règles élémentaires simples, l’ordinateur paraît le meilleur outil non seulement pour traiter ces calculs simples et réitérés, mais aussi et surtout pour en représenter visuellement le résultat. Ce faisant, Honda produit un travail nettement interdisciplinaire puisqu’il s’appuie sur une analogie entre le gène (avec sa propriété de minimalité informationnelle) et le modèle mental minimal de reconnaissance d’une forme arborescente2.
Un modèle de simulation génératif et géométrique validé par l’image
Il est une chose qu’il faut souligner. La visualisation réaliste des arbres simulés est facilitée par le fait que Honda, comme Cohen, met en œuvre directement un formalisme géométrique et non un formalisme par automates ou par grammaires à réécritures comme Lindenmayer ou Lück. Or, dans un langage évolué du type de FORTRAN, la gestion des points ou des traits lumineux sur l’écran de l’ordinateur se fait en référence à un repère métrique orthonormé. Techniquement, dans le programme, il n’y a donc pas à traduire l’expression mathématique du modèle pour en obtenir une représentation visuelle. Il suffit simplement à Honda de traiter le problème du passage du modèle métrique à trois dimensions à une représentation en deux dimensions pour que l’on puisse la visualiser sur un écran. Là encore, quelques notions de géométrie projective suffisent. Au contraire de Lindenmayer et comme Cohen, Honda n’insiste donc pas tant sur la topologie que sur la métrique de ces « corps semblables à des arbres » qu’il fait simuler par l’ordinateur. Il se range donc de fait dans une tradition de simulation plutôt métrique voire géométrique que logiciste. C’est la raison pour laquelle on peut qualifier sa simulation de préférentiellement géométrique.
Comme nous l’avons dit, la sélection des modèles les plus vraisemblables se fait chez lui par un processus itératif d’essais et erreurs. Ici l’essai consiste en la confrontation entre l’image visuelle, la figure donnée au final par l’écran graphique de l’ordinateur (à la fin du calcul de trois ou quatre ordres de ramification à partir du tronc vertical initial) et la capacité de reconnaissance de notre œil et de notre cerveau humains : pour Honda, si nous reconnaissons assez grossièrement sur l’écran une forme crédible d’espèce d’arbre réellement existante (ginkobiloba, érable, bouleau, azalée,…)1, alors les paramètres du modèle génératif, entrés dans l’ordinateur un peu au hasard au départ, sont conservés ou affinés par d’autres essais, sinon leurs valeurs numériques sont rejetées. Afin de disposer d’une faculté de reconnaissance tout de même plus sûre et plus informée, Honda se fait aider par le morphométricien S. Oohata2 du Département de Foresterie de la Faculté d’Agriculture de l’Université de Kyoto. Dans les premiers temps, Honda travaille donc en collaboration avec lui de manière à mieux appréhender ce que permettent de distinguer les paramètres géométriques qu’il intègre sans souci de réalisme biologique ou génétique au départ.
Dans cette approche, même s’il conserve un souci de la minimisation de la quantité d’information à donner initialement au modèle génératif, comme c’est le cas dans les modèles logicistes et axiomatisés de Lindenmayer, on sent que Honda est davantage porté à donner du crédit à la validation du modèle par la visualisation intuitive permise par le formalisme géométrique et par son traitement à l’ordinateur. Tout le programme de Honda est conçu autour de cette visualisation. Car c’est là que se concentre la discrimination entre modèles plus ou moins réalistes. Ce qui n’est pas le cas chez Lindenmayer où la crédibilité du modèle topologique est, à en croire son auteur, assurée au niveau plus local des filiations logiques entre cellules. La visualisation sur ordinateur est donc secondaire dans le travail de Lindenmayer alors qu’elle est essentielle pour Honda. La simulation géométrique est davantage conçue pour permettre une validation intuitive ou qualitative en aval, c’est-à-dire sur une image, une réplication du réel, alors que la simulation logiciste repose plutôt sur une validation conceptuelle et en amont des calculs de la simulation. Or, comme on peut s’y attendre, la simulation géométrique se développe surtout à partir du moment où les écrans graphiques font leur apparition et se développent, comme c’est justement le cas au Japon, en ce début des années 1970.
Une simulation de la géométrie des tissus
Après 1971, Honda quitte un moment la simulation des arborescences et s’oriente vers la simulation de la dynamique des diverses structures géométriques de colonies d’un certain type de zoospore ou algue verte (les Pediastrum biwae)3. Depuis les années 1920, les biologistes ont en effet reconnu que ces colonies de spores passent par différents types de distributions spatiales bien distinctes et assez aisément identifiables à l’aide d’observations au microscope optique. Honda fait d’abord simuler par l’ordinateur ces distributions spatiales au moyen de simples sphères (une sphère représentant grossièrement un zoospore) distribuées dans une sphère plus grande représentant elle-même une vésicule. Chaque zoospore est lancé dans une direction aléatoire, direction déterminée par le tirage d’un nombre pseudo-aléatoire calculé par la méthode de congruence de von Neumann, et va toucher ou bien la paroi de la vésicule ou bien un des zoospores déjà présents ; dès lors, certaines règles mécaniques simples, inférées à partir des nombreuses observations des biologistes et interprétées par Honda lui-même en des termes de géométrie analytique, sont appliquées mathématiquement par l’ordinateur de manière à lui faire déterminer le lieu d’arrêt de ce nouveau zoospore dans la vésicule : le programme simule ainsi une mécanique de mise en place progressive de la structure d’une colonie. Cette simulation permet de retrouver sur une image, c’est-à-dire en fait sur un tracé effectué au traceur de courbe (un « plotter X-Y »), quoique très grossièrement et de façon schématique, les grands types de distribution spatiale de ces colonies de zoospores.
En 1977, fort de ces simulations de colonies de spores par des sphères en interaction, Honda se tourne vers la simulation des tissus organiques au moyen de modèles mathématiques de cellules polygonales : un polygone peut en effet être conçu comme la figure qui relie les points d’intersection entre différents cercles concourants. Honda en reste donc bien à son approche géométrique originelle mais il la complexifie en utilisant notamment la définition mathématique des domaines de Dirichlet appelés encore diagrammes de Voronoi1. Il emprunte l’idée d’employer ce formalisme géométrique au travail alors récent de Arthur L. Loeb (1923-2002)2 sur les structures spatiales.
Rappelons ici brièvement que Loeb est au départ un spécialiste de chimie physique et des colloïdes. Il est professeur à Harvard. Au début des années 1950, il avait été un des premiers chercheurs autorisés à travailler sur le projet de l’ordinateur Whirlwind du MIT3. Il avait alors participé à la conception de la mémoire de ce calculateur numérique puis il avait travaillé aux applications de l’ordinateur à la science des surfaces et des colloïdes. Dans son ouvrage méthodologique et interdisciplinaire de 1976, Space Structures : their Harmony and their Counterpoints, Loeb avait par la suite mis en avant l’importance de disposer d’un langage « visuel » permettant de stocker, communiquer et restituer les structures spatiales dans leur diversité. Entre autres choses, il y avait mis à l’honneur l’approche par les domaines de Dirichlet et il avait, par exemple, suggéré que l’on s’en serve pour la formalisation des compartimentations existant dans les villes (comme les quartiers dont on peut dire en quelque sorte qu’ils sont centrés autour d’une école…)4.
Or, dans le cas du problème biologique de Honda, lorsque les zoospores des algues vertes vus en deux dimensions sont agrégés les uns aux autres et qu’ils recouvrent totalement le plan pour former une structure convexe de forme assez circulaire (ce qui correspond à une étape bien précise du développement de la colonie), la simulation primitive par des sphères ou des cercles concourants perd en pertinence car les spores ne sont plus circulaires : la mécanique des pressions réciproques et des mouvements mutuels des cellules ne peut être correctement prise en compte par un tel formalisme. En revanche, si l’on définit le centre approximatif de chaque polygone (ou domaine de Dirichlet) ainsi que les forces auxquelles il est soumis, on peut montrer qu’il est possible de calculer de manière analytique les déplacements de ce centre approximatif ainsi que les déformations du polygone correspondant ; ainsi en est-il, de proche en proche, pour tous les autres polygones et, finalement, pour le tissu organique tout entier. En 1978 donc, en partie inspiré par le travail de Loeb, Honda devient le premier chercheur à utiliser le formalisme des domaines de Dirichlet en science des tissus organiques, c’est-à-dire en histologie.
La simulation géométrique reste un argument théorique
Ce dernier travail est publié dans le Journal of Theoretical Biology1. Cette approche ne peut guère être considérée que comme un appui pour des considérations d’ordre théorique : grâce à la simulation sur ordinateur, la mécanique des mouvements cellulaires internes aux tissus semble au mieux avoir trouvé un formalisme très adéquat2. La ressemblance entre la description dessinée par ordinateur au moyen du formalisme et les microphotographies obtenues au microscope optique sert en effet d’argument principal à Honda. Mais il ne se livre pas à un calibrage systématique ni chiffré au regard de ce qui pourrait être des données de l’expérience. Cela serait d’autant moins pertinent que les côtés des cellules réelles sont en fait rarement rectilignes, au contraire de ce qui se passe dans le polygone qui en est la représentation schématique. Il faut donc noter que, dans ce cas-là également, la représentation visuelle résultante sert de critère de validation à échelle globale et essentiellement pour le choix du formalisme comme pour celui des paramètres de simulation. Comme Cohen démontrait, avec sa simulation, la possibilité que des règles simples pour la morphogenèse soient codées dans les gènes, Honda démontre la possibilité de recourir au formalisme de Dirichlet si l’on veut évaluer ponctuellement et un peu plus précisément le comportement des tissus, mais il ne se livre pas, là non plus, à des chiffrages effectifs. Même s’il fait intervenir la visualisation, son travail reste donc essentiellement théorique puisqu’il s’agit d’une argumentation portant sur le choix des formalismes mais non sur leur calibration effective.
La rencontre avec les mesures : rapprocher la simulation des détails du réel
Il en est déjà autrement dans le travail qu’il produit, en parallèle de ces travaux sur les tissus, avec le botaniste américain Jack B. Fisher. C’est en effet également en cette même année 1977 que Honda va, par ailleurs, concrétiser sa collaboration avec la botanique descriptive. Il se trouve qu’au moment où Honda infléchit son travail vers la simulation géométrique de la mécanique des tissus, le jeune botaniste Jack B. Fisher, alors en poste au Jardin Tropical de Fairchild à Miami, travaille sur le développement de la ramification d’un arbre tropical particulier, le Terminalia. Or, Fisher, en tant que botaniste, opère sur le terrain. Et il dispose d’un très grand nombre de mesures sur des arbres réels. Prenant connaissance en 1975 du premier article de Honda dans ce domaine, il perçoit très vite la possibilité d’une collaboration fructueuse : pourquoi ne pas affiner encore la simulation architecturale théorique de Honda au point de la calibrer sur des mesures réelles ? Selon Fisher, il serait en effet très utile de disposer de la description précise de la couronne des arbres :
« Les formes des couronnes des arbres sont souvent d’une importance pratique chez les arbres à bois, à fruits ou d’ornement, et elles constituent une base pour la stratégie adaptative des espèces. »1
En effet, selon la thèse alors récente du botaniste américain H. S. Horn, publiée dans son ouvrage The adaptative geometry of trees en 1971, la couronne des arbres constitue en grande partie le lieu où s’exprime l’adaptation des arbres, aussi bien quant à leur environnement qu’eu égard aux autres espèces d’arbres2. Travailler à calibrer une simulation sur des arbres réels permettraient donc à la botanique descriptive de proposer davantage d’outils de prédiction précis dans les domaines de la foresterie, de la sylviculture et de l’arboriculture :
« Prédiction de formes d’arbre utiles – La forme générale d’un arbre a souvent une importance pratique pour le forestier ou l’horticulteur. Il serait important de comprendre quels sont les paramètres qui transmettent les changements désirés dans la forme. Ces paramètres pourraient être sélectionnés parmi les semis et les jeunes arbres, en supposant que les paramètres en question restent constants dans un individu pendant l’ontogénie. »3
Or, à cette époque, pour discriminer les différents plants selon leurs structures arborescentes, les botanistes disposent surtout de l’approche morphométrique et statistique qui, aux yeux de Jack B. Fisher, semble, précisément à ce moment-là, avoir atteint ses limites. Afin de comprendre la raison principale qui va décider ce botaniste à opter pour la simulation sur ordinateur et à collaborer avec Honda aux dépens de l’analyse statistique, alors majoritairement employée, il nous faut auparavant rappeler brièvement les limites effectivement atteintes, tant dans le domaine de la morphométrie que dans celui de la morphologie causale et physicaliste des arbres, en ce début des années 1970.
Les limites de la morphométrie et de l’approche thermodynamique des arbres
On se souvient qu’une des approches formalisées et à prétention transdisciplinaire de la croissance des formes ramifiées était née de certains travaux de Horton en géomorphologie fluviale. Or, au début des années 1970, il est un travail qui va à la fois confirmer en un sens mais aussi montrer nettement les limites irrémédiables de cette approche par la loi de Horton en morphologie végétale. C’est celui des biologistes et physiologistes du Département de Médecine du Queen Elizabeth Medical Centre de Birmingham, en Angleterre. Leopold avait testé cette loi sur un seul arbre botanique. En 1973, en reprenant la problématique de Leopold qui consistait à tester l’existence de « ratio de bifurcation » et du « ratio de longueur » (ici ce sera en fait le « ratio des diamètres » des branches) chez les arbres botaniques, Barker, Cumming et Horsfield montrent que la loi de Horton vaut aussi statistiquement pour le pommier et pour le bouleau1. Pour leur part, ils procèdent à partir de véritables données de terrain, exhaustives, et non à partir de données partiellement estimées comme le fit Leopold : c’est-à-dire qu’ils ont choisi deux arbres réels, un pommier et un bouleau, et ils ont compté, mesuré et ordonné (selon l’ordre de ramification) chacun des rameaux de ces deux arbres2. Bénéficiant par ailleurs de l’équipement d’un laboratoire de biomédecine, ils sont en fait parmi les premiers à utiliser un ordinateur pour traiter systématiquement ces données morphométriques en botanique, et cela parce qu’elles se trouvent être en très grand nombre (près de 1300 rameaux pour le bouleau choisi).
Ils conçoivent ainsi un programme qui fournit à l’écran, sous forme d’un tableau de chiffres, le nombre de branches, leur taille moyenne, leur diamètre moyen ainsi que le domaine de variation de chacune de ces mesures pour chaque ordre de ramification. Ils peuvent également présenter ces résultats sous forme d’histogrammes de manière à faire apparaître les distributions réelles des paramètres mesurés en fonction de chaque ordre de ramification. Le résultat est que, comme dans le travail de Leopold sur le sapin, la « loi de Horton » se trouve vérifiée sur les moyennes du pommier et du bouleau. Les auteurs comparent ensuite quantitativement les ratios qu’ils ont calculés avec ceux qui ont déjà été trouvés par d’autres auteurs dans différents domaines : les rivières, les artères pulmonaires, l’arbre bronchial, les bronchioles3…Ils confirment donc en ce sens la possibilité d’un transfert de la loi de Horton à la morphologie végétale.
Mais ce qui distingue leur étude de celle de Leopold, et cela parce que, grâce à leur utilisation de l’ordinateur comme machine de stockage et de traitement de données, ils ont tenu effectivement compte de l’intégralité d’une information mesurée sur le terrain dans sa variabilité essentielle, c’est la réflexion que leur suggèrent les histogrammes finalement obtenus. Ils constatent qu’il y a une variabilité très importante de certains de ces paramètres géométriques pour un ordre de ramification donné. C’est notamment le cas pour le pommier. Il y a une telle variabilité de taille, parfois, que les longueurs et les diamètres des branches ne sont pas caractéristiques d’un ordre : il peut donc y avoir une erreur d’un ordre de ramification si l’on ne mène pas les mesures jusqu’au bout et dans leur intégralité. Rétrospectivement, il apparaît ainsi que la méthode grossière de classement des branches de Horton et Strahler repose en fait sur l’idée implicite que l’on regroupe ce faisant des rameaux dont on pense a priori qu’ils ont les mêmes fonctions physiologiques4 et que ce formalisme, procédant par ordre de ramification, a un sens biologique qui permet toujours de saisir correctement le fonctionnement de l’arbre sans en écraser les nuances. Ce qui n’est pas toujours le cas, semble-t-il, au vu des résultats empiriques obtenus sur le pommier. Les auteurs montrent que si, par erreur, on classe un certain nombre de branches dans un ordre qui n’est pas véritablement le leur, on arrive à des erreurs grossières dans l’évaluation des ratios de Horton.
Autrement dit, il s’avère que cette pratique d’échantillonnage par ordre de ramification, fondée sur un présupposé trop immédiatement et trop grossièrement fonctionnaliste, ne peut se passer d’un décompte intégral des branches : les estimations théoriques de Leopold ne sont donc plus de mise car les ratios de Horton semblent fluctuer énormément si on ne conserve pas l’intégralité de l’information métrique et numérique :
« Nous n’avons connaissance d’aucune méthode d’échantillonnage de systèmes de ramification qui soit satisfaisante et qui permette de déterminer l’ordre ; et, jusqu’à ce qu’une telle technique ait été développée, nous suggérons qu’il est nécessaire de compter chacune des branches. »1
En morphologie végétale, on ne peut donc faire aucun usage théorique correct de la loi de Horton sans posséder l’intégralité de l’information mesurée sur le terrain. Pour disposer des ratios justes, il faut avoir conservé l’information métrique intégrale, celle qui permet justement de reconstituer l’arbre réel, dans sa structure spatiale, branche par branche. Donc l’objectif théorique originellement visé par ce type de formalisme, la réduction de l’information en vue d’un usage théorique, ne semble pas susceptible d’être atteint pour les arbres botaniques. En 1973, et c’est cela qui est essentiel, il apparaît que l’approche thermodynamique et statistique des arbres botaniques ne permet pas de réduire et de condenser correctement et sans dommage les données morphométriques, surtout à destination du biologiste et du botaniste. Dans ces années-là, notamment aux yeux du botaniste Jack B. Fisher, il devient ainsi manifeste que ces approches, qui passaient au départ pour des constructions théoriques analogiques, ne sont en fait qu’autant d’analyses statistiques partielles déguisées et qu’elles interdisent la résolution des problèmes de foresterie, d’arboriculture ou de biologie évolutionnaire parce que la juste quantification et la prédiction de la forme de la couronne y semblent impossibles.
La première simulation géométrique d’un arbre réel : le Terminalia
Si l’on veut pouvoir prendre en compte la géométrie de la couronne, si cruciale pour l’étude théorique de la stratégie adaptative de l’arbre sur le terrain comme pour son étude énergétique, Jack B. Fisher est donc fermement convaincu qu’il faut conserver la possibilité de reproduire intégralement et géométriquement la forme et les structures de cette couronne, sinon on obtient des valeurs globales faussées. Cela signifie qu’avec les techniques morphométriques, on ne peut pas résumer quantitativement et valablement, en tout cas pour le botaniste, les caractéristiques de la couronne.
Or, ce qui fascine Fisher dans les premières simulations d’arbres botaniques théoriques de Honda, c’est bien au contraire la formidable variabilité obtenue dans la structure de la couronne et qui découle de simples variations dans la valeur des deux paramètres géométriques choisis : l’angle de ramification et le ratio de longueur1. Le modèle mathématique n’a pas besoin d’être complexe pour que la complexité de la forme de la couronne soit respectée et simulable. Comme Honda dans le cadre de sa problématique initiale de reconnaissance de forme, Fisher recherche donc bien, de son côté, un moyen minimal de reproduire le dessin de la couronne sans trop perdre de sa complexité, car il cherche en fait des paramètres clés, liés directement au génome et déterminant la forme optimale de la couronne pour l’utilisation que l’arbre en fait dans sa captation de l’énergie solaire. Contrairement à ce qu’il aurait pu prévoir, ce n’est donc pas exactement un généticien qui répond à l’attente de Honda et qui franchit le pont jeté par lui en 1971 en direction de la biologie, mais c’est un biologiste qui travaille à une échelle déjà bien plus intégrée : l’échelle morphologique et développementale.
En, 1976, Fisher contacte donc Honda par courrier. Il lui envoie ses mesures sur le Terminalia. Honda est tout de suite très intéressé. Et il accepte la collaboration même si son travail principal s’est entre-temps centré sur la simulation géométrique des tissus organiques. Pendant près de deux ans, ils vont ainsi collaborer tous les deux, à distance et par courrier, mais sans jamais se rencontrer2. Dans un premier temps, Honda est obligé de complexifier quelque peu son modèle génératif et géométrique initial de manière à pouvoir employer directement les moyennes des mesures faites par Fisher sur le terrain. Fisher, pour sa part, pense qu’il leur faudrait commencer par le Terminalia parce que c’est un arbre dont la couronne présente des étages foliaires nettement différenciés, ce qui lui donne une structure en pagode assez simple3 :
« Une limitation majeure des études quantitatives en géométrie adaptative des arbres est la complexité tridimensionnelles des branches comme de l’orientation des feuilles ; ce qui a empêché la construction de modèles structurels raisonnables. Cependant, la bidimensionnalité de base des branches latérales et des amas de feuilles du Terminalia catappa L. a considérablement simplifié l’analyse de la géométrie des branches. »4
Dans son livre de 1971, H. S. Horn avait déjà indiqué l’intérêt de l’étude de telles dispositions foliaires simples, en monocouches superposées, si l’on voulait avoir des chances de prendre en compte quantitativement et facilement le rôle de la couronne dans la stratégie adaptative de l’arbre. Mais, selon Fisher, cette simplicité n’est tout de même pas suffisante si on ne lui adjoint pas l’approche par la simulation sur ordinateur. En effet, malgré cette relative simplification, les calculs d’optimisation de paramètres qu’il cherche à mener ne peuvent pas plus être conduits analytiquement dès lors qu’il n’est pas possible de résumer analytiquement les caractéristiques de la structure résultant des divers paramètres géométriques choisis au départ. Il faut donc bien simuler toute la couronne sur ordinateur.
En 1977, Fisher et Honda publient ainsi la première simulation géométrique réaliste d’un Terminalia de moins de cinq ans. Honda conçoit pour cela un programme en assembleur implémenté sur un ordinateur Olivetti P652 doté d’une extension de mémoire (Olivetti DAS 604) et d’un traceur de courbes WX 535 de chez Watanabe Sokuki1. Les résultats sortent sous forme de dessins sur papier. Dans le « modèle mathématique »2, cœur du programme, ils utilisent un ensemble de règles géométriques déterministes dont les paramètres sont d’abord calés sur les moyennes des mesures effectuées sur le terrain par Fisher. Le programme dessine donc au départ un arbre moyen, en quelque sorte, dont le port rappelle bien, intuitivement, ceux que l’on rencontre dans les parcs japonais ou dans le Jardin Tropical de Miami.
En 1978, après s’être finalement rencontrés à la fin de l’année 1977, à Kobe, lors d’un voyage d’études de Fisher, les auteurs décident de prolonger leur collaboration de manière à tester l’usage qui pourrait être fait de la simulation dans la question de la géométrie adaptative, question propre à la problématique scientifique de Fisher. Or, à l’évidence, il s’agit là d’un problème de recherche d’optimum. Comme la couronne n’est pas résumable analytiquement mais seulement réplicable par une simulation, il faut donc procéder à un grand nombre de simulations réalistes à partir de diverses combinaisons possibles de paramètres autour de leurs moyennes réelles et mesurer a posteriori, à chaque fois, c’est-à-dire sur chaque structure dessinée, l’efficacité de la captation de la couronne obtenue en énergie solaire. En 1979, comme on peut le voir dans les deux articles communs qu’ils publient dans la Botanical Gazette, afin d’évaluer à chaque fois la surface foliaire efficace, c’est-à-dire la surface totale diminuée des superpositions de certaines feuilles dans l’étage foliaire considéré et entre étages foliaires, Honda a alors recours à sa technique analytique d’évaluation de surface au moyen des domaines de Dirichlet. Les feuilles y sont assimilées à des cercles qui se superposent et qui laissent apparaître des polygones dont la surface est évaluable analytiquement lorsque l’on connaît les angles de ramification des rameaux et d’insertion des feuilles sur ces rameaux.
Cette évaluation numérique est donc certes ponctuellement analytique, mais elle est bien là aussi effectuée après que les règles de génération pas à pas de la structure géométrique l’aient construite. C’est à ce niveau-là que le choix du Terminalia facilite l’utilisation de la simulation réaliste pour une recherche d’optimum. Cette recherche est faite par tâtonnements et comme empiriquement : Fisher et Honda lancent un grand nombre de simulation de couronnes en faisant varier à chaque fois (dans des limites réalistes situées autour de la moyenne mesurée sur le terrain) l’angle de ramification des rameaux à l’intérieur des étages foliaires et ils font évaluer à chaque fois par l’ordinateur la surface d’insolation selon la technique de Dirichlet. Ils trouvent ainsi un angle de ramification optimal pour l’insolation, compte-tenu des contraintes morphologiques de l’espèce considérée3. Le résultat est que, conformément à leurs espérances, cette valeur est trouvée très proche de la valeur moyenne réelle. Un peu après, Honda et Fisher montrent qu’il en est de même pour le « ratio de longueur » optimal4. L’arbre réel est donc passablement optimal d’un point de vue énergétique par rapport à ses règles de croissance géométriques. Ce résultat, assez remarquable, et obtenu en fait rapidement après leur premier travail de 1977, fait également l’objet d’une courte publication dans la revue Science du mois de février 19785.
Devant ces résultats, il y a donc lieu de considérer que la simulation géométrique, avec ses quelques paramètres simples, a réussi à capter une variabilité structurelle essentielle qui se trouve être l’objet d’une sélection pour un optimum fonctionnel dans la plante. Cependant, Fisher a conscience qu’il serait trop simpliste de ne relier les déterminismes des paramètres architecturaux de la couronne de l’arbre qu’à la seule optimisation de la surface foliaire. Le jeu de l’optimisation doit être au total plus complexe, selon lui. Tout au plus ont-ils montré par là le rôle vraisemblablement très important de cette optimisation particulière dans les premières années de la vie du Terminalia, dès lors que le modèle géométrique ne vaut d’ailleurs plus pour des individus plus âgés1.
La plante conçue comme métapopulation
Une fois de plus, dans cette recherche d’optimum, même si on lance empiriquement plusieurs simulations sur ordinateur, l’usage de la simulation reste donc celui d’un argument théorique ; ce qui doit être tempéré par le fait que le modèle mathématique ne prend pas en considération un certain nombre de facteurs, dont le vieillissement et l’évolution des règles du modèle lui-même. En effet, il est à remarquer que les simulations de Honda reposent toutes, dès le début, sur l’hypothèse d’un fonctionnement stationnaire des règles de ramification. Cette hypothèse fait fi du vieillissement de l’arbre et de ses parties. Elle part du principe que le déterminisme génétique est certes divers et difficile à résumer statistiquement (là est la prise en compte de son hétérogénéité) mais reste en fait constamment le même pour les mêmes opérations (ramification, élongation) et les mêmes types d’organes tout au long de la vie de la plante. Ce qui n’est grossièrement vrai que pour les plantes jeunes.
Or, en 1979, paraît un article qui fera grand bruit dans les domaines de la botanique et de la morphologie végétale et qui contribuera à réactiver la sensibilité des botanistes au vieillissement différentiel des parties d’une plante et à la non-stationnarité de leurs règles de croissance au cours de leurs vies. Il s’agit de The plant as a metapopulation du « démographe des plantes »2 irlandais James White3, paru dans Annual Review of Ecological Systems. Sous l’influence de ses propres problématiques de biologiste des populations, habitué à percevoir des populations dans un monde végétal où la différence entre population et individu reste souvent problématique4, James White ne prétend certes pas inventer la suggestion de concevoir la plante comme une colonie d’individus plus ou moins autonomes. Cette idée peut en effet être retrouvée incidemment mais régulièrement chez plusieurs auteurs, dès le 18 siècle. Mais dans cet article tout à la fois synthétique et séminal, White retrace d’abord l’histoire conceptuelle assez complète de cette conception populationnelle de la plante individuelle et montre ensuite avec force le poids évident qu’elle doit prendre désormais aux yeux du botaniste et du morphologiste des plantes en indiquant les convergences qui se font jour. Ce point de vue, déjà payant en biologie des populations, mais rendu explicite et éclatant par White contribue, à l’époque, à mettre davantage en avant la variabilité des déterminismes génétiques à l’intérieur d’un individu végétal au cours de son ontogenèse, donc au cours de sa vie. En plaidant pour un rapprochement résolu entre la démographie des plantes et la morphologie des plantes, White met ainsi l’accent sur la plasticité des déterminations génétiques au cours de la morphogenèseme. Dans l’immédiat, il ne pense cependant pas que l’on puisse remplacer l’ancien « idéalisme morphologique »1 par un autre, de nature populationnelle celui-ci, mais il considère qu’il revient au contraire à chaque chercheur de déterminer pragmatiquement l’unité élémentaire qu’il doit considérer à chaque fois pour sa propre problématique.
Une limite de la simulation géométrique
Mais donc si l’arbre est aussi une population vouée à une grande plasticité génétique dans ses organes et au cours de sa vie, l’argument généticiste et informationnel de Honda, comme celui de Cohen d’ailleurs, et qui faisait le soubassement de leur approche commune par une simulation avant tout fondée sur un modèle mathématique simple, perd beaucoup de sa pertinence. Il se pourrait bien que la recherche d’un modèle théorique minimal déterminant une morphogenèse aux résultats complexes et contre-intuitifs, dès lors qu’elle se faisait toujours sous couvert d’une détermination génétique supposée stationnaire au cours de la vie du végétal et de sa séquence de différenciations cellulaires, ne vaille pas plus que les approximations théoriques du type de la « loi de Horton ».
Fisher reconnaît donc là une limite majeure à la simulation sur ordinateur : il faudrait en fait complexifier encore et toujours le modèle mathématique sous-jacent à la simulation en y insérant l’historicité des déterminismes génétiques, sans même oublier les effets de l’environnement. Mais le problème est que cette complexification n’est justement pas souhaitable pour l’usage qu’il veut faire de la simulation. L’usage théorique de la simulation en serait alors perdu : elle ne pourrait plus servir à produire des résultats théoriques simples concernant la nature des quelques paramètres qu’on voudrait voir apparaître comme seuls décisifs dans l’élaboration de la stratégie adaptative de la plante, par exemple. Elle ne servirait plus à désigner et éventuellement à quantifier ces quelques paramètres-clés. Si le modèle sous-jacent se complexifie, ce qui est certes toujours possible en droit si ce n’est en pratique, la simulation ne peut plus véritablement servir d’argument théorique, car elle ne peut plus immédiatement aider à une meilleure compréhension physiologique et fonctionnelle de la structure. Or, c’est cela que privilégie Fisher. Et c’est bien là que l’on peut discerner clairement le rôle épistémique implicite que Fisher donne aux simulations de croissance d’arbres sur ordinateur : une simple prolongation de l’expression théorique des concepts biologiques et un moyen de tester rigoureusement leur pertinence dans des cas ponctuels. La réplication de l’arbre n’y est pas voulue pour elle-même. Elle n’est pas non plus réellement considérée comme un substitut d’expérimentation mais plutôt comme le substitut d’une procédure aléatoire d’optimisation d’une loi mathématique complexe, comme un calcul. Chez lui, la figuration réaliste de l’arbre est donc inféodée à un projet de compréhension qui, en dernière analyse, puisse quitter son support technologique et computationnel afin de grossir le nombre des savoirs biologiques et botaniques déjà exprimables en langage naturel.
Ainsi, de façon significative, à partir de 1979, considérant que la simulation ne lui apportera plus un surcroît de compréhension biologique2, Fisher va progressivement cesser toute collaboration réellement active avec les simulateurs de plante sur ordinateur. Selon lui, tout au plus la simulation pourra-t-elle encore faire illusion en recourant à des modèles toujours plus complexes. Mais ces derniers resteront longtemps beaucoup trop simplificateurs d’un point de vue biologique. D’ailleurs, encore faudrait-il pour cela que les ordinateurs aient une puissance de calcul suffisante. Ce qui ne lui ne semble pas non plus être vraiment le cas, y compris en 1986 ou même encore en 19921. Après une période de vif espoir, Fisher entre donc dans une phase de doute résolu quant à la pertinence des simulations sur ordinateur pour la biologie théorique.
En 1983, pourtant, il contacte son collègue informaticien de l’Université de Floride, John Craig Comfort2, afin de tâcher de donner une autre ampleur à ses simulations. Son idée est de profiter des innovations en programmation et en calcul de l’informatique afin de généraliser à d’autres architectures d’arbres le programme géométrique de Honda. Dans les années 1970, Comfort est en effet un des précurseurs de la simulation répartie à multi-processeurs : pour traiter le calcul sur une grande masse de données, notamment graphiques, il a pour habitude de mettre en réseau des micro-processeurs disponibles dans le commerce3. D’autre part, il suit de près l’entreprise de standardisation des programmes de simulations graphiques sur ordinateur telle qu’elle a été effectuée à partir de 1974, dans un contexte militaire. En 1983 donc, sous l’impulsion de Fisher, il engage une étudiante, Carol Lewis Weeks, à appliquer à la simulation des arbres le nouveau standard conçu conjointement par l’Académie Militaire de West Point et la station expérimentale militaire de Waterways : le Graphics Compatibility System (GCS). Ce logiciel propose des routines de gestion et de manipulation de graphismes tridimensionnels. Il est basé sur FORTRAN et est conçu pour être indépendant du matériel.
Weeks traduit alors le programme de Honda dans des structures de données hiérarchisées. Elle nomme « modèle structurel » le cœur du modèle géométrique sous-jacent. Le logiciel est rapide et les résultats graphiques, des arbres filiformes, sont élégants et maniables selon toutes les perspectives d’observation voulues. Weeks parvient à faire représenter à ce même modèle mathématique trois essences différentes d’arbres tropicaux4. Elles ont toutes les trois pour caractéristiques de présenter des unités de croissances discrétisées simples et obéissant à des lois de ramification formulables soit logiquement (en fonction de lois d’exclusion généralement observées dans l’espace) soit analytiquement (en fonction du flux global de nutriments accédant au rameau porteur). Certains des paramètres de ces ramifications conditionnelles dépendent eux-mêmes de lois statistiques normales dont l’utilisateur a la charge d’entrer la moyenne et la variance. Ces données sont disponibles grâce aux tables dont dispose Fisher. La validation des simulations est seulement visuelle : le botaniste Fisher atteste de leur crédibilité5.
Pour des raisons peut-être personnelles et que nous n’avons pu mettre au jour, Weeks ne continuera pas ce travail par la suite6. En tous les cas, Jack B. Fisher ne favorisera pas le développement d’une telle solution informatique. En fait, il ne croira pas à la possibilité de rendre compte ainsi de toutes les architectures. La structure de données de Weeks, même si elle fait place à des paramètres probabilistes, reste trop spécifique. Et, dans cette infrastructure informatique uniquement sensible à la probabilité et à l’angle de ramification, la plasticité botanique ne trouvera pas encore de quoi donner toute son ampleur. Fisher ne sera donc pas davantage convaincu par cette tentative de généralisation.
Simuler pour tester un argument théorique
De son côté pourtant, au cours des années 1980, Hisao Honda rencontrera encore des échos favorables de la part d’autres botanistes. Et il se lancera dans une collaboration assez intensive, notamment avec d’autres collègues américains que lui indique Fisher. En 1980, il rejoindra ainsi quelque temps à Harvard le botaniste et morphologiste américain Philip Barry Tomlinson1. Mais, dans tous les travaux de simulation qui suivront, Honda conservera une conception minimaliste du modèle géométrique sous-jacent car, comme Fisher au début de leur collaboration, Tomlinson et ses collègues utiliseront sa plate-forme de simulation pour développer des arguments théoriques concernant des règles développementales particulières supposées être à l’œuvre dans la couronne de l’arbre. Ce sera par exemple le cas pour un article dont l’objectif sera d’indiquer qualitativement le rôle des interactions entre branches voisines dans la ramification2. Honda sera ainsi ponctuellement amené à complexifier son modèle géométrique en ajoutant un plan de ramification oblique et orientable dans l’espace3, par exemple. Mais il est remarquable que pendant vingt ans, il utilisera pratiquement toujours le même formalisme géométrique de ses débuts. Quand il se trouvera à Harvard, dans le laboratoire de Tomlinson, les gros calculs seront certes effectués sur un IBM 370 du bureau des Technologies de l’Information de l’Université. Mais un indice d’un certain conservatisme de sa part se manifeste dans le fait que, jusqu’en 1984, il concevra toujours ses simulations dessinées à partir de son ordinateur Olivetti et du traceur de courbes Watanabe4. À partir de 1984 cependant, pour des raisons de limitation de mémoire, lorsqu’il collaborera à Harvard avec Rolf Borchert, un physiologiste de l’Université du Kansas, Honda utilisera un programme en FORTRAN implémenté cette fois-ci sur un Système Honeywell et les dessins seront imprimés sur un traceur de courbes Hewlett-Packard HP215. Comme l’arbre considéré (un Tabebuia rosea) devra être simulé au moins jusqu’au 15 ordre de ramification, cela afin d’y insérer la prise en compte d’un flux métabolique (objet du test théorique précis, en l’occurrence), la mémoire minimale théoriquement requise sera alors de 2ème15 = 32768 points de liaison, ce qui est bien supérieur à ce que l’ordinateur initial pouvait supporter. Sur le système Honeywell lui-même, il faudra encore réduire quelque peu le nombre de points en construisant des arbres a priori symétriques au regard de certains axes privilégiés. C’est à partir de là, notamment, que la mémoire et la puissance de calcul des machines se révéleront très limitantes, aux yeux de Honda lui-même.
Mais dans tous ces travaux, que ce soit avec Tomlinson, Borchert ou, plus récemment, avec le botaniste du Jardin Botanique de Tsukuba, Hiroakki Hatta6, Honda met à disposition une structure de simulation susceptible de tester des hypothèses théoriques isolées. Avec lui, la simulation sur ordinateur à résultats graphiques, visibles et intuitifs, garde donc encore son attache originelle dans le calcul scientifique à destination de développements ou d’arguments théoriques. Elle ne sert pas à prédire précisément des croissances d’arbre en vue d’une action sur la plante visant à contrôler et améliorer sa croissance, comme cela pourra être le cas par ailleurs, ainsi que nous le verrons. Elle ne vise pas à se substituer à des expérimentations en champ. Elle vise seulement à accroître une compréhension ou la crédibilité d’une explication conceptuelle possible des déterminismes morphogénétiques.
Bilan sur la simulation géométrique
Finalement, l’approche par simulation géométrique a été la première à converger véritablement, et de manière quantitative, vers la botanique et vers la biologie des plantes supérieures. Elle a contribué à rendre possibles certains calculs déductifs qui intervenaient dans le test de certaines hypothèses générales propres à la biologie du développement théorique. À cause de l’intrication de multiples chaînes causales, comme de leurs rétroactions, au cours des phénomènes de morphogenèses du vivant, ces suivis déductifs ne sont pas en effet aisément accessibles à la pensée humaine, qu’elle soit formalisée ou non : il n’en existe pas de modèle mathématique analytique. Et leurs résultats peuvent donc être contre-intuitifs. La seule solution est de simuler par ordinateur pour suivre pas à pas l’entrelacs des rapports entre les parties comme entre les parties et le tout de l’organisme.
Mais lorsque l’on sait que la plante est une « méta-population », lorsque que l’on voit bien que ces chaînes causales elles-mêmes évoluent (vieillissement des méristèmes), une complexité supplémentaire est ajoutée. Et il est permis alors de douter des apports de la simulation elle-même pour la botanique théorique. Si les règles locales changent au cours du temps, une approximation par la récursivité informatique sera-t-elle encore raisonnable ? Existe-t-il une règle du changement des règles ? Et comment la trouver ?
Il se trouve que c’est dans un cadre agronomique que cette question de la plasticité et de l’évolutivité des règles locales de morphogenèse sera affrontée et en partie résolue. Mais il faut pour cela que le chercheur simulateur apprenne à faire flèche de tout bois, à ne s’orienter selon aucun formalisme préférentiel a priori. Il faut aussi qu’il ne se sente pas empêché par des préférences théoriques ou épistémologiques trop contraignantes. Alors, ce sera le moment de procéder à des simulations mixtes, sans prévention. N’est-il pas possible en effet d’intégrer ces différents points de vue simulants, ces différentes perspectives, de manière à les faire se rapprocher encore plus de la réalité botanique ? Mais encore faut-il qu’il y ait un besoin, une demande, pour cela qui ne soit pas uniquement d’ordre spéculatif.
À partir de maintenant, pour comprendre précisément comment une telle mixité et une telle convergence agrégeante ont pu voir le jour, cela à la différence des autres approches, nous focaliserons plus particulièrement notre historique sur la naissance et le développement de la simulation architecturale. Cette focalisation qui orientera désormais notre exposé peut être justifiée par au moins deux raisons : d’une part, alors que les recherches en phyllotaxie pouvaient certes se targuer de retomber sur certaines observations, seule la simulation architecturale a pu finalement formaliser la plante en sa totalité ; d’autre part, seule cette même approche a rendu cette formalisation totale de la plante à même d’être calibrée quantitativement et donc de servir sur le terrain. C’est donc elle, et elle seule, qui a fait véritablement entrer l’histoire de la modélisation de la forme des plantes dans une nouvelle ère : celle des convergences avec les pratiques et les problématiques de terrain. Nous n’oublierons pas pour autant de rendre compte, si nécessaire, des propositions alternatives, spéculatives ou pragmatiques, qui n’ont pas cessé de jalonner ces trois dernières décennies. Mais nous leur donnerons moins de poids que précédemment car les propositions épistémologiques qui en ont émanées n’ont pas été véritablement innovantes au regard de ce qui s’est passé à la même époque dans l’école de simulation architecturale. En particulier, elles ne permettent pas d’expliquer la certaine hégémonie à laquelle est parvenue aujourd’hui cette école.
Dans un premier temps, nous allons donc restituer la période de formation puis le contexte institutionnel du chercheur qui, le premier, a proposé cette approche. Nous serons ensuite disposé à comprendre comment, autour de lui et autour de sa méthode, tout un laboratoire puis toute une école se sont enfin constitués. En particulier, nous nous interrogerons sur les rapports qu’a pu entretenir ce type de modélisation avec celui, plus traditionnel et mieux installé, de la biométrie, comme avec celui, toujours controversé, de la biologie théorique.
Dostları ilə paylaş: |