Université Louis Lumière Lyon 2 Faculté de Géographie, Histoire de l’Art, Tourisme


Modèles et structures de données : l’apport des langages



Yüklə 8,85 Mb.
səhifə51/112
tarix25.07.2018
ölçüsü8,85 Mb.
#58113
1   ...   47   48   49   50   51   52   53   54   ...   112

Modèles et structures de données : l’apport des langages

Dans ce cas d’une approche procédurale, on peut par ailleurs remarquer que la structure du programme conduit à un arbre : « La structure sous-jacente au niveau de ces nœuds est un arbre au sens informatique du terme. »1 Aussi le deuxième doctorant, Frédéric Blaise, écrira-t-il encore en 1993 : « ces notions [topologie, géométrie, dynamique de croissance] se traduisent concrètement par une structuration des données et des programmes qui tend à suivre l’organisation de l’arbre lui-même. »2 Ainsi, un programme de simulation tendrait-il, par sa forme, à représenter en l’imitant l’architecture réelle de l’arbre simulé. Il n’y aurait de simulation que s’il y a imitation de l’organisation interne.

Il reste qu’un des apports majeurs de la thèse de Jaeger consiste en la séparation nette et explicite entre la topologie de la plante, gérée par le moteur de croissance, et sa géométrie, gérée par un module autonome compatible avec une chaîne de visualisation infographique standard :
« L’indépendance des tâches ‘Simulation ‘ et ‘Graphisme’ sous-entend des structures de données adéquates pouvant d’une part recevoir des résultats de simulation et, d’autre part, s’intégrer dans une chaîne de visualisation à vocation générale. »1
Plus loin :
« De plus, la simulation numérique a obligé à penser clairement les concepts de modélisation. »2
Cette précision de Jaeger est fondamentale. Sans le dire, il reprend en fait cette distinction explicite entre le topologique et le géométrique à Alvy Ray Smith et à sa façon de résoudre informatiquement le vieux problème d’interprétation géométrique des L-systèmes3. Elle permet de comprendre que c’est le langage évolué et structuré, le FORTRAN puis le C, qui, petit à petit, commence à prendre en charge la communication jusque là houleuse ou impossible entre les différents formalismes (topologique stricte, probabiliste et géométrique). Jaeger fait ici la même expérience que Hogeweg en 1978 : il découvre que la traduction d’un algorithme en un langage différemment structuré oblige à penser et à faire construire autrement le modèle par l’esprit comme par l’ordinateur. Les structures informatiques servent alors de lieux formels de médiation, de schèmes médiateurs entre des axiomatiques hétérogènes. Le langage C va même plus loin encore puisqu’il n’oblige pas seulement à distinguer différentes procédures agissant sur des données, comme le HPL, le FORTRAN ou le PASCAL, mais plutôt différentes structures d’objets que l’on définit formellement mais réalistiquement à partir de la liste de leurs propriétés. Dans cette problématique de simulation, Jaeger et de Reffye éprouvent donc à nouveau ce que nombre de concepteurs de systèmes experts avaient déjà vécu dès les années 1960 : une sorte de reflux critique de l’informatisation sur les connaissances et les conceptualisations. Le modèle n’est pas seulement traduit en un langage informatique. Il est clarifié, complexifié et, même ici, rendu possible dans la mixité de sa conception même, par la programmation. Ce que montre d’ailleurs très vite l’informatisation structurée dans le cas de l’AMAP, c’est que la classification très qualitative de Hallé et Oldeman serait peut-être même à réorganiser, comme le suggère déjà Claude Edelin à l’époque4.

SIMULA, Langages C et C++ : programmation et modélisation orientées OBJET


SIMULA est un langage de simulation discrète issu d’ALGOL 60 et créé en 1964 par deux informaticiens du Centre de Calcul Norvégien d’Oslo (Ole-Johan Dahl et Krysten Nygaard). Ses concepteurs ont notamment cherché à systématiser la forme qu’avait prise une série de simulations sur ordinateurs effectuées lors de la conception du missile Minuteman, aux Etats-Unis, en 19571. Ces simulations avaient consisté à séparer le problème très complexe de la simulation du missile en vol en « composants » hétérogènes : « composant structure », « composant frottement dans l’air », « composant trajectoire », etc. Le système informatique consistait à faire communiquer ses composants autonomes au cours de la simulation. L’intérêt était que chaque composant incorporait une expertise particulière très poussée qui ne communiquait que le strict nécessaire aux autres : le programme général avait pour simple fonction d’encadrer ce qui s’apparentait à « un groupe de spécialistes travaillant ensemble pour résoudre un problème »2. Mais plus que la notion anthropomorphe de « spécialiste », c’est la notion d’« objet » qui va remplacer celle de « composant » dans SIMULA. Ce langage est en effet conçu pour faciliter la description formelle des règles opératoires affectant les systèmes à événements discrets3. Ses concepteurs avaient auparavant travaillé dans un contexte militaire de recherche opérationnelle où la simulation de type Monte-Carlo, effectuée d’abord « à la main », avait dès 1949-1950 remplacé les techniques traditionnelles d’analyse numérique4. À l’époque, il y a donc une demande forte pour un « ensemble cohérent de concepts » et pour un langage de description informatique susceptible de servir directement à une approche de modélisation de type simulation Monte-Carlo5. Or, SIMULA introduit la possibilité d’un fonctionnement « quasi-parallèle » de différents « processus » à événements discrets. Ces processus ont la possibilité d’intégrer étroitement des « procédures algorithmiques » à côté des traitements mathématiques de manière à faciliter la représentation intuitive et donc la programmation des éléments du système total6. Le premier compilateur SIMULA a été en fonction sur un UNIVAC 1107 dès janvier 1965.

Le langage C a, pour sa part, été conçu par Dennis M. Ritchie et Brian W. Kernighan des laboratoires Bell, entre 1971 et 1972, pour être portable et servir autant à des tâches simples et de bas niveau (proches du langage machine)7 que de haut niveau. En 1980, Bjarne Stroutstroup, toujours des Bell Labs, crée le C++ de manière à ce que le C permette la programmation orientée objet en prenant modèle sur SIMULA qui, entre-temps, s’est développé en SIMULA 67. Le but est alors d’exprimer le problème réel dans un langage peu abstrait et proche de celui qui est employé par ceux qui se le posent8. Au lieu d’une approche par lois générales qui fait l’hypothèse d’une impossible connaissance intégrale et de surplomb des processus (comme dans la première intelligence artificielle), une approche taxonomique et compartimentée est employée. Les objets sont définis comme des instances particulières de certaines classes. Les classes sont des structures de données formelles où figurent des listes d’attributs (caractéristiques) et de méthodes (comportements) qui peuvent affecter les objets de ces classes. Les objets communiquent entre eux par des messages sous forme de services aux autres objets (décrits dans les méthodes). Les classes peuvent être emboîtées : elles héritent alors certains de leurs attributs ou de leurs méthodes. Les objets regroupent et protègent leurs données et leurs méthodes avec une grande autonomie : ils sont dits encapsulés.

La programmation orientée objet a donc son origine dans la simulation de problèmes complexes mettant en relation des éléments divers et hétérogènes. Elle s’oppose d’une certaine manière à l’approche par modèles mathématiques qui reposait tout entière sur une technique de programmation procédurale, fonctionnelle (procédure de calcul, d’analyse numérique, d’approximations1, etc.) où des langages généraux et orientés vers les formulations mathématiques (comme FORTRAN) faisaient encore l’affaire. La modélisation orientée objet ouvre donc à une possible pluriformalisation des simulations et tend à compléter ou remplacer une conception mathématiste monoformalisée2. Elle réifie3 ses concepts de manière à mieux répliquer le phénomène qu’elle simule.

Toujours est-il que dans cette première version commerciale du logiciel, on n’a pas encore affaire à une véritable simulation dans le sens défini précédemment, car il faudrait pour cela traiter tous les nœuds en parallèle comme c’est le cas dans la réalité. Les méristèmes d’une plante réelle évoluent de manière corrélée et non séquentielle. Le temps passe pour eux, « en même temps », si l’on peut dire. Autrement dit, il faudrait disposer d’une machine parallèle de type MIMD (Multi Instructions Multi Datas)4. Or, selon Jaeger, il n’est techniquement pas réalisable d’interconnecter plusieurs millions de processeurs jouant chacun le rôle d’un nœud de l’arbre simulé. Il reste donc deux solutions techniquement envisagées5. La première consisterait à simuler le parallélisme en utilisant des outils logiciels comme des échéanciers. Cette solution est en cours d’implémentation en 1987 et ne sera véritablement mise en œuvre qu’avec les travaux de Frédéric Blaise, en 1991. La solution qui est d’abord retenue par Jaeger consiste à générer le végétal nœud par nœud à un âge préfixé (fixé à l’avance). Elle est simple à manipuler et requiert peu de ressources en mémoire. L’inconvénient est double6 : premièrement on n’obtient pas véritablement la simulation de la croissance de façon dynamique mais seulement des représentations d’étapes de croissance, deuxièmement la réalisation d’animations nécessite la reprise intégrale de la simulation pour chaque âge différent. Pendant le calcul, la forme transitoire obtenue ne doit pas être affichée car elle ne ressemble pas à un arbre réel. Cette simulation n’est donc pas encore botaniquement réaliste dans son processus dynamique même, bien que dans ses résultats figés, elle le soit assez rigoureusement. Il demeure néanmoins impossible de simuler la gêne entre axes puisque chaque axe est « calculé » jusqu’au bout avant que le suivant ne le soit. Et donc tout méristème « ignore » tout de son environnement.

Quelles sont finalement les hypothèses botaniques qui sous-tendent un traitement de la croissance en mode préfixé et quelle est leur conséquence sur le moteur de croissance ? La première hypothèse est que les caractères morphologiques et géométriques d’un nœud ne dépendent que des nœuds précédents1, et la seconde est que la plante pousse dans un environnement parfaitement homogène. Moyennant ces hypothèses, assez lourdes, il n’est pas irréaliste de ne traiter que la suite des nœuds ayant ramifié. C’est donc ce que fait le premier « moteur de croissance » de l’AMAP. Cette expression est proposée dès le départ par Françon, sur le modèle des « moteurs d’inférences » des logiciels d’intelligence artificielle.

Expression générale du « moteur de croissance » en préfixé

Le moteur consiste en le parcours d’un arbre informatique préfixé. C’est lui qui gère le côté topologique de la plante. Pour chaque test (de viabilité, de croissance, de ramification…) de chaque nœud, il procède à la confrontation entre un nombre aléatoire et une probabilité définie. Le corps général du moteur de croissance est ainsi décrit par Jaeger :


« Chaque nœud subit en séquence les tests suivants :

-le test de viabilité

-si le nœud est viable, le test de croissance,

-enfin si le nœud est viable et n’est pas en pause, des tests de ramification.

Dans le cas où il y a ramification, un nouveau nœud est créé et traité ; dans le cas contraire, on traite le nœud suivant sur le même axe. »2
Suit alors la description du moteur. Il est itératif et non récursif (à cause du mode préfixé) et nécessite une gestion classique par pile initialisée dite « graine » :
«  MOTEUR

Empiler le premier nœud « la graine »

Tant que (la pile n’est pas vide) faire

mêmeaxe vrai

on affecte le sommet de la pile au nœud courant

tant que (mêmeaxe) faire

proba LOIS(viabilité) ‘ viabilité du nœud

Si (rnd > proba) alors

On dépile ‘ le nœud est mort

mêmeaxe faux

sinon

proba LOIS (croissance) ‘ élongation du nœud

Si (rnd < proba) alors ‘ tests de ramification

Pour (chaque nature de ramification) faire

proba LOIS(ramification, nature)

Si (rnd < proba) alors

On empile un nouveau nœud

mêmeaxe faux ‘dû à l’ordre préfixé

Fin si

Fait

Fin si

Fin si

Fait

Fait »

Les axes sont donc bien traités séquentiellement et non en parallèle. La ramification finit par s’arrêter grâce au test de la viabilité où entre la valeur de l’âge limite que l’on souhaite pour les nœuds1. Ainsi c’est quand tous les nœuds d’un axe sont morts ou ont atteint l’âge limite que le moteur passe à l’axe voisin. La solution d’une récursivité véritable n’est donc pas choisie malgré le projet déjà ancien de de Reffye en ce sens. En plus du choix d’une simulation en mode préfixé, il y a deux autres raisons à cela : ce logiciel doit pouvoir être lu par des non-informaticiens, comme le précise Jaeger, et il doit pouvoir être transportable sur d’autres machines et dans d’autres langages.

Ces raisons jouent aussi dans le choix des langages de programmation employés. La première version du programme a été écrite en FORTRAN avec une programmation structurée en modules afin de faciliter par la suite la transposition en langage C par la société SESA (Société d’Etudes en Systèmes Automatiques). Jaeger justifie l’utilisation du C pour la version commerciale de ce logiciel par le désir de proposer un logiciel de graphisme interactif, rapide, convivial et accessible aux non-botanistes2. Il est ainsi transportable sur Data General, Vax et IBM. Du côté du matériel, Jaeger utilise le mini-ordinateur Data General 10000SX du GERDAT pour écrire son logiciel et un écran Tektronix 4107 avec une résolution de 512 x 512 pixels pour afficher le résultat. Le programme source s’étend sur 3000 lignes et son fonctionnement nécessite un espace mémoire de 800Koctets. En revanche le résultat de la simulation peut occuper plusieurs mégaoctets en fonction de la complexité de l’architecture de l’arbre : très peu de mémoire pour le palmier, beaucoup pour certaines herbes. Enfin, le temps de calcul dépend directement du nombre de nœuds simulés. Pour 350000 nœuds par exemple, il faut 540s, soit 9 minutes. À comparer avec les 4 heures que nécessitait parfois le HP9825… Notons qu’avec de telles contraintes techniques, Jaeger ne peut pas utiliser les micro-ordinateurs personnels qui commencent pourtant à voir le jour à l’époque.

Premières applications : médiatiques

Selon l’expression d’un article collectif des membres de l’AMAP, dès le milieu des années 1980, le laboratoire tient à disposition des chercheurs de véritables « maquettes informatiques »3. Grâce au travail de Jaeger, ces maquettes sont visualisables en trois dimensions. Elles sont intégrées dans des scènes où peuvent figurer des bâtiments, des villes… Elles peuvent présenter de véritables jardins botaniques virtuels. En effet, pour la première fois, et à la différence des précédentes tentatives (comme celle de Aono et Kunii), des simulations de l’architecture des végétaux ont une véritable assise botanique. Certains spécialistes comme Hallé lui font confiance alors qu’ils étaient restés sceptiques face aux essais purement théoriques et a priori fondés sur les fractales ou les L-systèmes. Hallé n’était pourtant pas resté réfractaire aux approches informatiques. Il avait même rencontré Lindenmayer entre 1975 et 1978, lors de certaines visites à son collègue Oldeman qui était alors en poste aux Pays-Bas. Mais les deux chercheurs ne s’étaient pas du tout entendus sur les termes d’une éventuelle collaboration, en partie à cause de l’approche trop formaliste de Lindenmayer. Au contraire, Jaeger et de Reffye convainquent d’autant plus Hallé et ses élèves botanistes que leurs simulations bénéficient d’une visualisation encore nettement améliorée grâce aux nouveaux écrans. Le principe de la validation par « l’œil de l’expert » invoqué par de Reffye vaut plus que jamais.

Mais, en dehors de l’école de Hallé, l’engouement des botanistes reste mitigé, à l’époque. Les agronomes et les écophysiologistes sont encore moins séduits. Pour tout dire, le premier intérêt du logiciel de Jaeger vient surtout du fait qu’il se prête à des applications qui ne sont pas d’abord agronomiques ni même botaniques : elles sont médiatiques. Ses créateurs en sont très conscients : la valorisation en sera facilitée d’autant. La thèse de Jaeger mène ainsi à la création de films à vocation pédagogique réalisés à partir de ses simulations. On peut y voir par exemple la croissance d’un caféier décomposée et analysée en 200 étapes pour une durée de 1 minute 301.

Très rapidement, la médiatisation du travail de de Reffye et Jaeger est considérable. Le logiciel, résultat de cette thèse, a rapidement été vendu sur la base de contrats passés avec des sociétés spécialisées en imagerie de synthèse, dont la SESA2 et ce, sous le nom d’AMAP, avec la licence du CIRAD. Il est présenté et attire une grande attention au Forum des Nouvelles Images de Monte-Carlo de février 1987. De nombreuses images créées avec AMAP sont alors publiées dans les revues grand public : Pour la Science (avril 1987), La Recherche (juin 1987), Le Courrier du CNRS (n° 299, spécial « imagerie scientifique »), Computer Graphic World (juillet 1987), Science et Vie (août 1987)3. Les résultats graphiques de cette nouvelle approche font ainsi beaucoup pour sa popularité et surtout pour la renommée mondiale du CIRAD. Ils lui servent en quelque sorte de vitrine ou de carte de visite. De manière symptomatique d’ailleurs, les premières images virtuelles sorties de l’AMAP servent au CIRAD pour faire des cartes de vœux. Les préoccupations agronomiques semblent alors très lointaines…

Dans sa thèse de 1987, Jaeger s’attache également à montrer que des scénarios variés d’implantation et de croissance d’arbres en jardin aménagé ou en milieu urbain sont simulables et que cela peut constituer une aide à la décision pour le professionnel en urbanisme. L’acquisition par la société SESA du programme-source matérialise le projet d’intégrer cette nouvelle méthodologie de modélisation dans les chaînes graphiques commerciales déjà existantes. Ainsi, certains logiciels de Dessin Assisté par Ordinateur (DAO) proposent rapidement les fonctionnalités d’AMAP pour la synthèse d’images.

Une valorisation de la recherche pour le moins réussie

Il n’est pas insignifiant que les premiers gros clients de l’AMAP soient des japonais. Ces derniers se servent très rapidement des images de l’AMAP dans des problématiques paysagères, de conception de jardins botaniques ou d’animation. Dans notre historique précédent, nous avions déjà compris que le Japon avait précocement développé des essais de simulation réaliste des plantes. Nous voudrions suggérer ici que ce n’est pas tout à fait par hasard. Il faut voir là bien sûr l’effet d’une certaine avance japonaise, surtout dans les technologies des nouvelles images au cours des années 1980. Mais devant les fines simulations graphiques de jardins japonais (quelque peu éthérées et hors sol par rapport à ce que proposera Jaeger en 1987) de Aono et Kunii (1984), on peut imaginer qu’une forte demande sociale en paysagisme existe dans ce pays, notamment de par le rapport singulier que ses habitants entretiennent avec les plantes. Avec moins de répugnance qu’en Occident, elles sont conçues comme pouvant résulter d’une intervention très forte de l’homme (bonzaï), d’une quasi-fabrication sculpturale et architecturale (art du tokikata1 ou art des jardins idéaux incitant à la méditation). La rupture entre le naturel et l’artificiel y est donc moins nette. Que la science de la conception artificielle, l’informatique, en permette la représentation fidèle est sans doute en soi moins choquant que pour un occidental plus rétif, quant à lui, à l’idée de reproduire une nature que l’on disait créée par Dieu2.

La perception visuelle et esthétique que les japonais ont traditionnellement des plantes est elle aussi particulière : l’arbre est reproduit par le trait cursif de la calligraphie. Ce fait est frappant lorsque l’on observe les fines simulations de Aono et Kunii sur leur écran graphique. Que la simulation géométrique des plantes ait eu sa source au Japon surprend donc moins si l’on songe à tous ces facteurs civilisationnels3. Toutefois, ce qui manque aux japonais en cette fin des années 1980, c’est une plus grande fidélité à la botanique. C’est précisément ce que propose AMAP avec son module topologique intégrant l’approche par processus stochastiques. AMAP va donc bénéficier très vite de ce fort engouement.

Après les japonais, la SEITA contracte avec AMAP dans le but de réaliser des tabacs ornementaux. Puis, un bureau d’architecte paysagiste français, celui de Philippe Thébaud (agence TUP, située à la Défense), finit par acheter le logiciel. AMAP conclut également un partenariat avec l’Ecole Horticole de Lullier en Suisse pour la fourniture d’un certain nombre de copies de l’application. Au début, l’industrialisation et la commercialisation du logiciel sont effectuées en interne par AMAP4. Les contrats concernés peuvent atteindre quelques centaines de milliers de francs de l’époque, voire un million. Entre 1988 et 1990, les ventes pourront même rapporter jusqu’à deux millions et demi de francs par an.

De par cette capacité à valoriser un produit de la recherche, le CIRAD réussit une belle opération qui ne lui attirera pas que des sympathies. Nous y reviendrons. Du fait qu’il dispose de plus de moyens, on l’a compris, le CIRAD s’accapare vite les compétences de Jaeger qui, d’une certaine manière, échappe à l’influence de Françon. Après une année de service miliaire au cours duquel il effectue, comme scientifique du contingent, des travaux d’ingénieur en simulation et images de synthèse 3D à l’EAALAT (Ecole d’Application de l’Aviation Légère de l’Armée de Terre5), Jaeger est recruté au CIRAD comme ingénieur de recherche en 1989 pour poursuivre son travail. Entre-temps, Hervé Bichat rencontre le mathématicien Jacques-Louis Lions (1928 – 2001), ancien président de l’INRIA (Institut National de Recherche en Informatique et Automatique), et qui est alors professeur au Collège de France1. Lions est intéressé par ce que Bichat lui rapporte au sujet de l’AMAP. Et il se déplace à Montpellier pour voir les résultats sur place. C’est grâce à cette rencontre que l’AMAP obtient le prix Seymour-Cray en 1988 pour ses images de synthèse. La même année, Puech et Françon réussissent à faire accepter un premier article de l’AMAP au colloque SIGGRAPH de 19882. L’année d’avant, ils avaient essuyé un refus des américains, mais le CIRAD avait tout de même payé ce qu’il fallait pour présenter un stand en dehors du colloque scientifique proprement dit. Mais être présent sur un stand et être publié, cela n’a pas la même signification du point de vue de la reconnaissance scientifique. L’année 1988 voit donc une sorte de consécration de l’AMAP dans le domaine de l’infographie.

Timides applications botaniques et agronomiques

À en croire les indications de Jaeger à l’époque, les applications agronomiques existent bien aussi et elles pourraient même être de plusieurs sortes3. Il y aura d’abord celles qui ne réclament pas d’extension du logiciel. Une application agronomique particulière est ainsi l’objet d’une collaboration entre l’IRCA (Institut de Recherche sur le Caoutchouc), rattaché au CIRAD, et l’AMAP. Il s’agit de fournir une bibliothèque (ou mini-flore) architecturale simulée de clones d’hévéa afin d’aider l’expert à leur reconnaissance sur le terrain et de prévoir leur comportement mécanique différencié dans le vent.

Par ailleurs, se développent des applications qui nécessitent des extensions. La réalisation de ce premier logiciel d’envergure avait déjà permis à Lecoustre de poursuivre la simulation (déjà initiée à la suite de la thèse de de Reffye) de scénarios d’attaque d’insectes. Une courte collaboration entre le CIRAD et l’INRA voit en outre l’exploitation de ce logiciel, à partir de 1986, à des fins d’évaluation de la masse foliaire des arbres4 : « les chercheurs peuvent ainsi évaluer précisément les erreurs commises dans l’évaluation de la masse foliaire par des capteurs au sol »5. La simulation se propose ainsi comme une technique de vérification directe des méthodes classiques de mesure et d’estimation indirectes sur le terrain. Avec cet outil, du point de vue de l’AMAP en tout cas, une prédiction correcte des productions quelconques de toute plante peut paraître accessible aux agronomes dans un proche avenir. Et c’est bien cela qui commence à pousser l’INRA à s’intéresser aux recherches de l’AMAP. Mais, si cela est moins vrai de la direction de cet institut, la grande majorité des agronomes de l’INRA n’est pas convaincue. Pendant longtemps, le CIRAD paie le fait d’avoir délibérément et médiatiquement mis l’accent sur l’image de synthèse : les agronomes n’auront plus qu’à s’engouffrer dans la voie des critiques qui s’ouvre naturellement devant eux. Faire de belles images n’est pas faire de la science, diront-ils. De plus, la modélisation informatique a pour effet de mettre en doute certains concepts botaniques établis par l’école de Hallé : une certaine perte de sens s’installe. L’apport conceptuel n’est pas évident a priori. L’AMAP et les botanistes ne semblent plus présenter un front aussi solide et uni face aux agronomes en mal de modèles physiologiques.

Rigueur formelle et perte de sens

Car la simulation numérique oblige à penser avec plus de rigueur les concepts modélisés. Elle ne tolère pas l’ambiguïté puisqu’elle se fonde sur une formalisation des objets. C’est pourquoi, tous les travaux qui émanent de l’AMAP débutent avec la fixation d’un vocabulaire rigoureux pour les phénomènes botaniques considérés. Du fait qu’elle part d’une description de la genèse de la plante à un niveau inférieur à celui adopté par Hallé, l’approche de l’AMAP tend à disperser la notion de modèle architectural selon toutes ses manifestations effectives mais sans lui conférer en échange une logique unitaire. La thèse de Jaeger se fait l’écho de cette dispersion, de cette fragmentation, telle qu’elle est répercutée par l’approche informatique de type procédurale. Certains travaux alors en cours essaient de remédier à cette perte de signification, dont les recherches de Claude Edelin1 sur « un continuum architectural ». En fait, ce que le premier logiciel AMAP montre, c’est que les botanistes doivent se remettre au travail. Nous verrons que ces tentatives pour fédérer les modèles sous une algèbre plus formalisée et unitaire reviennent périodiquement et qu’elles ne sont pas étrangères au rapport que l’AMAP entretiendra finalement avec l’approche par L-systèmes. Un essai de solution sera apporté plus tard.

Mais auparavant, il paraît manifestement plus urgent de rétablir les liens avec les agronomes, notamment si l’on ne veut pas que l’AMAP soit trop en porte-à-faux par rapport à la définition des tâches de son institution d’accueil, le CIRAD. Cela paraît possible si l’on poursuit le projet initial de Françon et de de Reffye de rendre la simulation informatique encore plus réaliste du point de vue botanique et en particulier quant à son processus de génération : il faut intégrer le réel parallélisme du fonctionnement des bourgeons. Le souci de réalisme des botanistes2, que partage aussi Françon mais pour des raisons qui lui sont propres et que nous connaissons, pourra alors être satisfait. Cela peut sembler pour l’heure la seule voie pour une réconciliation avec les agronomes puisque l’on pourrait ensuite envisager de faire paraître les processus d’allocations de matière pas à pas grâce à la prise en compte de la photosynthèse. La maquette, étant plus réaliste du point de vue de l’histoire de la croissance, pourra devenir plus fonctionnelle aussi et moins descriptive.

Le deuxième logiciel simule le parallélisme (1991)

C’est le second étudiant de Jean Françon, Frédéric Blaise, qui va être chargé du passage à la simulation du parallélisme, entre 1988 et 1991. La réorientation vers le pragmatisme et l’opérationnel du laboratoire du CIRAD favorise ainsi l’approfondissement d’une approche de la simulation qui serait utilisable par le botaniste comme par l’agronome, quelle que soit l’esthétique des images. La preuve que l’on pouvait faire les plus belles images ayant été apportée à la face du monde de l’infographie et des bailleurs de fonds potentiels (bureaux d’études et industriels), il faut désormais convaincre les biologistes et les agronomes. Le modèle mathématique doit tirer un peu plus de leçons de la physiologie, sans s’y laisser noyer pour autant. On voit donc déjà que la fonction pragmatique du modèle (le modèle-outil), au sens de Legay, est en quelque sorte rejointe par ce biais. Mais notons bien que de Reffye accepte de s’en rapprocher graduellement. Là est peut-être toute la différence. Il n’avait pas pour ambition de faire que sa simulation explique d’emblée la physiologie, même localement. Mais il se trouve que c’est une fois que la description très complète de la structure est acquise que la réintégration de la fonction est envisagée.

Comme le premier logiciel traite les axes un à un et ne simule pas véritablement l’évolution parallèle des méristèmes, les collisions inter- et intra-couronne dans l’arbre ainsi que la gêne à l’illumination ne peuvent pas être prises en compte, car les méristèmes ne « savent » pas où sont ceux qui les environnent au moment de leur test de croissance. Avec cette approche en préfixé, cela signifie que l’on n’a pas encore assez discriminé, dans les probabilités des méristèmes, ce qui est dû au génotype et ce qui est dû aux conditions du milieu1. On ne peut donc affirmer que l’on ait de bonnes valeurs pour ces probabilités intrinsèques, même si le rendu est réaliste. Autrement dit, les probabilités locales ne formalisent pas un phénomène biologique élémentaire. Le « réalisme » doit devenir davantage botanique encore et ne pas rester de surface. Car on ne peut rigoureusement considérer la croissance d’une partie de plante comme totalement indépendante de celle des autres. Ses parties s’entr’empêchent à toutes les étapes de la croissance. Autrement dit, on n’a pas encore tiré tout le parti que l’on pouvait de la métaphore de la population dans cette idée de la plante conçue comme métapopulation de méristèmes. On n’est pas si certain d’avoir isolé des caractères génétiques assez « élémentaires ».

Au début des années 1990, de Reffye ne renonce donc pas à cette vision détaillée de la plante. Au contraire, il la prolonge et l’approfondit. Dans cette deuxième approche, il s’agit donc de simuler également les interactions incessantes à l’intérieur de l’arbre. Cela impose d’adopter un tout autre principe de programmation. Ce faisant, on ouvre notamment la voie à la modélisation des peuplements (donc des plantations et des forêts…) et non plus seulement à celles des plantes « individuelles ». Par là, de Reffye retrouve l’objectif qui avait été le sien juste après sa thèse, en 1980, alors qu’il était encore en Côte-d’Ivoire, à l’IFCC. L’enjeu est bien de simuler une dynamique de croissance de plante qui soit plus exacte sur le plan botanique mais qui ouvre également de nouvelles perspectives agronomiques notamment en foresterie2.

Ce cahier des charges renouvelé exige encore, et plus que jamais, le recours à des spécialistes de la programmation évoluée, étant entendu qu’il faudra simuler des processus essentiellement parallèles et que l’algorithmique afférente en est encore elle-même au stade de la recherche. La culture autodidacte ne suffit décidément plus. Aussi, cette demande de compétence se fait logiquement plus pressante et la collaboration avec l’ULP de Strasbourg et l’équipe de Jean Françon se confirme avec la venue, en 1987, d’un nouveau doctorant en informatique.

La construction ordre par ordre exige une nouvelle structuration des données

Si dans la restitution de la croissance d’un arbre en mode préfixé, on traite les ramifications prioritairement, dans la construction ordre par ordre, chaque ordre de ramification est traité pour tous les axes, à chaque top d’horloge1. Ainsi la restitution informatique de l’arbre tend plus encore que dans le logiciel de Jaeger à ressembler à la croissance des méristèmes telle qu’elle a réellement lieu : en parallèle. Une simulation de la croissance des plantes en parallèle nécessite d’abord une structuration plus complexe des données. Ainsi les notions fondamentales de topologie, de géométrie et de dynamique de croissance « se traduisent concrètement par une structuration des données et des programmes qui tend à calquer l’organisation de la plante elle-même », écrit Blaise. Et il commente : « ainsi la complexité botanique de la plante se retrouve dans la mise en forme de la simulation, mais au profit d’une plus grande maintenabilité et d’une extensibilité plus aisée »2.

Cette fois-ci, à la différence de Jaeger, Blaise fait le choix de représenter les entités dans des structures hiérarchisées, cela afin d’éviter la redondance informative dans la définition des entités. Il y introduit six niveaux : entrenœud, unité de croissance, axe, réitération, structure, plante. Les entités sont des structures, leurs liens sont des pointeurs au sens du langage C. Les pointeurs sont des cases de l’entité qui désignent les adresses des entités suivante et précédente. Ils permettent d’organiser des allocations, des classements ou des rangements de manière dynamique. L’entité de plus bas niveau est ici l’entrenœud et l’entité de plus haut niveau est la plante. Cette dernière structure est utile si l’on veut simuler la gêne entre plantes. Notons ici ce fait important : par rapport à la simulation de Jaeger, la rigueur botanique doit être sacrifiée quelque peu pour que la structuration des données puissent être effectivement hiérarchisée. Pour une raison de faisabilité informatique (implémentation en langage hiérarchisé), il faut systématiser certains rapports entre certains organes en sacrifiant les points de détail. Toutefois, un bon réalisme peut tout de même être maintenu désormais grâce à l’avancée conceptuelle intervenue en botanique avec l’introduction de la notion d’« unité de croissance ». En effet, à la suite des travaux de Claude Edelin, cette notion clef a entre-temps été mise en évidence par Evelyne Costes dans son travail de thèse sur le litchi3. En travaillant sur cet arbre, la botaniste a montré que le premier logiciel de 1987 (de Reffye et Jaeger), encore très influencé par la croissance du caféier, avait confondu entrenœud et unité de croissance4 : le litchi ne pouvait pas être correctement simulé par le premier logiciel.

La simulation d’événements discrets et le moteur de croissance parallèle

Selon Blaise, dès lors que l’on a formalisé et discrétisé les éléments en interaction, il faut recourir à une technique de modélisation adaptée et éprouvée par ailleurs. Il s’agit de la simulation à événements discrets. Il la décrit comme une « technique de modélisation permettant de construire une abstraction de la réalité et de faire évoluer cette abstraction en fonction du temps »5.

Nous allons décrire les particularités de ce type de modélisation afin de comprendre le choix qui a été fait. L’idée qui préside à cette technique et qui justifie sa dénomination est que les variables numériques décrivant le système sont discrètes et en nombre fini. Il en résulte trois conséquences essentielles pour la conduite de la programmation : tout d’abord, l’ensemble des combinaisons de valeurs qu’elles peuvent prendre, et qui constitue l’espace d’état de la simulation, est a priori fini ou encore dénombrable. La deuxième conséquence concerne la façon de traiter l’évolution du système modélisé. Cette évolution y est expliquée en termes de changements d’état. Or, étant donné le caractère discret des variables, ces changements d’états doivent eux aussi être représentés de façon discrète, puisqu’on ne peut passer continûment d’une valeur discrète à une autre. Il y a donc des instants de changement appelés « temps d’occurrence d’événement » ou dates d’événement où l’on admet que le système fait un saut. Le temps se trouve donc aussi discrétisé1. La troisième conséquence de ce traitement discret des variables peut s’exprimer par la notion d’ordre de traitement des événements simultanés. Cet ordre renvoie simplement à la décision désormais possible pour le programmeur de faire traiter dans un ordre séquentiel des événements qui ont lieu en fait simultanément. Il peut donc être parfaitement ignoré de l’utilisateur du logiciel. Cette discrétisation informatique du temps a pour essentielle qualité de permettre au programme d’« arrêter » le temps afin de traiter toutes les tâches simultanées, les unes après les autres. Le temps de la simulation est donc un temps virtuel qui se sépare du temps réel non seulement parce qu’il possède un rapport de rythme différent mais parce qu’on se permet de l’« arrêter » pour réaliser des tâches parallèles. Ainsi, en toute rigueur, une machine séquentielle peut, moyennant cette technique, procéder de façon quasi-parallèle2.

La première difficulté qu’il faut ensuite résoudre lorsque l’on opte pour ce type de simulation concerne la gestion du temps. Elle peut être de deux types : par horloge ou par événements. Il pourrait sembler naturel, étant données les idées avancées en ce sens par de Reffye, que Blaise utilise la simulation dirigée par une horloge. Dans ce type de simulation, à chaque top d’horloge incrémenté, « la liste des événements est explorée et tous les événements apparaissant à cette date sont activés ». Mais Blaise rejette cette solution « parce qu’on ne peut précisément définir les différents états de la plante au cours de sa croissance »3. Ce n’est pas une impossibilité technique qui est ici visée. Le problème n’est pas de type informatique. Il concerne le choix du pas de temps. Pour pouvoir réellement définir un battement minimal dans l’élaboration d’une forme naturelle, il faut que l’élaboration de toutes ses parties possibles nécessite un nombre entier positif de battements. Il faut pouvoir ainsi définir l’échelle de « temps virtuel » réaliste. Dans les faits, les rapports de rythme temporels et intrinsèques à une plante donnée sont des nombres réels. Or, bien que cela soit discutable, l’ensemble mathématique des nombres réels peut à première vue être considéré comme un concept modelé sur notre appréhension du continuum physique. C’est là qu’intervient la nature du phénomène à simuler. Le phénomène biologique se distingue par là nettement du phénomène mécanique ou industriel tel qu’il peut être conçu à l’avance ou reconstitué par CAO. Si ce phénomène n’est pas artificiel, si donc il est biologique (au contraire de ce qui a lieu dans le dessin technique de l’ingénieur mécanicien ou architecte où l’on peut faire apparaître un module), il n’y pas d’étalon simple de mesure temporelle de l’évolution puisqu’on n’a pas eu le loisir d’en choisir un. Il n’est donc pas facile d’assigner un événement minimal, c’est-à-dire de durée minimale, qui constituerait une mesure de base pour tous les autres événements4. Cela est dû au fait qu’on ne maîtrise justement pas la connaissance d’une hypothétique échelle minimale des phénomènes naturels jusqu’à ce point où l’on pourrait les quantifier et les ramener aux règles simples de l’arithmétique et de la logique.

Pourtant la notion d’horloge interne ne perd pas du tout de sa pertinence même si elle n’est pas réellement implémentée en tant que telle dans le programme. En fait, c’est la notion d’échéancier qui va identifier le fonctionnement du programme au battement d’une horloge interne. Dans un échéancier, on peut faire paraître des tops d’horloge réels. C’est la simulation dirigée par événements qui permet cela. Le temps de la simulation est alors géré par une « liste linéaire d’événements », selon l’expression de Blaise1. Mais comment simule-t-on le traitement simultané de plusieurs événements ? Lorsque plusieurs événements peuvent avoir lieu en même temps, ils s’appellent et se succèdent dans l’échéancier, sans modification de leur champ « date » dans la liste des définitions de leurs attributs. Leur ordre d’apparition, invisible à l’utilisateur, dépend donc de la manière dont on balaie l’échéancier2.

Le choix de la gestion du temps étant fait, il convient de mettre en œuvre soit une approche événement, soit une approche processus pour le « noyau de synchronisation »3. Dans le premier cas, le noyau de synchronisation a pour tâche essentielle d’ordonnancer les événements suivant leurs dates absolues dans le temps virtuel. Dans le second cas, la simulation est centrée sur la notion de processus. Elle figure un ensemble de processus progressant parallèlement dans le temps4. Blaise fait le choix d’une « voie intermédiaire entre un noyau basé sur la notion d’événement et un noyau basé sur la notion de processus »5. Il ne dispose pas en effet d’un langage de programmation de processus du type ModSim II, QNAP2 ou Simula676 qui tous émanent de la programmation orientée objet, encore balbutiante. La programmation d’une telle solution resterait de toute façon difficile. Le choix de Blaise est donc justifié par la limitation des ressources informatiques disponibles au CIRAD mais aussi par la simplicité de l’implémentation.



La discrétisation de l’espace

Après une nouvelle gestion du temps et les choix qu’elle impose, la deuxième génération de logiciels AMAP nécessite aussi une nouvelle prise en compte de l’occupation de l’espace. Cette étape est nécessaire puisqu’il s’agit de faire gérer, par la simulation, la gène entre les parties de la plante et l’ombrage qu’elles occasionnent sur leurs voisines. Il s’agit vraiment de mettre en œuvre le fait que l’on a affaire dès la plante unique à une population d’individus qui se côtoient et se limitent mutuellement. C’est continuer à s’inscrire, pour l’AMAP, dans la lignée de l’article de synthèse de James White. Or, comme le remarque White1, reprenant en cela une image du botaniste allemand E. Münch, une plante ne présente jamais la forme d’un « balai de sorcière » (witchbroom) : les méristèmes physiologiquement réunis ne sont pas indépendants. Le refus de l’image du balai figure cette idée que les branches d’un arbre ne sont pas rassemblées accidentellement, en vrac, mais que leur disposition dépend d’une histoire commune. Il faut donc traiter toutes les exclusions possibles : à l’intérieur d’une même plante, entre une plante et un obstacle inerte ou entre deux plantes. L’objectif principal est de simuler la croissance dans un environnement hétérogène et évolutif. Les simulations ne seront plus des maquettes de type « fil de fer ». Elles auront une épaisseur.

La solution préconisée est de poursuivre la tendance à discrétiser la nature. L’espace lui-même sera donc traité comme un amas de cubes élémentaires de côté fixe et les coordonnées géométriques des éléments de la plante seront arrondies pour tomber dans un de ces cubes : il faut logiciser le géométrique pour que logique et géométrie soient compatibles pas à pas, mais aussi pour que les calculs soient exécutables en un temps limité. En effet, les solutions de géométrie analytique, même si elles peuvent paraître élégantes et plus fidèles à la réalité des formes élémentaires (entrenœud, feuille, rameau, tige), exigent la mise en œuvre de calculs prohibitifs, étant donné le nombre d’éléments qu’il y aurait à considérer2.

Aussi, Blaise reprend-il aux techniques d’imagerie médicale la notion d’espace voxel3. Le voxel est l’analogue, pour les volumes, du pixel. C’est l’unité de volume minimale visible à l’écran. Selon Blaise, qui reprend en cela les arguments de Ned Greene4, « grâce à cet espace discrétisé, il est plus facile et plus rapide de déterminer certaines relations, telles la proximité ou l’insertion, entre des objets géométriques que par la géométrie analytique »1 . Au fond, l’enjeu de cette discrétisation est de remplacer des relations métriques par des relations logiques de type présence/absence. Elles sont plus faciles et plus rapides à gérer pour les algorithmes qui s’occupent de la croissance ramifiée et stochastique. Il est donc utile de discrétiser très en amont et pas seulement dans la dernière phase de l’affichage sur écran bitmap. Ainsi le parallélisme du traitement (le passage incessant du topologique au métrique) est lui-même facilité. Mais il s’agit aussi de maintenir, moyennant ces conditions de modélisation, la performance de l’outil informatique disponible. On a donc affaire à une solution de compromis. Car ce remplacement est justifié par la moindre longueur des calculs mais aussi par une plus grande « facilité » conceptuelle pour le programmeur.

Pourquoi peut-on parler de plus grande facilité de conception du modèle dans ce cas ? Blaise le précise lui-même. La plupart du temps, un voxel est de nature binaire ; c’est-à-dire qu’à ses trois coordonnées discrétisées ne répond qu’une variable ayant seulement deux états possibles : « voxel déjà occupé » / « voxel non occupé ». Ainsi les conflits pour une occupation de l’espace sont-ils réduits à un principe d’exclusion des plus simples et le traitement informatique y devient facile à programmer et ultra-rapide dans son fonctionnement. Or, même si l’idée d’une simplification de ce type reste une perspective opérante, Blaise convient néanmoins que, dans le cas de la plante, « une information binaire s’avère trop primitive »2. On doit en effet pouvoir gérer certaines cohabitations entre certaines parties bien définies de la plante : « Dans le cas d’un arbre, lors d’une ramification, l’axe porteur [sic] voit automatiquement sa première unité de croissance appartenir, au moins en partie, au voxel déjà occupé par l’unité de croissance de son axe porteur qui a ramifié. »3 Donc le principe du traitement de l’espace par présence/absence dans un réduit élémentaire ne suffit pas pour les arborescences sans discontinuité. Il faut que le voxel puisse signaler quel type de partie de plante l’occupe déjà afin que l’on puisse tempérer le principe d’exclusion.

Un autre problème spécifique doit être résolu par Blaise. C’est le problème de la discrétisation optimale d’un segment dans l’espace 3D. La solution qu’il propose consistera en une extension d’un algorithme classique de l’imagerie de synthèse 2D. L’intérêt de la technique retenue tient au fait qu’elle est analogue à une technique classique d’affichage de segment sur écran à pixels : l’algorithme de Bresenham4. Or il faut bien comprendre ici que cette généralisation ne s’impose pas d’abord dans le but d’améliorer le rendu d’une image, mais dans le but de restituer le mieux possible dans le modèle les parties discrétisées d’une plante, et ce afin d’introduire le minimum d’erreur systématique.


Discrétisation de l’espace et erreur systématique


Il n’existe pas de solution générale au problème du passage de la géométrie euclidienne à l’espace discrétisé. Cette difficulté est devenue classique dans l’infographie dès lors qu’il s’est agi de faire contrôler par l’ordinateur un affichage sur écran bitmap ou sur une imprimante numérique (à distinguer des anciens plotters ou traceurs de courbes dont le signal de commande et le tracé étaient analogiques1). Le problème réside dans le choix des pixels à colorier lorsque l’on veut discrétiser un segment : on peut montrer qu’il n’est pas optimal (notamment pour la discrimination de différents segments) de choisir systématiquement tous les pixels traversés par le segment. En 1965, l’ingénieur américain J. E. Bresenham a proposé un algorithme général permettant de supprimer les pixels jugés surnuméraires en faisant le moins de calcul possible2. C’est celui-ci que Blaise adapte au cas des voxels sans prétendre toutefois proposer un algorithme optimal, ce qui serait une tâche ardue et hors des limites de son travail : il peut compter sur des ressources en mémoire suffisantes.

On peut imaginer ici que Blaise mesure particulièrement bien le sens de ces difficultés parce que son professeur, Jean Françon, y a récemment réfléchi, avec son collègue Jean-Pierre Reveilles. Depuis la fin des années 1980, de manière assez provocante, ils proposent que les concepteurs de modèles ou de théories mathématiques passent directement à la géométrie discrète dès lors qu’ils envisagent d’utiliser l’ordinateur. Ils rappellent que l’algorithme de Bresenham oublie les coordonnées euclidiennes des morceaux de segment précédemment affichés : il y a donc perte d’information3. Or, dans certains cas, on ne doit plus considérer cela comme une simple approximation du continu par le discret, car il surgit des phénomènes de propagation d’erreur d’arrondi qui ne sont pas du tout maîtrisés ni même maîtrisables en droit4 : « le fond de l’affaire est que les théorèmes de la géométrie euclidienne ne sont pas transportés par discrétisation. »5 Il n’y a pas d’invariance structurelle. Il n’y a pas d’isomorphisme entre la topologie ou la géométrie discrète et la géométrie euclidienne. La traduction de l’une en l’autre est toujours ambiguë. Il faut donc partir directement d’une géométrisation discrète du monde, selon eux, non pas parce que le monde est discret6, mais parce que, à terme, on ne pourra calculer des modèles compliqués sur ordinateur, en maîtrisant les erreurs, qu’à cette seule condition : « il faut donc construire une géométrie sur des objets discrets dans laquelle on raisonne et on calcule rigoureusement. »7 Cette voie de recherche en géométrie dite « discrète » s’est considérablement développée dans les années 1990, notamment dans les laboratoires de l’INRIA.


L’algorithme de notation d’un segment dans un espace voxel 3D a donc pour but essentiel d’approcher au mieux, par les structures de données informatiques, la réalité de la plante, pour que le traitement des collisions soit le plus réaliste possible. Il est ainsi significatif que ce problème d’un rendu réaliste d’un objet 3D dans un espace abstrait, et à des fins de simulation la plus fine possible, soit analogue au problème d’un rendu réaliste pour l’œil d’une image 2D sur écran. Dans ce cas précis, comme l’espérait Françon, la simulation des formes végétales permet bien d’acquérir un regard nouveau et productif sur l’algorithmique.

Enfin, dans le but de montrer que le choix du pas de discrétisation spatiale ne crée pas d’artefact par rapport au modèle qu’on voudrait lui voir simuler, Blaise procède à des calculs réitérés de simulation en ne faisant varier que ce pas. C’est par ces expériences de simulation réitérées et en constatant la stabilité du point de vue statistique des simulations obtenues qu’il en conclut que la discrétisation de l’espace est correctement adaptée aux objectifs1. Il faut noter que Blaise parle bien alors d’« expériences »2. Il teste les propriétés statistiques des simulations en utilisant un logiciel d’analyse statistique d’usage courant, SAS, comme on le ferait pour un plan d’expériences réelles. Ce travail peut être considéré comme faisant partie du stade de vérification (innocuité de l’implémentation par rapport au modèle).



La validation de la simulation dans son ensemble

Après l’exposé des choix techniques, il convient de valider une simulation, c’est-à-dire de montrer qu’elle est réaliste pour les applications que l’on envisage. Les travaux scientifiques se distinguent aussi dans leur façon de valider les modèles. Quel est le choix de l’AMAP à ce sujet et pour quelles raisons ? La méthode de validation qui semble satisfaire l’équipe de l’AMAP revient à faire simuler un grand nombre de modèles architecturaux différents et à montrer les images qui en résultent. Blaise s’exprime ainsi :


«Enfin toutes les images présentées dans ce chapitre [‘Résultats’] seront autant de prétextes pour démontrer la compatibilité des plantes simulées et de la chaîne graphique du logiciel AMAP et la qualité de cette dernière. »3
C’est une démonstration qui repose ainsi sur le caractère réaliste de certaines images de plantes. Blaise s’autorise à parler là aussi d’« expérimentations » pour désigner cette validation par le réalisme du résultat final. Mais il faut prendre garde à ne plus prendre ici le mot « réalisme » seulement au sens de ressemblance ponctuelle d’images fixes avec une réalité instantanée. Sinon on aurait affaire à ce que Françon et ses élèves appellent de simples « images figuratives ». C’est en fait tout le rendu du dynamisme de la plante, sa croissance, ses collisions, ses stratégies adaptatives lors de la présence d’obstacles, son histoire, qui font l’objet d’une évaluation par le réalisme. Ce logiciel s’astreint à donner une dynamique de croissance réaliste et pas seulement des instantanés. C’est donc le moteur de croissance lui-même qui peut être ainsi évalué et non telle ou telle image de plante.

Mais ne pourrait-on pas évaluer quantitativement la simulation ? En effet, la simulation est bien toujours de nature numérique. Elle manipule des nombres. Ainsi elle découvre et utilise des paramètres pour restituer la réalité. Une solution plus satisfaisante pour valider la simulation serait donc de retrouver dans la réalité le sens botanique de tous ces paramètres qu’il a fallu introduire et quantifier, par ajustement aux données expérimentales. Blaise a conscience de cette objection et écrit :


« Précisons toutefois que les valeurs choisies pour les différents paramètres caractérisant le comportement de la plante dans ces conditions de gêne ou d’ombrage ne sont que des valeurs expérimentales, et n’ont aucune réalité botanique ou agronomique. Ces paramètres n’ont, en effet, fait l’objet d’aucune mesure sur le terrain. Il en sera de même pour toutes les expérimentations abordées dans ce chapitre [chapitre dernier : Résultats]. »1
Plus loin, il confirme :
« Que ce soit pour le traitement de la gêne ou de l’ombrage, un certain nombre de paramètres ont été introduits pour permettre de quantifier ces phénomènes. Il est pour l’instant évident que leur définition et la valeur qui leur est attribuée ne sont vérifiées par aucune loi botanique ou agronomique. »2
Autrement dit, des paramètres ont été introduits dont la signification botanique demeure problématique. À leur sujet, on peut dire qu’ils sont expérimentaux bien qu’ils n’aient « fait l’objet d’aucune mesure sur le terrain ». Qu’est-ce que cela signifie ? Comment n’est-ce pas contradictoire ? Comprenons qu’ils sont expérimentaux dans la mesure où ils proviennent des mesures statistiques de terrain. Le logiciel d’ajustement des histogrammes les a en quelque sorte « extraits » ou déduits des seuls données mesurées. Ils n’étaient donc imposés par aucune réflexion théorique a priori, excepté par les types de lois dans lesquels on voulait qu’ils interviennent. Pour autant, ils n’ont fait l’objet d’aucune mesure directe et leur valeur est calculée pour les besoins de la simulation. C’est pourquoi les paramètres de gêne et d’ombrage n’ont pas nécessairement un sens botanique. Les éléments servant à construire une simulation botaniquement réaliste n’ont donc pas nécessairement un sens botanique a priori. Rappelons que cette condition devait en revanche toujours valoir pour toute modélisation, selon l’épistémologie des modèles de Legay et de son école. Blaise avait déjà précisé cette limite de son modèle de la façon suivante : « nous n’avons à aucun moment l’intention de simuler l’influence du taux de lumière sur la production photosynthétique »3. Ce serait en effet oublier l’objectif prioritaire de ces simulations : rendre la croissance architecturale des plantes dans son réalisme. Ce serait courir le risque de produire un mauvais modèle faute d’avoir assez distingué les échelles des processus à simuler et faute d’avoir choisi des échelles de simulation réellement compatibles entre elles4.

Néanmoins, l’usage de l’incise « pour l’instant », dans la deuxième citation, paraît confirmer un point de vue propre à l’équipe de l’AMAP sur les conséquences d’une bonne simulation. Elle signale qu’il n’est pas illusoire de croire que ces paramètres, d’abord artificiellement ou fictivement introduits, pourraient prendre plus tard une place naturelle (parce que déduite d’hypothèses sur la nature des phénomènes biologiques5) dans une théorie botanique plus large. Non seulement, comme on l’a vu, une simulation réaliste aurait pour effet de clarifier et de préciser les concepts botaniques, mais elle pourrait soutenir, dans certains cas, l’invention scientifique (rôle heuristique). En l’espèce, elle pourrait inciter les théoriciens à identifier des lois ou des paramètres caractéristiques, propres à figurer dans une représentation théorique. Ainsi, perce à nouveau l’idée qu’un modèle empirique très fidèle à la réalité peut devenir une aide suggestive pour l’explication scientifique. De Reffye retrouve ainsi Legay mais par des chemins indirects.



Applications et limites

Finalement, en conformité avec l’objectif visé, cette génération de logiciel, qui sera dite AMAPpara, permet de simuler la croissance secondaire (en épaisseur) du tronc et des branches par diffusion et dépôt des assimilats. Elle permet également de tenir compte des interactions arbres/milieu1. De plus, elle a également pour qualité d’être évolutive. Cela lui vient de la structuration relativement complexe de ses données, par rapport à la version primitive. Cette complexité est un signe positif pour les chercheurs botanistes et agronomes de l’AMAP car elle est censée refléter la complexité de la plante réelle2. Avec la simulation réaliste sur ordinateur, la complexité du modèle ne signifie donc plus forcément fausseté ou inutilité. L’épistémologie minimaliste du modèle (le modèle doit être minimal, donc abstractif, pour être utile) semble bien contrecarrée par ces travaux.

Les limites de cette simulation existent toutefois. Elles tiennent d’une part aux fréquentes approximations auxquelles elle a recours. D’autre part et surtout, elles proviennent du fait qu’on n’a pas encore exactement un parallélisme pur en simulation3. Ainsi, le fait d’avoir à balayer un échéancier toujours dans le même sens risque d’introduire dans l’architecture certaines régularités qui seraient des artefacts de simulation. Il a fallu, pour contrer cette fâcheuse conséquence, introduire un aléa dans le parcours de l’échéancier. Selon Blaise, cette limite est à imputer au « manque de matériel et de logiciels adéquats »4. Il est enfin à noter que la discrétisation de l’espace en voxels donne lieu à la recherche d’un compromis entre un coût de mémoire prohibitif et la finesse du pas. Là encore, des limitations techniques sont invoquées.

Quoi qu’il en soit, Frédéric Blaise soutient sa thèse avec ce travail en 1991 et est, par la suite, recruté comme chargé de recherche à l’AMAP.



Des retombées conceptuelles en botanique

Entre-temps, de Reffye et Jaeger continuent à populariser leur premier travail et publient un article dans La Recherche : « La modélisation de la croissance des plantes »5. Pierre Dinouard, diplômé de l’ENSICA (Toulouse), est recruté en 1989 comme ingénieur de recherche à l’AMAP. Il travaille spécifiquement sur la mise au point du logiciel initial de Marc Jaeger et donc sur un perfectionnement de la première jonction avec l’image de synthèse.

Il faut aussi noter que lors de la préparation de la thèse de Blaise, de Reffye a été incité à améliorer encore les distinctions entre les concepts botaniques. De cette époque date sa proposition de réemployer un vieux concept, proposé en 1965 par son ancien professeur de l’ENSAT, P. Rivals : l’âge physiologique du méristème. Dit de façon simplifiée, les probabilités des différentes activités du méristème dépendent en effet de sa situation dans la topologie de l’arbre (de son ordre) : il a moins de vigueur si son ordre est élevé. Donc on peut considérer qu’il naît avec un certain âge, son âge physiologique1. De Reffye revient progressivement à cette idée car il dispose des réflexions d’un jeune ingénieur de recherche, docteur en statistiques, qui vient d’être recruté à l’AMAP : Eric Elguero. Derrière le fonctionnement des méristèmes, Elguero2 reconnaît tout de suite un type particulier de processus ponctuel : un processus de Poisson que l’on peut formuler comme un processus de renouvellement3. Comme le rapprochement avec ce genre de processus permet d’unifier les différents processus de Poisson sous une même formulation, la notion d’âge physiologique est donc réintroduite en 1991. Cet événement pour la botanique intervient un peu après que la notion d’« axe de référence » ait été également proposée par de Reffye et le botaniste Daniel Barthélémy à partir d’un travail de simulation architecturale de l’orme du Japon4.

Barthélémy avait entre-temps soutenu sa thèse de botanique5 à l’USTL, sous la direction de Francis Hallé, en 1988. Il avait proposé la notion de « floraison automatique » pour expliquer la sexualité de quelques plantes tropicales6. En partie inspiré par l’idée antérieure de floraison automatique, l’« axe de référence » se présente comme un construit théorique « basé sur le regroupement et le classement de toutes les étapes de différenciation d’un arbre »7. Ces étapes de différenciation sont elles-mêmes fondées sur la notion d’âge physiologique et le nouveau formalisme qui lui est rattaché. L’axe de référence traduit en fait l’évolution de cet âge le long d’un axe théorique. C’est un automate qui traduit le changement de fonctionnement des méristèmes. De par son caractère automatique, récursif et général, il peut donc servir à simplifier considérablement le moteur de croissance8 en donnant l’impression d’une grande unité (de type informatique) au-delà de la diversité des modèles architecturaux.



Yüklə 8,85 Mb.

Dostları ilə paylaş:
1   ...   47   48   49   50   51   52   53   54   ...   112




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©muhaz.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin