Université Louis Lumière Lyon 2 Faculté de Géographie, Histoire de l’Art, Tourisme



Yüklə 8,85 Mb.
səhifə53/112
tarix25.07.2018
ölçüsü8,85 Mb.
#58113
1   ...   49   50   51   52   53   54   55   56   ...   112

L’appel d’offre officiel

En 1991, après ces premiers contacts informels, l’INRA procède donc à un appel d’offre afin d’aider au « développement de recherches sur la simulation et la modélisation de l’architecture des arbres fruitiers et forestiers »2. Cet appel d’offre se fait dans le cadre d’une Action d’Intervention sur Programme (AIP) qui peut rassembler des laboratoires de l’INRA et d’autres institutions. Les chercheurs qui répondent favorablement à cette AIP dépendent, pour une part, des Départements d’Amélioration des Plantes (Arboriculture Fruitière) et des Recherches Forestières de l’INRA, pour l’autre, du Laboratoire de Modélisation de l’Architecture des Plantes du CIRAD. Cette action se prolongera jusqu’en novembre 1993, date à laquelle se tiendra, à Montpellier, un colloque de synthèse3. La collaboration de l’équipe de modélisation du CIRAD est bien sûr ouvertement et « vivement souhaitée ».

Elle est souhaitée ; pourtant elle ne rencontre pas l’unanimité parmi les chercheurs de l’INRA. Tout d’abord, ils ont parfois l’impression qu’une institution semi-privée bénéficie par là injustement d’une manne publique. Et en effet, sur le budget de l’AIP qui s’élève à 3 millions de francs de l’époque, Coléno décide d’en octroyer 2 aux équipes de l’INRA et 1 à l’AMAP. Cela revient à donner 1 million de francs au CIRAD... Mais au-delà de cette rivalité public/privé, des contestations d’ordre scientifique et épistémologique se font jour. Nous tâcherons de rendre compte de ce premier rapprochement entre l’INRA et l’AMAP en nous posant quelques questions directrices. Nous pensons en effet que cet épisode est, à plus d’un titre, révélateur des positions de chacun dans le débat sur le rôle de la simulation informatique face à la modélisation en général. Quelles sont en effet les raisons scientifiques précises pour lesquelles l’INRA et, en particulier, le département des recherches forestières, sollicitent l’aide du laboratoire d’architecture des plantes du CIRAD et ce, malgré le nombre respectable des laboratoires de son ressort qui sont déjà spécialisés en modélisation de la production végétale ? En quoi cela suscite-t-il des tensions ? Sur quels points les critiques formulées par les chercheurs de l’INRA à l’encontre de l’approche AMAP portent-elles ? Quels sont alors les arguments qu’apportent, à l’appui de ce rapprochement, les membres1 du comité de pilotage ? Quelles seront enfin les conséquences de cette collaboration ? Telles seront les orientations des réflexions qui vont suivre.

Les raisons scientifiques de la sollicitation de l’INRA2

Précisons tout d’abord que, jusqu’au début des années 1990, les modèles de l’AMAP restent tributaires de leur origine, malgré la diversité de leurs applications. Ils ont été conçus dans le souci de restituer avec finesse la variabilité de la dynamique architecturale, dans un contexte de reconnaissance du génotype. Ils ont leur source dans le souci d’une maîtrise des clones sur le terrain et d’une reconnaissance fine de prédicteurs, c’est-à-dire d’indices architecturaux capables de révéler a priori le devenir de la plante. Ces modèles rejoignaient donc principalement des préoccupations de biométrie, c’est-à-dire de mesure précise des formes vivantes, dans une perspective au départ agronomique et d’amélioration des plantes. Ils n’étaient pas conçus prioritairement pour un usage en foresterie, c’est-à-dire en gestion de production de bois.

De leur côté, les dendrométriciens, spécialistes de la production ligneuse, avaient développé à l’INRA, et ailleurs3, des modèles de plus en plus fins selon une évolution compréhensible. L’origine et l’histoire scientifiques et techniques de ces modèles sont à restituer brièvement ici de façon à ce qu’on saisisse plus précisément l’intérêt que porte le département des recherches forestières de l’INRA, au début des années 1990, aux recherches de l’AMAP.

Au 19 siècle, les dendrométriciens s’étaient d’abord contentés de modèles de production ligneuse à l’échelle de peuplements moyens et homogènes. Les tables de production utilisées au début du 20èmeème siècle étaient encore essentiellement empiriques et reposaient sur le comportement dendrométrique globale d’un peuplement. Ces modèles de peuplement concernaient des futaies régulières et monospécifiques1. Progressivement et dès la fin du 19 siècle, les sylviculteurs ont appris à pratiquer sur le terrain divers types d’éclaircies. Cette pratique s’est amplifiée au 20èmeème siècle grâce aux progrès des outils et machines en usage en foresterie. C’est elle qui a été décisive dans l’amorce d’une conception de nouveaux modèles. Il faut en effet rappeler qu’au 19ème siècle, « les éclaircies étaient souvent très faibles et par le bas » et que « le thème de l’influence de la sylviculture sur la production du peuplement et la croissance individuelle n’était donc pas central »2.

Au contraire, la seconde moitié du 20 siècle a également vu le développement de dispositifs expérimentaux de suivi précis et permanent des peuplements. De nouvelles pratiques sylvicoles se développèrent. Elles réclamaient la conception de lois quantitatives adaptées. Les dendrométriciens n’ont pas d’abord renoncé à l’approche par le peuplement mais ont introduit, à partir des années 1950, des notions de variations de densité de plantation qui ont conduit à l’introduction d’équations différentielles ou d’équations aux dérivées partielles dans des modèles de production ligneuse.

Cela n’était qu’une étape. Au cours des mêmes années 1950-1960, des données précises et considérables, émanant d’inventaires forestiers régionaux et nationaux d’Amérique du Nord, rendaient de toute façon caduque l’approche par peuplement homogène. Il fallait faire face à toutes ces données hétérogènes en essayant de leur donner un sens, d’y trouver de l’ordre. Le raisonnement à partir d’un peuplement d’arbres n’était plus suffisant. Les dendrométriciens, nord-américains principalement, ont alors opté pour les modèles d’arbre, c’est-à-dire pour des modèles considérant l’arbre dans son individualité, avant tout peuplement. C’est ainsi que l’on dut introduire des caractéristiques architecturales dans la considération du fonctionnement physiologique de l’arbreme. On ne pouvait se passer de considérer le compartiment aérien qui fait notamment intervenir la forme générale du houppier. Ainsi, progressivement, s’est imposée la nécessité de recourir à une représentation quantitative précise et prédictive de l’architecture des arbres. Au début des années 1990, nous en sommes donc là, quand Jean Bouchon et François Houllier écrivent :


« …il ressort d’abord que le niveau d’organisation privilégié par les dendrométriciens est bien celui du peuplement, mais que la réponse aux problèmes qui leur sont soumis à ce niveau passe de plus en plus par des études à des niveaux plus fins (arbre, compartiments de l’arbre, branches) : l’objet d’étude est donc rarement l’arbre seul ou le peuplement seul, mais presque toujours l’arbre au sein d’un peuplement. Il apparaît ensuite qu’ils s’intéressent depuis longtemps au développement aérien et aux relations qu’il entretient avec la production ligneuse […] La plupart des modèles modernes incluent donc des informations sur le compartiment aérien : extension du houppier, masse foliaire, dimension des branches, etc. […] Le besoin d’une meilleure description et d’une meilleure représentation existe dans plusieurs domaines : […] l’analyse de la mise en place de l’architecture est nécessaire pour comprendre, puis prédire, l’élagage naturel ou l’apparition de défauts singuliers (fourches, grosses branches) ; l’assemblage de modèles de processus (transfert radiatif, contact entre arbres, production – diffusion – consommation des assimilats) nécessite de disposer de maquettes architecturales des arbres. »1
En fait, comme Bouchon le fait remarquer, la situation française n’est pas si différente de celle des américains si l’on rappelle que 70% de la surface des forêts françaises sont occupés par des peuplements mélangés2. Dans cette AIP, les dendrométriciens français sont donc eux aussi en recherche d’un modèle intégrateur qui aurait pour fonction d’assembler les modèles déjà existants et de les faire communiquer. Contre les écophysiologistes toujours prompts à compartimenter les processus dans l’espoir très hypothétique de pouvoir un jour réintégrer ces compartiments isolés, Bouchon encourage à adopter une approche holistique3. Car ces sous-modèles pris séparément ne donnent toujours pas les résultats espérés.

On attend donc du modèle de simulation de l’AMAP qu’il remplisse une fonction assez nouvelle : en l’occurrence qu’il serve de « maquette » support pour ces modèles physiologiques, que la structuration de ses données servent de réseau de communication botaniquement « réaliste » entre les entrées et les sorties des sous-modèles physiologiques. La simulation est donc incitée à servir de modèle squelette, dans ce cas précis. Selon Bouchon, il apparaît qu’il ne faut pas penser la simulation comme un modèle semblable aux autres. Elle jouerait un rôle qui la placerait au premier rang des modèles. Attention à bien noter que cette remarque ne prétend pas valoir en général pour toute simulation.

En fait, d’où vient cette faculté que possède la simulation architecturale de supporter tous les autres modèles et de les fédérer ? Qu’est-ce qui en fait la valeur ? Selon Bouchon, la simulation n’a de valeur pour les dendrométriciens que parce qu’elle est aussi et d’abord, dans notre cas précis, un modèle de la croissance architecturale. En effet, dans la réalité, l’architecture végétale semble bien avoir pour fonction de fédérer les phénomènes physiologiques de la plante, même si elle-même n’est pas facilement réductible à ce type de phénomènes. Tel est donc le cœur de la réflexion que mènent quelques uns des responsables de l’INRA face aux résultats du CIRAD. Le rôle éminent de la simulation n’est reconnu que parce qu’elle concerne un « compartiment » éminent de la plante : son architecture. La simulation n’est pensée comme architecture des modèles végétaux que parce qu’elle est également un modèle de l’architecture végétale4.

Or, les modèles répondant à de telles exigences n’existent qu’au CIRAD et c’est ainsi que les responsables de l’AIP ont, en dernière analyse, justifié cette collaboration avec l’AMAP. Pendant un moment, cependant, le programme de « croissance, développement et production » dirigé par Jean Bouchon avait cru pouvoir bénéficier des concepts et techniques développés par le département d’amélioration des plantes et d’arboriculture fruitière de l’INRA. Mais, même si dans les deux cas, l’architecture doit être prise en compte, les protocoles de l’arboriculture visant à optimiser la production en fruit (coupes, tailles, éclaircies…) ne sont pas les mêmes que ceux qu’il faut mettre en œuvre en sylviculture où c’est la production ligneuse qui est privilégiée. De surcroît, l’arboriculture, en se raffinant, doit elle même promouvoir l’approche par simulation architecturale. D’où les deux pôles moteurs d’une véritable jonction entre l’INRA et l’AMAP : arboriculture et sylviculture.



Le rôle de l’AMAP dans les projets retenus

Les membre du comité de pilotage de l’AIP partent ainsi du principe que c’est la méthode développée par l’AMAP qui permettra précisément de « relier les aspects biologiques (botaniques), métrologiques (mesure et description des plantes), mathématiques (estimation des paramètres, théorie du renouvellement) et informatiques »1. Ils attendent ainsi de faire bénéficier la recherche en modélisation forestière de trois apports positifs qu’ils décrivent de la sorte :


«  - une discipline descriptive essentielle pour savoir de quoi on parle,

- une méthode d’observation, de mesure et d’organisation des données,

- un langage commun et parfaitement défini. »2
Autrement dit, c’est aussi une méthodologie au sens large qu’ils attendent des développements de la simulation. Ils attendent d’investir par là un terrain d’entente minimale entre disciplines de la foresterie. Il s’agit bien d’un terrain de convergence au sens fort. La simulation architecturale semble appelée à devenir un outil standard de communication entre chercheurs, au même titre que les mathématiques en physique, bien qu’elle ne soit pas de même nature. Le rôle prévalent de l’architecture est encore reconnu par Jean Bouchon et Françoise Dosba de l’INRA de Bordeaux, dans leur conclusion des actes du colloque : « L’architecture est à l’analyse de la croissance et du développement des arbres ce que la botanique est à l’écologie. »3

Cependant ce rapprochement n’est pas sans poser des problèmes. D’une part, la forme que prend cette collaboration peut sembler étonnamment directive par rapport à d’autres types d’échanges scientifiques. La désignation elle-même est révélatrice : « Action d’Intervention sur Programme ». En choisissant un tel statut pour cette collaboration, la direction de l’INRA semble plus ou moins adroitement signaler qu’il y a une certaine urgence (« intervention ») à rattraper un retard. Il est révélateur que, dans le cadre d’une deuxième AIP (ouverte de 1996 à 1998) entre l’unité CIRAD/INRA et l’unité PIAF de bioclimatologie (PIAF = Physiologie Intégrée de l’Arbre Fruitier) de Clermont-Ferrand, ce même acronyme finisse par recouvrir les mots : « Action Incitative Programmée »4 où la directivité n’est plus du tout allusive. On comprend que cela ait pu choquer certains des membres participants. D’autre part, sur le fond, l’enjeu de cette AIP paraît délicat. Comme nous l’avons vu, il est en effet admis par le comité de pilotage que les chercheurs auront à se plier aux méthodes d’approche de leurs collègues du CIRAD. Ce n’est donc pas vraiment d’une collaboration qu’il s’agit mais plutôt d’une instruction de certains chercheurs par d’autres. Les susceptibilités ne sont pas ménagées en cette occasion. Le comité de pilotage se voit donc obligé, et c’est assez rare pour qu’on le note, de défendre sa position avec un argumentaire fourni et rigoureux. Les amertumes sont telles que les éditions de l’INRA ont publié le détail de ces mises au point, au début des actes du Colloque de synthèse des 23-25 novembre 1993. Ces actes sont ainsi pourvus de deux introductions : un argumentaire en règle qui pose et résout le problème de façon diplomatique, un historique qui s’attache à montrer qu’il n’y pas d’alternative pour les dendrométriciens. Ces textes sont à l’initiative de deux chercheurs qui n’appartiennent pas au CIRAD : Jean Bouchon, qui est alors directeur de recherche à l’INRA de Nancy, membre du comité de pilotage de l’AIP et François Houllier, responsable de l’Equipe de Dynamique des Systèmes Forestiers de l’ENGREF (Nancy), associée à l’INRA. Ces deux dendrométriciens d’origine s’attachent à montrer à leurs collègues le bien-fondé d’une démarche où il semble qu’on leur force la main.

Il faut noter que c’est à cette occasion que les scientifiques qui sont responsables de la politique de recherche se sentent obligés de recourir à l’histoire de leur domaine. Pourquoi l’histoire des sciences fait-elle irruption dans le travail scientifique lui-même ? Il apparaît bien, selon Bouchon et Houllier, que l’écriture de l’histoire des sciences par les scientifiques eux-mêmes aurait une vertu scientifique : celle de relativiser la valeur des modèles du moment, modèles auxquels on risque toujours trop de s’attacher pour des raisons autres que purement scientifiques1. Elle aurait aussi la vertu de donner des perspectives plus amples, des vues d’ensemble plus objectives sur l’accroissement des connaissances du domaine considéré. Elle aurait enfin la vertu de démontrer, au vu du chemin quasiment logique déjà parcouru, que l’étape supplémentaire proposée constituerait l’avancée la plus « rationnelle ». C’est essentiellement le cas ici. Il nous faut donc bien rester prudent sur la valeur de cette écriture de l’histoire des sciences : elle reste orientée vers un objectif précis, dans le cadre d’une rationalisation a posteriori.

Les hésitations de l’INRA : les arguments en présence

Jean Bouchon ne cache pas que la Direction des Recherches Forestières de l’INRA a elle-même longtemps hésité à collaborer avec l’AMAP. De leur côté, en effet, les dendrométriciens faisaient valoir une autre conception du modèle que celle de l’AMAP. Le débat était d’autant plus amer qu’il portait sur la nature même de l’activité scientifique dans le domaine du végétal : qu’est-ce que modéliser le végétal ?

Pour beaucoup des chercheurs de l’INRA, il n’était pas indispensable « d’utiliser des moyens aussi complexes pour résoudre les problèmes qui se posaient »2. Il suffisait selon eux de poursuivre la modélisation locale sans chercher à ajouter la complexité d’un point de vue global là où justement il s’agit de clarifier les phénomènes. On retrouve là encore une opinion proche de celle que partage Legay et que partageaient avec lui la plupart des biométriciens dans les années 1970 : le modèle est un outil de découverte et de compréhension. Il est finalisé par nature et son usage ne peut être universel. Il ne peut rendre compte que d’un ou deux aspects de la réalité en même temps, pas plus. Il est fondé sur l’interaction entre divers éléments qui ont, pris individuellement, un sens biologique bien défini. Bouchon stigmatise cette position en la rattachant à ce qu’il appelle « l’école française de modélisation »3. Il oppose ainsi les « modèles optimaux » aux « modèles maximaux ». Les modèles optimaux sont minimaux dans la mesure où l’on n’y retient que le strict nécessaire pour rendre compte d’une évolution particulière de la plante. Ce sont les seuls valides pour l’école française de la modélisation. Alors que les tenants des « modèles maximaux » sont supposés faire valoir l’adage selon lequel « qui peut le plus peut le moins ». Selon ces derniers, on pourra résoudre des problèmes régionaux par « réductions ou dégradations successives » du modèle maximal. Or la simulation est l’exemple type du « modèle maximal ». Le malentendu repose donc ici sur la question de savoir ce que doit embrasser un modèle pour être valide. Quel objet doit-être modélisé ? L’architecture est-elle un bon objet de modélisation ? Quel point de vue le modélisateur doit-il adopter : réductionniste ou holiste ? Son présupposé doit-il être que les parties expliquent le tout ou qu’il y a plus dans le tout que dans la somme des parties ?

Ce vieux débat, récurrent dans les phases de transition, pose entre autres la question de savoir si l’on doit accepter une certaine opacité, des zones d’obscurité dans les modèles ou pas, et si l’on peut mettre en équation des relations que l’on ne comprend pas c’est-à-dire que l’imagination ne peut se représenter. Peut-on au fond modéliser une relation dont on ne pourrait faire le schéma avec du papier et un crayon ? Le modèle doit-il toujours se ramener à une visualisation schématique1 des processus en jeu ? Ou doit-on se résoudre à ce qu’un modèle du vivant puisse n’être qu’un ensemble d’expressions mathématiques renvoyant éventuellement à des fictions et non à des entités ayant un sens biologique ? Pour les membres du comité de pilotage, il ne faut pas craindre le caractère désormais très formel des modèles de simulation. Il ne faut pas opposer stérilement ces différents types de modèles les uns aux autres, mais les faire se rencontrer, les faire converger sur un terrain formel commun. Cependant peut-on faire se rencontrer des modèles qui n’ont pas le même statut intellectuel ? De plus, il ne s’agirait pas vraiment d’une rencontre puisqu’en fait la simulation aura une position de surplomb dès le départ, étant donné sa différence de nature. C’est ce que certains dendrométriciens de l’INRA craignent lorsqu’ils se demandent ce qu’est réellement capable d’expliquer la simulation pour qu’on la laisse tenir une telle position de surplomb dans le petit monde des modèles. Selon eux, si un modèle tient une position privilégiée par rapport aux autres, c’est nécessairement parce qu’il explique mieux que les autres. Est-ce la cas de la simulation ?

La deuxième critique essentielle, liée à la première, a donc porté sur le caractère uniquement descriptif et non fonctionnel du modèle de l’AMAP. Si par exemple on demande pourquoi les arbres fourchent, ce modèle ne nous fournirait aucune explication, même s’il peut simuler un arbre qui fourche. Bouchon répond que lorsqu’on saura pourquoi ils fourchent, on pourra intégrer sans mal cette connaissance des mécanismes fins dans l’ossature du programme de l’AMAP. La réponse consiste donc à faire comprendre aux chercheurs cette propriété qu’aurait la simulation architecturale de supporter tout sous-modèle fonctionnel qui se présenterait. Tout en étant un intégrateur de modèles, la simulation architecturale n’impose pas une explication unifiant et simplifiant la diversité des phénomènes : elle n’est pas à strictement parler un méta-modèle. Elle colporte très peu d’hypothèses physiologiques puisqu’elle repose sur des bases descriptives systématisées à un tout autre niveau que celui de la cellule ou de la physiologie. Cette objection et la réponse qu’elle reçoit montrent la difficulté que les chercheurs ont eue pour admettre la nouvelle fonction de la simulation dans le champ de la modélisation. La simulation est certes un modèle mais ce dernier est conçu d’abord hors de toute visée explicative. Bouchon tente de leur expliquer que si la simulation était un modèle au sens où ils l’entendent, ils auraient raison de se croire doublés par leurs collègues du CIRAD. Or tel n’est pas le cas : ce n’est donc pas leurs modèles qui sont en cause, mais plus profondément, la définition qu’ils donnent de la notion de modèle. Le « modèle » de l’AMAP fait partie des « modèles descriptifs compliqués » ; ils s’opposent aux « modèles fonctionnels [ou explicatifs] simples »1. Telle est la source du malentendu.

Une troisième critique transparaît dans les communications entre chercheurs pendant les trois années de cette AIP. Les modélisateurs de l’INRA se demandent quel usage on pourra faire d’une simulation incapable de « prédire l’avenir d’un arbre qui aura subi une taille de formation, ou l’avenir d’un peuplement qui aura été éclairci »2. Ce problème vient de l’approche stochastique : le réalisme de cette approche, au sens botanique, se paie par la nature seulement probabiliste de ses prédictions. L’avenir d’un individu ne peut être prédit avec certitude. Fondée sur des mesures statistiques, la simulation ne peut proposer que des descriptions de comportements probables. Les dendrométriciens de l’INRA veulent bien admettre un certain flou dans la connaissance des phénomènes physiologiques. Mais c’est afin qu’une prédiction soit possible. Si l’on ne peut pas expliquer, que l’on puisse au moins prédire ! Le modèle de l’AMAP semble ne permettre ni l’un ni l’autre.

Cette critique est forte. Elle oblige Jean Bouchon à revenir au statut essentiellement empirique de la simulation. En fait, répond-il, la simulation sert à « économiser de l’expérimentation de terrain »3. Il faut comprendre par là qu’elle permet de disposer, pour la première fois en foresterie, d’organismes modèles. Ses organismes simulés peuvent jouer le même rôle que les organismes modèles du type de la bactérie E. Coli en biologie moléculaire, ou de la drosophile en génétique. En effet, leur vitesse de croissance peut être décuplée et des « expérimentations » sont donc envisageables. La simulation permet de s’affranchir des contraintes techniques inhérentes à la mise en forme des êtres vivants complexes dans la réalité : la longue durée, le passage du temps4.

Pour Bouchon, la simulation est un modèle en un sens nouveau. Elle l’est au sens où elle semble prendre place parmi les individus représentatifs d’une espèce vivante qui ont été choisis parce qu’ils sont plus faciles à étudier que les autres. Ces organismes sont habituellement appelés « modèles » parce qu’ils sont supposés être sujets aux mêmes phénomènes de croissance que les autres et qu’ils ont, en plus, la qualité de rendre ces phénomènes plus « lisibles », plus accessibles à l’observation et à la mesure. La simulation, dans cet usage scientifique précis remplace un « organisme modèle » réel. C’est pourquoi elle est plus encore qu’une « maquette architecturale »5 où l’on ferait simplement communiquer des modèles explicatifs régionaux. Elle devient une doublure de la réalité, un objet d’étude en lui-même, un objet de curiosité déplacé dans l’ordinateur, un transfert des phénomènes du vivant encore inconnus dans la machine. C’est en quoi elle peut donner lieu à des « expérimentations » au même titre que la plante réelle. Elle tend à se confondre1 avec le domaine d’investigation lui-même. La simulation n’est pas seulement un terrain formel partageable et où l’on parle un langage commun2. C’est un nouveau terrain pour de nouvelles expérimentations.

Mais, même si on les sent présentes, ces idées ne sont pas exposées dans toutes leurs implications par Bouchon. Au contraire, il concède sur la fin que c’est la comparaison avec les résultats de terrain qui permettra, en dernière analyse, de « tester la qualité des prédictions », autrement dit de valider la simulation. Comme un modèle, la simulation se valide donc. La simulation complexe qui réplique le réel n’a pas pour objet de le représenter de manière compréhensible ni directement opérationnelle, mais elle nécessite quand même aussi une calibration préalable pour être substituée à lui et servir ensuite seulement à une enquête, qu’elle soit de compréhension ou d’utilisation/prédiction. Cela semble manifester un net retour en arrière : à la lire rapidement, cette concession semble redonner à la simulation le caractère exclusif de modèle explicatif à tester, caractère éminemment discutable comme on l’a vu. Cet apparent repli sur des positions antérieures ou plutôt sur ce qu’il y a de commun entre simulation informatique et modèle mathématique permet en tout cas à l’auteur de se faire entendre des chercheurs de l’INRA et de ne pas les effrayer en s’étendant sur les expériences par ordinateur, véritable hérésie pour beaucoup d’entre eux. Il s’agit de les rassurer en reconnaissant que cette nouvelle forme de modélisation sera elle aussi, à terme, l’objet de tests sur le terrain, au sens de véritables comparaisons avec la réalité végétale, sans entrer dans une véritable discussion sur la nature ni sur le sens épistémique de ce test3.

Cela n’empêche pas Bouchon de conclure très fermement : « il semble que nombre de problèmes anciens ou nouveaux qui se posent en recherches forestières ne puissent plus être résolus que par une approche architecturale. »4 Cette tension entre des points de vue divergents va d’ailleurs jusqu’à transparaître dans les articles techniques eux-mêmes. Dans quelle mesure les chercheurs de l’INRA ont-ils, sur le terrain, appliqué ces nouvelles directives, lors de l’AIP ? Ont-ils tous été conciliants ? Quel est, au fond, ce qui les sépare des recherches de l’AMAP ?



Des traces de réticences dans les actes du Colloque de synthèse

Il est important de noter que les actes de ce colloque ont été publiés en deux volumes séparés. D’un côté, dans [Bouchon, J., 1997], on trouve une présentation systématique de la méthode éprouvée de l’AMAP avec ses résultats, écrite exclusivement par le CIRAD. De l’autre, dans [Bouchon, J., 1995], on trouve les articles produits essentiellement par les chercheurs des laboratoires de l’INRA. C’est un indice qui tend à nous montrer que le rapprochement escompté n’a pas véritablement eu lieu. Cette impression se confirme si nous concentrons notre attention sur le contenu du second volume. Au vu des articles techniques présents, on peut y déceler trois catégories.

La première catégorie est celle des articles résultant de la collaboration effective de chercheurs du CIRAD et de l’INRA : ils sont au nombre de six sur un total de vingt-deux. Tous ces articles renvoient de façon plus ou moins naturelle à la méthode d’AMAP, soit en appliquant au niveau conceptuel l’analyse architecturale mise au point au CIRAD à l’étude d’une espèce particulière, soit en appliquant la simulation elle-même à l’espèce considérée. Il comporte en général une phrase de remerciement à l’égard d’un ou de plusieurs des membres de l’AMAP pour leur soutien dans la mise en œuvre de la méthode1. Ces articles sont donc essentiellement les résultats soit d’un accueil physique de chercheurs de l’INRA au laboratoire du CIRAD, soit d’une mission de conseil effectuée par un des chercheurs du CIRAD dépêché sur place.

Dans la deuxième catégorie d’articles, se manifeste le fait que les chercheurs se sont assez peu souciés de l’approche AMAP. Ils ont appliqué leur méthodologie habituelle sans essayer de se plier aux directives du comité de pilotage de l’AIP. Ainsi, les chercheurs de l’INRA d’Avignon n’ont eu recours qu’aux analyses architecturales de Champagnat. Ils ont utilisé ainsi les distinctions conceptuelles que cet auteur mettait en œuvre entre 1947 et 1965 alors même que les interventions de l’AMAP au cours du colloque rappellent que ces distinctions étaient des ébauches et qu’il faut les rénover en s’appuyant sur les travaux, qu’ils jugent fondamentaux, de Hallé, et sur les leurs. Un chapitre conséquent des actes du colloque2, écrit par deux chercheurs du CIRAD, revient en détail sur l’histoire des termes techniques concernant la mise en place de l’architecture végétale et tâche de montrer qu’il faut se diriger vers un accord sur la terminologie. Certains chercheurs de l’INRA en resteraient-ils donc à une vision « dépassée » de l’architecture végétale ?

Un indice peut nous mettre sur la voie. En effet, la troisième catégorie d’articles semble précisément s’engouffrer dans cette brèche. Elle se sert délibérément de la confusion des termes. C’est celle qui rassemble les chercheurs les plus réfractaires aux idées de leurs collègues du comité de pilotage. À mots plus ou moins couverts, ils n’admettent pas la méthode de l’AMAP. Et l’on perçoit qu’ils font reposer leur refus sur des divergences dans la signification des termes techniques. Des termes aussi généraux que celui d’« architecture » prennent chez eux un tout autre sens. Ce dernier mot ne renvoie pas pour eux aux recherches fondamentales de Hallé et Oldeman. Dans un article écrit par deux chercheurs de l’INRA d’Avignon et de l’ENITEF (Ecole Nationale des Ingénieurs et Techniciens des Eaux et Forêts), on lit par exemple : « l’architecture étudiée est non seulement celle du houppier, mais aussi celle de la structure interne de la tige (empilement des cernes, épaisseur de l’écorce, largeur du duramen…). »3 Ils mêlent ce que l’école de Hallé avait classé et distingué. C’est là renoncer à penser les plantes dans les mêmes termes que les architectes du végétal. On comprend alors qu’ils ne voient pas l’intérêt d’une modélisation de la partie aérienne de l’arbre. Ils s’expriment et pensent en termes de « gestion », de « facteurs de production du bois », d’« optimisation »: ils ont donc clairement une perspective sylvicole sur la question. Ils apparentent une plantation d’arbres à une usine plus qu’à un ensemble d’entités formelles générant des formes par algorithmes, comme c’est le cas pour l’AMAP. Cette vieille métaphore sous-jacente de l’usine productrice d’énergie, ou de matière première (le bois), ne peut pas être en accord avec la perspective de la simulation architecturale, où la métaphore est algorithmique. Il est ainsi révélateur qu’ils ne se servent des données du CIRAD qu’au titre de « mesures » visant à compléter les leurs. L’architecture du houppier n’est plus qu’un compartiment parmi d’autres de la plante :
« Il était intéressant, dans le cadre de cette AIP, de profiter des mesures de description fine de la branchaison réalisées par le CIRAD pour les mettre en relation avec les accroissements radiaux. » 1

C’est la seule occasion pour eux d’évoquer le travail du CIRAD et de s’y associer en un sens qui n’a plus rien de commun avec la politique scientifique de l’AIP. Leur désaccord sur le fond s’exprime dans la conclusion de leur article :


« La description détaillée de la ramification n’est pas une fin en soi mais bien un moyen d’obtenir une architecture en trois dimensions, support nécessaire pour l’application de connaissances physiologiques sur le fonctionnement du houppier. »2
C’est le fonctionnement du houppier seul qui est censé ici être l’objectif de la simulation architecturale. Autrement dit, selon eux, les recherches en architecture n’ont pas plus d’intérêt que les autres approches. Les seuls modèles qui valent sont ceux qui expliquent d’emblée la physiologie des phénomènes. Si l’architecture a un rôle qu’on peut lui concéder, c’est effectivement de servir de « support » pour les véritables modèles. Mais ces modèles ne concerneront alors que le houppier et pas l’arbre dans sa totalité. Suit, dans le texte, une réhabilitation en règle de l’approche physiologique globale et donc une critique des modèles physiologiques locaux. Si ces derniers sont locaux, c’est parce qu’on l’a bien voulu. Il ne tiendrait qu’à nous d’infléchir cette fâcheuse tendance. On s’est ainsi éloigné du « résultat et des conséquences de cette croissance »3. Et la conclusion est :
« Pour que cette démarche soit pertinente, il est essentiel que se développe parallèlement aux mesures descriptives et aux modèles empiriques, l’acquisition des connaissances qui touchent aux véritables fonctions écophysiologiques de l’arbre. Les hypothèses sont fortes et le besoin de validation de ces modèles est bien sûr d’autant plus important. » 4
Ce mot d’ordre semble bien à l’exact opposé des directives de l’AIP comme des conceptions de la direction de l’INRA. En analysant les opinions et les manières de procéder, nous avons compris que l’approche de l’AMAP ne fait pas l’unanimité parmi les chercheurs. Les divergences de vue tiennent pour l’essentiel à la nature même du modèle mais aussi à la façon de percevoir, décrire et classer les formes du vivant : en gros, on adopte l’approche par l’architecture si on se réclame des travaux de Hallé et Oldeman. Mais, si on décide qu’il n’y a là qu’une approche descriptive et donc relativement stérile car ne permettant pas de comprendre, on en reste à la recherche prioritaire de modèles physiologiques.

Le bilan de l’AIP se trouve donc au final assez mitigé : les chercheurs du CIRAD (de Reffye, Costes et Barthélémy) ont énormément travaillé pendant deux ans pour disposer de données traitables en vue de problématiques propres à l’INRA. Mais les chercheurs de l’INRA, quant à eux, n’ont pas toujours joué le jeu. La seconde décision forte de Coléno intervient alors à ce moment-là : pour éviter que les chercheurs de l’INRA continuent à négliger massivement la simulation architecturale et ne finissent par réinventer plus tard ce qui existe d’ores et déjà au CIRAD, il lui paraît nécessaire de pérenniser le lien AMAP/INRA en le rendant organique. Une solution aurait été de recruter directement Philippe de Reffye. Mais Coléno s’y refuse : l’INRA n’avait pas su voir, à ses débuts, le potentiel qu’il recelait ; il aurait été injuste de le dérober sur le tard au CIRAD au moment où les résultats arrivaient. La solution d’un rapprochement institutionnel est donc choisie.



Le rapprochement institutionnel INRA/CIRAD autour d’AMAP (1993-1995)


À terme donc, la politique du comité de pilotage favorisant les recherches en architecture a en quelque sorte gain de cause. Cette AIP est décisive puisque c’est bien elle qui préfigure le rapprochement institutionnel entre le laboratoire de modélisation des plantes du CIRAD et l’INRA. Cela conduit en retour l’AMAP à réorganiser et réorienter ses recherches. Le rôle de François Houllier devient ici central. C’est lui qui va concrétiser tant les liens scientifiques entre la simulation architecturale et les problématiques de modélisation forestières que les liens institutionnels entre l’AMAP et l’INRA. Mais quel a d’abord été son parcours ? Comment en est-il venu à croiser le chemin de l’AMAP ?

En 1986, sous la direction d’Alain Pavé1, professeur à Lyon 1 et ancien élève de Legay, François Houllier avait soutenu sa thèse sur « la modélisation de la dynamique des peuplements forestiers ». Dans une approche d’abord essentiellement biométrique, Houllier avait tâché d’établir des liens entre les modèles de croissance des arbres et les modèles de peuplement par échantillonnages2. Sur les conseils de Jean-Pierre Troy, alors directeur scientifique de l’ENGREF, il avait rencontré ponctuellement Philippe de Reffye et Evelyne Costes lors d’un passage dans le nouveau centre de l’ENGREF tout récemment implanté à Montpellier. Il se trouve en effet que le laboratoire de modélisation des plantes était à l’époque logé dans des murs qui avaient été acquis par l’ENGREF, avant qu’il soit réintégré un peu plus tard dans des locaux du CIRAD. Comme Francis Hallé, Jean-Pierre Troy était spécialiste des forêts tropicales. Il connaissait donc Hallé personnellement et il l’avait invité à faire des enseignements au centre ENGREF de Montpellier où se trouve une formation spécifiquement tropicaliste. Hallé professait alors à l’Université de Montpellier 2.

Troy a donc connaissance du travail de de Reffye par ce biais. Il conseille à Houllier d’aller voir comment on modélise les plantes chez ces élèves de Hallé. Or, même si Houllier est impressionné par les images de l’équipe de de Reffye, il ne citera qu’incidemment ce travail dans sa thèse de 1986 : l’approche des gens du CIRAD lui paraît assez opaque de par la certaine technicité botanique qu’elle exige. En tout cas, le premier contact lui paraît peu décisif pour sa problématique de thèse.

Par la suite, ayant appliqué son propre travail aux données de l’Inventaire Forestier National (IFN) sur le site de Montpellier, il y reste pendant deux ans comme ingénieur de recherche. En 1988, Jean-Pierre Troy étant devenu entre-temps président de l’ENGREF, Houllier y devient professeur. De fait, ce dernier souhaite à l’époque réintégrer la recherche plus conceptuelle et il est, pour cela, également rattaché au Centre de Recherche Forestières de l’INRA de Nancy. En tant qu’enseignant-chercheur, il est intégré dans la nouvelle équipe « Dynamique de Systèmes Forestiers », auprès de Jean Bouchon.

C’est en fait dans ce contexte qu’Houllier est véritablement sensibilisé à l’importance des modèles morphologiques fins, notamment pour la prédiction et le contrôle de la qualité du bois. Dans un premier temps, il travaille en effet aux côtés du chargé de recherche Jean-Michel Leban. Dans le cadre de l’Equipe de Recherche sur la Qualité des Bois, Leban avait conçu un logiciel - SIMQUA - capable de simuler la qualité du bois scié à partir de descriptions morphologiques des grumes1. Ce logiciel permettait déjà de visualiser des planches virtuelles en fonction de la répartition des contraintes mécaniques internes. Entre 1988 et 1990, avec lui et le doctorant Francis Colin2, Houllier va étendre cette perspective. Il va également concevoir un petit logiciel pour la modélisation de la Croissance de l’Epicéa (baptisé CEP). En 1988, sous l’impulsion de Rémi Pochat, le directeur de la recherche de l’ENGREF qui avait entre-temps remplacé Troy, Houllier participe à une deuxième réunion avec les chercheurs de l’AMAP : De Reffye, Jaeger et Blaise. Ce deuxième contact se passe mieux. Houllier est notamment frappé qu’un botaniste spécialiste de l’hévéa reconnaisse un clone rien que par sa représentation visuelle sur l’écran3 : cela semble confirmer l’idée de de Reffye selon laquelle il n’y a pas de meilleure validation que celle de l’œil de l’expert.

Toujours est-il que la technique adoptée et développée par l’AMAP reste encore grandement opaque même à ses proches voisins, dont Houllier. La raison tient en partie au fait que les publications de de Reffye sont encore très confidentielles : les articles fondateurs de Café, Cacao, Thé publiés de 1981 à 1984 sont difficilement accessibles. Ils ne figurent pas toujours dans les bibliothèques de recherches forestières. Et de Reffye, lui-même, n’est pas toujours prêt à les communiquer rapidement. De fait, il faut attendre sa publication dans La Recherche de 1989 pour que les principes de la simulation architecturale soient diffusés dans les grandes lignes et mieux compris par les chercheurs de l’INRA eux-mêmes.

En 1991, en pleine AIP, Houllier, Bouchon et Birot publient néanmoins un article fondateur dans la Revue Forestière Française : « Modélisation de la dynamique des peuplements forestiers : état et perspective »4. Tout en présentant succinctement les avantages et les limites des modèles à différentes échelles, ils font discrètement valoir l’idée que l’avenir de la modélisation forestière passe par les modèles d’arbres où davantage de connaissances biologiques et botaniques devront être intégrées5. Ils présentent l’avènement des modèles architecturaux comme annonciateur d’un « saut qualitatif »6. Et ils espèrent que cette approche sera bientôt à même de prendre en compte la concurrence entre arbres voisins comme tend à le faire déjà la thèse de Blaise. Par la suite, cet article sera le point de départ de nombreux travaux de doctorants.

Lors de l’AIP, l’équipe de François Houllier est bien sûr retenue par l’appel d’offre. Jean Bouchon y veille de toute façon. Pendant deux ans, Houllier collabore donc étroitement avec de Reffye, Frédéric Blaise et Thierry Fourcaud1. À cause de la distance, leurs relations sont surtout épistolaires, de Reffye préférant ce mode de correspondance au courrier électronique. Pour Houllier, sur le fond, il s’agit d’intégrer quelques unes des idées de SimCop (Ottorini) et de CEP (Leban – Houllier) dans AMAPpara. Sur cette plate-forme d’AMAP, dont on se souvient qu’elle calcule maintenant les méristèmes en parallèle, les trois chercheurs intègrent la prise en compte de l’allocation de matière dans le tronc à chaque étape de croissance, cela en utilisant certaines lois simplifiées, comme la loi de Pressler2. Il s’agit donc d’établir pour la première fois des relations fines et calculables entre l’architecture précise du houppier en concurrence, et la structure de la tige, c’est-à-dire la distribution des cernes dans le tronc3. En fait, les auteurs sont obligés de se livrer à de nombreuses simplifications pour évaluer de manière calculable la surface foliaire et, par suite, l’allocation de la matière4. Et le résultat est mitigé : malgré la prise en compte de l’architecture, certaines hypothèses de simplification sont encore trop lourdes. Il s’avère notamment qu’il aurait fallu prendre en compte le système racinaire dans le modèle d’allocation de matière5.

En juillet 1994, Houllier quitte son poste d’enseignant-chercheur à l’INRA et à l’ENGREF et, sur une instigation de Jean-Pierre Pascal6, il part diriger l’Institut Français de Pondichéry. Il continue donc, à distance, sa collaboration avec de Reffye. Il travaille à relier l’architecture à la croissance du tronc, c’est-à-dire la structure de la plante avec son fonctionnement. Assez paradoxalement, c’est en Inde que Houllier poursuit plus que jamais ses recherches conceptuelles en modélisation. La remarquable organisation administrative de l’Institut et le relatif isolement dont il jouit l’y autorisent en fait. Ayant passé une thèse d’habilitation en 1992, c’est même d’Inde qu’il dirigera un certain nombre de ses premiers doctorants.

Entre-temps, fin 1993, toujours sous l’impulsion de Coléno, Daniel Barthélémy et Evelyne Costes sont recrutés comme chercheur à l’INRA. Mais ils restent tous les deux en poste à AMAP. Dans la foulée de l’AIP initiée par Coléno, AMAP poursuit seul sa convergence vers des questions d’allocation de matière dans la structure. À partir de 1994, le laboratoire infléchit donc nettement son travail vers le fonctionnement des plantes7.

Formalisation conceptuelle et institutionnelle : le laboratoire associé CIRAD/INRA (1995)

En parallèle, suite à la thèse de Blaise et face aux effets en retour de la simulation sur les concepts botaniques, un besoin de clarification et de systématisation conceptuelle se fait sentir. De Reffye constate qu’à chaque fois que l’on change de plantes, il est en fait nécessaire de se livrer à des modifications ad hoc pour faire correspondre le modèle informatique intégré et ses processus stochastiques au nouvel objet d’étude. Le modèle informatique manque donc de généralité. De plus, l’AMAP souffre d’une absence de compatibilité interne entre ses propres logiciels. Afin de régler ces problèmes, le CIRAD recrute deux mathématiciens-informaticiens au titre d’ingénieurs chercheurs : Yann Guédon et Christophe Godin. Ils sont tous les deux jeunes diplômés et docteur de l’Université de Technologie de Compiègne (UTC)1. Ils développent d’abord le logiciel AMAPmod (mod pour modélisation) et le langage AML (pour AMAP Modeling Language). AMAPmod sert à estimer systématiquement les paramètres des processus stochastiques qui interviendront dans une simulation gérée par le logiciel de Jaeger, baptisé entre-temps AMAPsim (pour simulation) depuis qu’il a été réécrit par l’ingénieur-chercheur Jean-François Barczi2 en intégrant les notions d’âge physiologique et de processus markoviens. AMAPmod utilise le langage de description standardisé AML, lui-même construit sur la base du concept d’automate ou d’« axe de référence » préalablement développé. Dans ce nouveau cadre formel, la plante simulée est en effet conçue comme un « graphe multi-niveaux »3 généré par un processus stochastique. Ce processus peut être lui-même formellement remplacé par un « modèle dynamique probabiliste »4 de type automate à transition d’états de Markov. Moyennant cette réécriture formelle, la théorie du renouvellement est très précieuse car elle permet ensuite le règlement du problème mathématique inverse qui consiste à remonter aux paramètres des processus une fois que l’on connaît leurs distributions empiriques sur le terrain5. Dans ce travail, AMAP établit un « pont » solide entre les simulations de plantes et les observations empiriques. Il devient possible d’ajuster et de valider clairement le modèle1. AMAPmod aura par la suite un rôle majeur dans les convergences d’AMAP avec les modélisations venant d’autres origines. Nous y reviendrons bientôt.

Devant le bilan de l’AIP et face à cette accélération comme à cette dynamique de cristallisation interne à AMAP dans ces années-là, le constat devient évident pour Coléno : il est plus raisonnable de continuer à inciter les « architectes du végétal »2 à se rapprocher de leurs collègues physiologistes que d’imposer le mouvement inverse. Face à l’enthousiasme mitigé des modélisateurs de l’INRA, il revient à l’AMAP seul de faire entrer des considérations physiologiques dans ses simulations. Ce constat et la décision qui s’en est suivie se sont donc concrétisés dans le rapprochement institutionnel entre le CIRAD et l’INRA au sein même de l’AMAP : suite à une nouvelle décision forte de Coléno, c’est donc le 1 janvier 1995 que l’AMAP devient un « Laboratoire associé INRA/CIRAD – Programme modélisation des plantes » même si les chercheurs du CIRAD préfèrent encore l’appeler « Unité de modélisation des plantes – AMAP ». D’un point de vue administratif, le rapprochement n’est pas commode : au niveau des concours, il n’y a pas vraiment de vision commune entre le CIRAD et l’INRA et les chercheurs du CIRAD sont obligés de repasser des concours INRA pour être recrutés. C’est une décision politique qui ne fait donc pas consensus à tous les niveaux.

Au 1erer janvier 1995, de Reffye reste cependant toujours directeur de l’Unité et rattaché au CIRAD. Il est également Directeur de Recherches du département GERDAT. L’Unité comprend en tout 28 membres permanents3 : 14,5 en modélisation des végétaux (6 botanistes, 1 physiologiste, 2 agronomes, 1 agroforestier et 4,5 informaticiens-mathématiciens). C’est dans cette équipe que se trouvent trois chercheurs de l’INRA. L’infographie regroupe pour sa part 5,5 personnes. Cette partie valorisation a entre-temps nécessité la création du poste de Directeur Administratif de l’Unité. Il est occupé par Alain Chauchard. En effet, certains chercheurs ne savaient plus s’ils devaient faire de la recherche ou du développement industriel. Ce poste permit de clarifier les attributions. De plus, les adaptations des premiers logiciels AMAP au support IBM ou HP telles qu’elles ont été lancées dès la fin des années 1980 n’ont jamais bien marché. Les programmes de calcul d’images classiques étaient très vite saturés et, sauf dans le cas des produits à destination des stations Silicon Graphics, il n’était donc pas possible de livrer une version d’AMAP où un véritable calcul d’image en temps réel s’effectuait. Seuls des logiciels de visualisation d’images précalculées étaient vendus pour les PC4. Des contrats ont été cependant signés avec Thomson Digital Image, Alias, Wawefront et Softimage.

Face au déclin des ventes en 1995 au regard des premiers résultats assez florissants du début des années 19905, la bipartition de l’unité est finalement préconisée par les rapporteurs de la première revue externe de 19966. Ils se fondent pour cela sur le modèle de l’USDA (United States Depatement of Agriculture) qui conseille de séparer nettement la modélisation et l’industrialisation des logiciels1.

La valorisation a donc progressivement été conçue autrement. Dans le cadre de l’équipe infographie de l’AMAP, et dans un but de commercialisation, René Lecoustre a d’abord longtemps travaillé à étendre la bibliothèque des plantes virtuelles. Pierre Dinouard, un temps responsable d’un sous-groupe d’AMAP intitulé « Unité d’Industrialisation des Logiciels (UNIL) », avait auparavant travaillé à régler des problèmes de portabilité sur Windows, notamment. Mais, en 1995, de Reffye charge la société JMG Graphics (qui changera de nom en 2001 pour devenir Bionatics) de distribuer les logiciels AMAP. Dinouard y sera par la suite détaché. Cette société est fondée autour de deux diplômés d’une école de commerce (Institut Supérieur de Gestion), Mathias Monribot et Stéphane Gourgout, que Chauchard avaient d’abord envoyés faire une étude de marché aux Etats-Unis. Après la Revue externe de 1996 et ses préconisations, les attributions de l’UNIL tombent donc progressivement et naturellement dans les mains de JMG Graphics2. Le CIRAD ni l’INRA ne se sentent finalement capables de vendre du logiciel.

En cette même année 1996, l’équipe « analyse d’image et télédétection », animée par Marc Jaeger, est composée de 2,5 personnes. La gestion et l’administration occupe enfin 5,5 personnes. À côté des permanents, AMAP dispose de 4 collaborateurs dont Claude Puech, qui succède à Jean Françon comme conseiller en image de synthèse. AMAP se développe donc surtout par opportunisme, en multipliant ses liens et ses collaborations. Et cela se produit désormais souvent à l’occasion de demandes externes.

L’épistémologie du « modèle général » à valeur empirique

Par ailleurs, dans ces années de consolidation (1995-1996), il se trouve que Philippe de Reffye produit quelques réflexions disséminées sur la nature nouvelle des modèles qu’il propose à l’agronomie. Il est intéressant d’en ressaisir l’esprit, car il paraît caractéristique d’un changement épistémologique majeur occasionné par l’émergence de la simulation informatique, en particulier aux yeux du praticien qu’il est. Tout d’abord, de Reffye voit un grand avantage dans la possibilité qu’ont ses modèles de simulation d’être calibrés sur des données de terrain, cela à la différence de ceux, trop théoriques, de l’école de Lindenmayer, par exemple. Leur caractère opérationnel, même s’il lui reste encore à faire ses preuves sur des problématiques précises d’amélioration de conduite culturale, paraît donc bien engagé.



Mais il est une autre revendication, plus fondamentale encore, et qui pointe inlassablement dans le Document Préparatoire à la Revue Externe de 1996 : c’est celle du droit à produire désormais des « modèles généraux ». Comme Bouchon le précisera plus tard, lors de l’AIP, de Reffye en appelle à la légitimité cette fois-ci bien établie, selon lui, de ce genre de modèles, à l’opposé des préconisations de l’école de la modélisation française qui avait toujours favorisé et autorisé les modèles pragmatiques spéciaux et régionaux. Dans ce document, après l’énumération des quatre types de modèles désormais implémentables dans l’infrastructure de simulation architecturale AMAP (modèle statistique, modèle de production végétale, modèle de compétition, modèle morphologique) de Reffye écrit en effet :
« En définitive, tous ces modèles se complètent les uns les autres et, de toute évidence, un modèle général qui engloberait à la fois les problèmes de morphologie et d’interaction avec le milieu aurait une polyvalence remarquable dans ses applications agronomiques. C’est cette approche qui est privilégiée à l’Unité de Modélisation des Plantes. »1
Plus loin, on peut lire :
« Le choix d’une représentation simplifiée de la végétation est avant tout d’ordre pratique. La description géométrique et biométrique d’un couvert in situ est en effet très laborieuse et toujours incomplète. À l’inverse, les plantes virtuelles sont des objets informatiques dont la géométrie et la topologie sont complètement décrites. Il devient donc possible de mettre en œuvre des modèles numériques de simulation exploitant le plus complètement possible les informations disponibles […] Le choix a été fait de développer des modèles aussi précis et détaillés que possible afin de mieux analyser les phénomènes étudiés et, le cas échéant, tester et caler les modèles classiques [analytiques]. »2
Plus loin, encore :
« Il est clair qu’il faut tendre rapidement vers un modèle informatique d’arbre qui puisse à la fois servir en simulation, à l’agronomie, à la botanique, à la physiologie, à la mécanique et à la qualité du bois. La simulation de l’arbre se trouve en effet au carrefour de ces disciplines scientifiques et leur permet pour la première fois de communiquer réellement entre elles. »3
La modélisation « fragmentée » (selon notre expression) et la simulation permettraient donc une « polyvalence » inédite qu’il ne faudrait désormais plus craindre. Cette polyvalence est à opposer à la monovalence maintes fois conseillée dans l’épistémologie des modèles jusqu’alors4. De Reffye retrouve ici un intérêt, qui a toujours été le sien, pour des « lois des plantes ». Mais contre les mathématiciens et théoriciens aprioristes, trop pressés pour mesurer la vraie nature des phénomènes sur le terrain, de Reffye se réclame de la mesure objective des plantes. Son versant biométrique se retrouve ici. La variabilité du vivant est présente mais elle a été conjurée par la simulation informatique. Car elle n’a plus seulement été résumée par des paramètres mais elle a été rendue synthétisable par des algorithmes : ce sont ces algorithmes qui peuvent figurer au titre de lois des plantes, en quelque sorte, même si on perd par là la notion de modèle mathématique et qu’il faut lui préférer celle, plus modeste, de « modèle numérique ». Sur ce point d’ailleurs, la terminologie de de Reffye reste flottante en 1996 : faut-il parler de « simulation », de « modèle numérique » ou de « modèle informatique » ? Ce flottement prouve que la nature de ce modèle est clairement vécue comme différente des autres, sans que le praticien trouve à réutiliser de manière stable et satisfaisante les catégories antérieures.

Il apparaît néanmoins clairement qu’il n’est plus besoin de recourir à la rhétorique de la complexité de la nature, infinie et donc quasi-divine, comme c’était le cas dans l’épistémologie de l’école française de modélisation. Au contraire, et a posteriori, cette rhétorique semble avoir servi à masquer une impossibilité que de Reffye décide, quant à lui, de trouver prosaïque (voir l’expression « choix […] d’ordre pratique »). Il n’éprouve plus le besoin de la sacraliser ou de l’interpréter en termes de tabou ou d’impossibilité constitutive due à la finitude humaine : pour lui, il s’agit simplement d’une incapacité technique et momentanée de prendre en compte suffisamment d’informations dans les modèles alors qu’elles étaient de toute façon disponibles.

Cependant, cette polyvalence de la simulation, de la « plante virtuelle » a un coût : elle cause un changement de statut épistémique dont de Reffye prend également conscience, à cette époque. Comme Bouchon essaiera de le dire un an plus tard aux écophysiologistes, la simulation n’est plus tant un modèle qu’un double de la réalité. À ce titre, elle joue plutôt un rôle de réplication virtuelle, de double empirique du réel, plutôt que de résumé symbolique ou de modèle formel à visée directement cognitive :
« Le modèle conçu au CIRAD est original car il est développé à partir des connaissances qualitatives de la botanique et de l’architecture végétale, auxquelles sont rajoutées celles, quantitatives, acquises au cours d’expériences agronomiques réalisées au CIRAD en outre-mer ou dans des centre de recherche agronomique français. Son approche est donc de nature expérimentale et non algorithmique. »1
Dans ce passage, de Reffye oppose donc une approche algorithmique à la nature expérimentale, clairement assumée ici, de la simulation. L’approche algorithmique est à comprendre au sens strict d’une mise à disposition d’un modèle mathématique a priori calculable en une série d’opérations purement mathématiques, homogènes entre elles et en nombre fini. Ce type de modélisation est mathématique au sens strict. Elle permet de comprendre le phénomène modélisé, au moins en droit, c’est-à-dire qu’elle autorise la restitution en son esprit du geste mathématique unique d’où procède le modèle. Elle s’oppose à la modélisation fragmentée qui ne promet plus de faire comprendre. La simulation produit quant à elle des « maquettes numériques », « des objets informatiques »2 compacts et opaques sur lesquels des expérimentations virtuelles peuvent en revanche être faites. La simulation devient donc nettement un terrain d’expérimentation. Cette expérimentation est faite par procuration à partir du moment ou le modèle de simulation est correctement calibré sur le terrain réel et ce d’un point de vue quantitatif. Ce faisant, on ne se livre qu’à des observations d’« individus »3, de doubles d’objets singuliers, eux-mêmes singuliers, dont la caractérisation et la généralité restent problématiques. Toujours est il qu’à cette époque, de Reffye pense que l’on est désormais pleinement fondé à parler « d’expérience agronomique virtuelle »4.

Une maquette informatique comme support d’expériences virtuelles

Ce sont les travaux en simulation du « climat radiatif » qui illustrent le mieux cette tendance de l’AMAP à utiliser les représentations architecturales dans leur complexité comme autant de maquettes ou de modèles servant ensuite à des expérimentations virtuelles. Or, ils ont pris naissance dans le cadre d’une demande agronomique concrète et particulière.

À la fin des années 1980, Jean Dauzat, ingénieur agronome et titulaire d’une thèse en écologie, est intégré à l’équipe. Sa tâche est de développer les applications agronomiques des simulations. En 1990, à l’occasion d’une ATP interne au CIRAD (Action Thématique Programmée) et en lien avec le département des cultures pérennes (CP), il publie un rapport dans lequel il propose d’utiliser les simulations architecturales pour l’estimation des transferts radiatifs au sein d’une palmeraie (palmiers à huiles). Il s’agit d’évaluer précisément la lumière interceptée, la lumière transmise sous le couvert ainsi que la réflectance directionnelle. Le but agronomique clair est d’optimiser la densité des cultures associées (cultures sous couverts). Or, les modèles mathématiques classiquement utilisés pour évaluer les échanges radiatifs au sein d’un couvert végétal recourent à des représentations des plantes très simplifiées. Les houppiers ou les couronnes y sont figurés par des cônes ou des ellipsoïdes1. Comme dans une représentation biométrique traditionnelle, la répartition des feuilles y est donc considérée comme aléatoire. Et l’on recherche l’effet moyen du couvert végétal sur l’ensoleillement au cours d’une journée. Mais ces modèles ne tiennent pas compte de l’hétérogénéité constatée et mesurée de l’éclairement au sol. L’optimisation de la densité de plantation n’est donc pas assurée.

Entre 1989 et 1994, Dauzat, aidé de Lecoustre, utilise des mesures architecturales précises faites en Côte-d’Ivoire afin de construire des maquettes réalistes de palmiers. Dans un premier temps, il confirme l’hétérogénéité de l’ensoleillement en procédant à des mesures de rayonnement au sol au moyen de capteurs, mais aussi à des mesures du rayonnement diffus sous la palmeraie. Ensuite, découpant la surface en triangles élémentaires, il trouve que le taux de transmission moyen par triangle obtenu par simulation au moyen du logiciel AMAPpara est très proche (à une erreur près de 10%) de celui qui a été mesuré2. La simulation rend donc bien compte de l’hétérogénéité du rayonnement. Recourant à ces mêmes maquettes, Dauzat simule enfin le climat radiatif total, avec ses rediffusions et ses réinterceptions, en faisant suivre à l’ordinateur l’histoire, c’est-à-dire le devenir, d’un grand nombre de rayons incidents provenant du soleil tout au long d’une journée. Pour obtenir un climat stabilisé, la simulation exige de procéder à un nombre très grand de ces « lancers de rayon » virtuels : entre 1 et 2 millions pour une petite scène de palmeraie. Dauzat commente : « Cette méthode est très consommatrice de temps de calcul. En revanche, cette approche mécaniste est très rigoureuse et permet de détailler finement les échanges radiatifs. »3 Dauzat a donc montré que la cartographie du bilan radiatif total d’une plantation est accessible avec précision si on en reproduit les détails architecturaux par ordinateur.

De même, c’est une méthode semblable qui permet de fournir une image de la réflectance, vue du dessus, d’une scène végétale complexe ; d’où le lien qui se fait très vite avec la problématique d’interprétation d’images produites par télédétection (avions, satellites…). Dans ce cadre-là, d’un point de vue conceptuel, la simulation botanique architecturale, renouant avec les origines de la simulation numérique, permet donc de contourner les problèmes de non calculabilité :
« Le modèle de lancer de rayons développé a pour objectif la simulation la plus précise possible de la réflectance du couvert. Il est trop complexe pour être inversé. Par des expériences de simulation il est néanmoins possible d’établir des relations entre un signal mesuré et diverses caractéristiques du couvert. Les relations obtenues peuvent ensuite être inversées. »1
Dans cette utilisation de l’ordinateur, les maquettes, étant elles-mêmes le fruit de simulations préalables, deviennent à leur tour le terrain d’un autre type de simulation : celle de l’éclairement. À la fin de leur construction, leur aspect n’est donc pas encore résumé de manière globale par un modèle ou une formule. Il sert de nouveau en tant que tel, dans sa rugosité même et dans son hétérogénéité conservée. C’est là que la simulation architecturale devient un terrain empirique à part entière. À maintes reprises d’ailleurs, Dauzat indique que cette simulation sur « maquette informatique » contredit quantitativement les modèles condensants habituels. Cette simulation sur maquette peut donc servir à tester des modèles mathématiques. Avec la simulation de la réflectance, elle sert aussi à interpréter, de manière inductive il est vrai, des images de télédétection. C’est-à-dire qu’elle peut servir à décider quel type de plantation et quelle essence d’arbre se trouvent représentés sur l’image.

Au cours des années 1990, Dauzat poursuivra la conception et le raffinement de modèles d’échanges radiatifs au moyen des simulations architecturales à 3D. Plusieurs thèses seront soutenues jusqu’en 2002 au moins, sur ce sujet et avec cette approche2. Dès 1995, Dauzat participe au PNTS (Programme National de Télédétection Spatiale) en y proposant, en collaboration avec l’Unité de Bioclimatologie de l’INRA de Bordeaux et de Grignon, une « étude de la réflectance de peuplements de pins maritimes de la forêt landaise »3. Il contribue également à l’interprétation de données radar acquises préalablement par le CIRAD-Forêt au cours d’une campagne de mesures aéroportées menée sur une plantation d’eucalyptus congolaise.

Mais, à la fin des années 1990, une question s’impose à l’AMAP : peut-on développer le même usage de la simulation, cette sorte de « sur-simulation », dans le domaine plus directement intéressé à l’évaluation de la masse de matière produite (bois, fruits, …), ce qui est un axe majeur en agronomie ? La suite montrera que cette idée d’étendre la simulation conçue comme terrain empirique à d’autres problématiques, si elle a pu dominer les perspectives de de Reffye et de son équipe dans la première moitié des années 1990, se révèlera un peu optimiste même si elle n’est pas fausse sur le principe. Il y a deux obstacles qui vont se présenter très vite dans les années qui suivent. Tout d’abord un obstacle technologique. Disposer d’une « plante virtuelle » purement architecturale (en fil de fer) nécessite déjà une mobilisation de mémoire telle que la vitesse de calcul est affectée considérablement : surcharger de surcroît cette maquette avec des modules physiologiques très lourds, à la différence du module encore relativement léger des « lancers de rayon »1, cause dès le départ des problèmes de calculabilité pratique, même pour les plus gros ordinateurs, ce dont témoigne déjà le travail préparatoire fait avec Houllier dès 1993 dans le cadre de l’AIP.

Ensuite, il y a un problème méthodologique. En 1996, de Reffye entend faire de l’expérimentation agronomique virtuelle2. Or, l’histoire de l’agronomie a montré pour sa part qu’il n’y a pas d’expérimentations réelles utilisables sans distinctions claires entre les facteurs contrôlés et les facteurs non contrôlés. Il faut pouvoir procéder à des expériences contrôlées. Comme le montrait l’approche fondatrice de R. A. de Fisher, il faut qu’il y ait une certaine interaction de l’expérimentateur avec les entrées du terrain, que l’on sache au moins leur répartition aléatoire si l’on n’en commande pas l’expression. L’opacité construite de la simulation, gage de son réalisme et de sa complexité, devient ici vite un obstacle : il faut y désintriquer quelque peu les liens pour voir comment procèdent les optimisations. Il faut en revenir à un certain désir de comprendre. Là est la raison majeure de la troisième convergence à laquelle l’AMAP a en fait progressivement et assez consciemment procédé depuis 1998 : la convergence avec les mathématiques des graphes puis avec l’automatique et, de fait, la réconciliation tardive avec la simulation logiciste à la Lindenmayer. Après une naissance dans la simulation fractionnée ou les mathématiques calculables n’avaient plus la priorité, il semble qu’il faille en quelque sorte « re-mathématiser » la représentation de la plante. Tel est le moteur principal de la troisième et actuelle convergence à laquelle se livre AMAP.



Yüklə 8,85 Mb.

Dostları ilə paylaş:
1   ...   49   50   51   52   53   54   55   56   ...   112




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©muhaz.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin