Université Louis Lumière Lyon 2 Faculté de Géographie, Histoire de l’Art, Tourisme


CONCLUSION : Convergences autour de la simulation pluriformalisée



Yüklə 8,85 Mb.
səhifə55/112
tarix25.07.2018
ölçüsü8,85 Mb.
#58113
1   ...   51   52   53   54   55   56   57   58   ...   112

CONCLUSION : Convergences autour de la simulation pluriformalisée

Entre-temps, la convergence institutionnelle s’accélère vivement. Le 1 janvier 1999, à expiration de la convention d’association signée en 1995, et sous l’impulsion de la politique de Claude Allègre, AMAP est devenue une Unité Mixte de Recherche INRA/CIRAD. À partir de 1998, en effet, ce qui était parfois encore regardé comme un excroissance coûteuse dans le cadre de la politique scientifique du CIRAD devient au contraire une vitrine pour la restructuration de la recherche française. Cette restructuration est conçue par le ministère autour de « pôles de compétences », au-delà des frontières entre institutions de recherche et d’enseignementer. La méthodologie, les concepts et les technologies logicielles d’AMAP sont également enseignés plus largement et systématiquement. Tous les chercheurs sont mis à contribution.

Le 1 janvier 2001, toujours sous la direction de François Houllier, la convergence se poursuit : AMAP devient une UMR CIRAD/INRA/CNRS/Montpellier II. Elle prend le nom de «UMR Botanique et bioinformatique de l'architecture des plantes ». Le terme « bioinformatique » est arraché de haute lutte, notamment par François Houllier, au monopole de la génomique et de la protéomique. En janvier 2003, Houllier est nommé chef du département « Ecologie des forêts, prairies et milieux aquatiques » (EFPA) de l’INRA. Et c’est Daniel Barthélémy qui devient directeur de l’UMR AMAP 5120. Ce même 1erer janvier 2003, cette UMR se voit encore associée à l’EPHE (Ecole Pratique des Hautes Etudes), à l’INRIA et à l’IRD1.

Ainsi, l’époque des convergences mérite bien son nom. Après une période de dissémination des propositions formalisées de modélisation mathématique puis de simulation spéculative sur ordinateur, les années 1970 ont vu la naissance des premières convergences des simulations avec l’empirie. Cette première série de convergences était limitée. Chez les biologistes et botanistes, elle entrait dans le cadre de préoccupations encore principalement théoriques. Et la modélisation mathématique pragmatique, dont la source était la biométrie anglaise et son épistémologie afférente, ne pouvait se sentir inquiétée par de tels développements. Il en a été autrement à partir du moment où cette convergence de la simulation avec l’empirie a été un besoin dans une problématique agronomique et de terrain. Dans ce contexte, la simulation est tout de suite entrée en dialogue étroit avec la modélisation statistique pragmatique et mono-formalisée. Dans l’histoire que nous avons rapportée, on voit que l’ordinateur, pensé très tôt chez certains comme support de simulations réalistes, détaillées et pluriformalisées, a pu se battre pied à pied avec ce type plus classique de modélisation pour remporter enfin une victoire, peut-être éphémère mais bien réelle, jusque dans la modélisation explicative de la morphogenèse.

Commença alors la période des trois convergences ou conciliations disciplinaires : avec l’informatique graphique, avec la foresterie, avec l’automatique. Cette série de convergences alla de pair avec une simplification formelle, du point de vue de la généralité mathématique des modèles supports des simulations. Cette simplification conduisit à une concrétisation et à une standardisation de l’outil logiciel, comme à l’amplification de son caractère opérationnel. Or, cette re-mathématisation n’aurait sans doute pas été possible si la dispersion des modèles n’avait auparavant été exorcisée ou neutralisée par le pluriformalisme natif des modèles de simulation de l’architecture. Comme conséquence de cela, et malgré de fortes résistances, on a vu que l’épistémologie des scientifiques elle-même a dû se réformer dans l’urgence, afin de permettre de penser ce qui était devenu bien réel et qui fonctionnait sous leurs yeux. Certains travaux timides voient même déjà au-delà, aujourd’hui, et proposent ce que nous pourrions appeler la quatrième convergence : celle de la simulation architecturale et morphogénétique avec la génétique et la biologie moléculaire1. Mais il nous faudra attendre encore pour dire si l’espoir de cette convergence est prématuré ou non.

Parallèlement à ce développement de la simulation architecturale, des propositions de modélisation physicaliste continuèrent à se développer un peu partout dans le monde et à rechercher parfois la calibration, mais sur des espèces de plantes particulières. En fait, elles en restèrent encore massivement à une approche théorique et spéculative. C’est pourquoi nous n’en avons pas suivi le détail sur les deux dernières décennies : elles n’ont fait que contextualiser de loin les avancées propres de la simulation architecturale opérationnelle, sans renouveler fondamentalement l’esprit des approches monoformalisées de notre deuxième période : celle des dispersions. Elles en restèrent essentiellement à ce moment-là de l’histoire des modèles2. Elles n’ont pas convergé les unes vers les autres ni vers des usages spécifiques. Ainsi en est-il par exemple des travaux de biomécanique du botaniste et mathématicien, en poste au Département de Biologie Végétale de l’Université Cornell (New York), Karl J. Niklas. Dans une double perspective d’ingénierie en mécanique et de biologie évolutionnaire, Niklas utilise l’ordinateur pour complexifier l’approche classique de Murray, Rashevsky et Cohn. Il propose d’employer les équations de la mécanique des fluides pour rendre temporel à l’échelle de la phylogénie un principe d’optimalité physico-physiologique au regard de ce qu’il appelle les « performances » de la plante. Niklas et ses collègues ont ainsi été amenés à produire un programme simulant, au cours du temps, la sélection naturelle des performances physico-physiologiques d’un grand nombre de plantes dont les formes avaient d’abord été tirées au hasard3. Ils cherchent à voir émerger les formes les plus performantes du point de vue de leur allométrie.

L’insistance sur le caractère évolutionnaire de la morphologie d’une plante, mais à une autre échelle, est également le fait de deux chercheurs israéliens : Tsvi Sachs et Ariel Novoplansky (Département de Botanique de l’Université de Jérusalem). Selon eux, les « modèles architecturaux ne suffisent pas »1 à exprimer l’architecture d’une plante. Ils ne se reconnaissent donc pas dans l’approche de Hallé et Oldeman qu’ils trouvent réductrice. En effet, pendant la croissance de la plante dont ils rappellent qu’elle appartient à un groupe évolutionnaire tardif, des détails imprévisibles apparaissent. Ces détails sont contraints par la mécanique intervenant au cours de la croissance comme par des différenciations progressives elles-mêmes fonctions de la distance de l’apex aux racines : la plante reste un organisme évolutionnaire à l’échelle même de l’ontogénie. Les auteurs arguent alors du fait que les mécanismes qui sont responsables du changement graduel du mode de développement des branches ne sont pas connus2 : on aurait donc tort de les modéliser par un modèle déterministe et de se croire satisfait à bon compte. En fait, en 1995, en invoquant le défaut de scénario explicatif dans les travaux de leurs collègues, Sachs et Novoplansky visent surtout l’école de Prusinkiewicz3 dans la mesure même où elle n’a pas encore intégré à l’époque les aléas ni les rétroactions du global sur le local dans ses modèles, comme le fera Kurth par la suite, tirant en cela les leçons de l’AMAP. De plus, ils rendent compte du niveau davantage biochimique et mécanique de leurs travaux sur la morphogenèse. En 2004, en effet, Sachs et ses collègues montreront le rôle de l’auxine dans la formation des feuilles, en lien avec un modèle local d’auto-organisation.

Pendant les décennies 1980 et 1990, de nouveaux modèles purement physicalistes ont aussi régulièrement vu le jour à proportion même des avancées de la physico-chimie. Ainsi en est-il du modèle analogique d’Agrégation Limitée par la Diffusion (DLA) des physiciens spécialistes en physique statistique loin de l’équilibre que sont T. A. Witten et L. Sander (Université du Michigan - 1981). Ce modèle est né dans le cadre d’études des phénomènes de cristallogenèse et de percolation4. Il est simulable aisément sur ordinateur et mène à une croissance fractale. Il s’agit de faire venir, par une marche aléatoire, une particule qui diffuse sur un agrégat déjà constitué et de la faire s’agréger dès qu’elle rentre en contact avec cet agrégat. On obtient ainsi la croissance d’une forme ramifiée dont la nature purement aléatoire et déstructurée ne permet bien sûr aucun rapprochement précis avec la croissance des plantes. En fait, la plante ne croît pas par agrégation de particules venant de l’environnement aérien extérieur, mais par croissance interne et assimilation préalable de nutriments. Les botanistes ne retiennent donc pas ce modèle.

Par ailleurs, à partir de 1991, S. Douady et Y. Couder, du Laboratoire de Physique Statistique de l’ENS-ULM (rue Lhomond), présentent une expérience d’auto-organisation de gouttes de ferrofluide sous l’effet d’un champ magnétique : à partir d’une petite surélévation dans l’huile qui les reçoit, ces gouttes, lâchées périodiquement à partir d’une pipette, diffusent vers le lieu où se trouve le minimum d’énergie eu égard à leur polarisation, en tant que dipôles, et eu égard au champ magnétique global. Ainsi, la nouvelle goutte se fixe à une distance de la goutte précédente telle que les divergences irrationnelles classiques de la phyllotaxie (série de Fibonacci) sont ainsi reproduites5. La simulation numérique conjointe aboutit au même résultat. C’est une nouvelle occasion pour Roger V. Jean de déclarer qu’il n’y a pas besoin d’imaginer que les patterns de la phyllotaxie sont commandés par les gènes et qu’il suffit de les rapporter à des lois physiques6. Mais il est encore obligé de reconnaître la variété immense des approches explicatives de cette petite partie de la morphogenèse qu’est la phyllotaxie.

Aucun de ces modèles monoformalisés n’a encore véritablement rejoint le terrain de l’empirie dans sa précision, comme dans sa généralité et sa diversité. Les différents substrats analogiques du physicalisme se sont tout au plus diversifiés, sans que le spectacle d’une dispersion entre ces approches parcellaires, et souvent purement suggestives d’un point de vue théorique, ne cesse, bien au contraire. Toutefois, par rapport aux publications grand public, cycliques et de même genre, du milieu des années 1990, dans la publication récente Les formes de la vie1, la rupture entre l’approche par modèles mathématiques et l’approche par simulation pluriformalisée, même si elle n’est pas consciemment assumée ni expliquée ou revendiquée, est latente : alors que certains auteurs en restent encore au vieux rêve de d’Arcy Thompson, d’autres, souvent plus jeunes, en appellent à une « voie holistique »2, qui n’est finalement qu’une forme particulière de simulation reconstructrice, pluriformalisée, historiciste et réaliste, servant à résoudre le problème essentiel, et cette fois-ci explicitement reconnu, du caractère non monoformalisable des objets complexes en croissance3. Mais malgré ces frémissements de convergence dans les approches classiquement théorico-physicalistes, aujourd’hui encore, la simulation informatique de la plante intégrale, conçue à partir des réelles connaissances de la science descriptive qu’est la botanique, paraît pouvoir conserver son avance quelque temps dans le domaine des transferts de méthodes formelles sur le terrain. Davantage : la recherche de modèles mathématiques effectuée à partir de simulations architecturales fidèles, ayant la pleine valeur d’un terrain d’expérimentations virtuelles, et non plus à partir des habituelles suggestions physicalistes venues directement de la chimie ou de la physique, s’y épanouit et y prend un sens désormais indéniable. En fait, comme on l’a vu, une telle entreprise de simulation architecturale, doublée d’une modélisation sur simulation, demande beaucoup de travail de terrain, sans que le rapport entre l’expérience réelle et le formalisme y demeure pour autant dialectique : c’est qu’il y entre un troisième terme, celui de la simulation. Une telle modélisation n’est pas non plus comparable à une mathématisation purement positiviste, c’est-à-dire directe, arbitraire et indifférenciée. N’étant une formalisation ni dialectique, ni positiviste, la méthode qu’elle introduit est une manière assez inédite de modéliser et d’expérimenter.





Yüklə 8,85 Mb.

Dostları ilə paylaş:
1   ...   51   52   53   54   55   56   57   58   ...   112




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©muhaz.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin