CHAPITRE 19 – La réception contrastée des systèmes de Lindenmayer (1970-1975)
La réception du formalisme de Lindenmayer présente trois dimensions qui sont toutes frappantes par le caractère nettement interdisciplinaire qu’elles affichent. Tout d’abord, et assez naturellement, certains biologistes théoriciens de l’école de Waddington sont parmi les premiers à se sentir concernés et donc à réagir sur cette proposition d’une mathématisation inédite. La confrontation avec les organicistes anglo-saxons va effectivement être l’objet d’une controverse vive et très instructive du point de vue des options techniques et épistémologiques des deux parties en présence. De son côté, et par ailleurs, Lindenmayer est très vite happé par la technicité fascinante du domaine formel que son axiomatique ouvre. En un sens, son approche est d’abord, et pour longtemps, majoritairement phagocytée par les techniciens des langages formels et de l’informatique théorique. En parallèle de ces deux premiers type de réception, il est enfin un cas remarquable de conversion précoce d’un biologiste biométricien à l’axiomatisation de Lindenmayer. Ce cas est d’autant plus intéressant pour nous qu’il se produit sur le sol français. Pour finir l’exposé et l’analyse de cette réception des L-systèmes, nous tâcherons donc de comprendre les raisons qui ont motivé cette conversion, d’abord assez isolée, en ce début des années 1970.
La controverse avec Brian Carey Goodwin au sujet des formalismes « naturels »
Outre le fait que les propositions de Lindenmayer vont rencontrer très vite un grand succès, mais pas forcément d’ailleurs dans le milieu qu’il escomptait toucher au départ, un des épisodes les plus marquants et les plus significatifs qui aient succédé à ces publications de 1968 a sans doute été la controverse qui s’est ouverte sur le choix des formalismes, le mettant aux prises avec les tenants d’un certain versant théorique de l’embryologie chimique, notamment avec le biologiste théoricien Brian C. Goodwin. Présentons d’abord en quelques mots ce protagoniste.
Brian C. Goodwin est né en 1931 au Canada. Il étudia d’abord la biologie à l’Université McGill de Montréal puis les mathématiques à Oxford grâce à une bourse Rhodes. En 1961, il soutint son PhD en embryologie, à Edinburgh, sous la direction de Conrad Hal Waddington. Le titre de sa thèse était Studies in the general theory of development and evolution. En substance, il y conservait l’idée de son maître selon laquelle la morphogenèse ne peut entièrement s’expliquer par le réductionnisme génétique. Et il prônait, comme lui, le développement de modèles mathématiques susceptibles de montrer comment les formes vivantes sont contraintes bien davantage que le seul scénario historiciste et probabiliste des théoriciens de l’évolution ne permet de le penser. Comme Waddington, il tenait donc, non pas à réfuter, mais à amender le darwinisme par une perspective d’embryologie mathématique organiciste c’est-à-dire non réductionniste ni purement holistique.
Par la suite, après des vacations comme chercheur à McGill et au MIT1, Goodwin devint assistant en biologie à l’Université du Sussex à partir de 19652. Entre-temps, en 1963, il publia un livre qui connaîtra un certain succès, Temporal organization in cells3, dans lequel, en s’inspirant du modèle de régulation de Jacob et Monod datant de 1961, il proposait un modèle mathématique d’expression simultanée de plusieurs gènes situés en réseau. Ce modèle du « réseau de gènes » décrivait les variations simultanées en concentrations de plusieurs protéines induites par l’expression des gènes dans une cellule. Chaque protéine voyait intervenir dans l’expression de sa variation en concentration (une dérivée première par rapport au temps) des termes multiplicatifs faisant apparaître les concentrations d’autres protéines ; ce qui donnait donc la possibilité aux autres gènes de réguler cette vitesse. Goodwin aboutissait alors à un système d’équations différentielles qui se retrouvaient couplées entre elles et qui étaient assez difficiles à résoudre4. Dès le début des années 1960, Goodwin était donc fasciné par les modèles de régulation et, pour lui, les ensembles autocatalytiques que l’on pouvait exprimer par des systèmes d’équations différentielles couplées devaient être considérés « comme des modèles naturels de l’intégration fonctionnelle »5.
Or, de façon compréhensible, lorsqu’il lit les travaux de Lindenmayer publiés en 1968 dans le Journal of Theoretical Biology, il réagit assez négativement. En 1970, il publie un article sur la stabilité biologique dans lequel, visant implicitement Lindenmayer, il critique ouvertement le choix du formalisme des automates dans la biologie du développement6. Son argument revient à voir, dans ce qui se présente comme une formalisation par automates, non pas une réelle formalisation, c’est-à-dire une représentation formelle effective (« naturelle » au sens qu’il donne à sa qualification des « modèles naturels » différentiels) ou même une traduction approchée, mais une simple analogie du gène avec l’ordinateur qui, dans certains cas critiques, échoue à prendre en considération certains phénomènes biologiques essentiels. Le formalisme n’en serait donc pas réellement un : il ne serait qu’une pure « analogie formelle ». Mais voici son propos exact :
« L’implication de l’analogie du computer est que la cellule calcule [computes] son propre état, examine le programme ADN pour y chercher de nouvelles instructions et ensuite modifie son état en conformité avec ces instructions. En réalité, ce n’est pas ce que fait une cellule, bien que l’analogie formelle puisse être faite entre le comportement biochimique d’une cellule et l’opération d’un automate qui suit un programme. Il peut sembler élémentaire d’insister sur le fait que, lorsque l’on discute d’un processus tel que l’épigenèse [incluant la morphogenèse et la différenciation selon le point de vue de Waddington (note de Lindenmayer)], toutes les opérations de l’automate doivent être, à un certain égard, interprétées en termes biochimiques et physiologiques ; mais j’ai été quelque peu consterné par la somme de confusions qui se sont produites à cause du fait que ceux qui utilisent l’analogie du computer échouent à illustrer l’opération des instructions algorithmiques au niveau biochimique. »1
Pour Goodwin donc, le recours au formalisme des automates relève d’une simple analogie formelle, c’est-à-dire de la prise en compte de similitudes simplement grossières et superficielles entre les rapports qu’entretiennent entre eux les automates et les rapports qui interviennent entre les substances biochimiques dans les processus d’épigenèse. « Formel » veut donc dire ici « superficiel », c’est-à-dire « de loin », ou encore à « échelle globale ». Or, selon Goodwin, la preuve qu’il n’y a là qu’analogie grossière peut être inférée de l’embarras dans lequel on voit les tenants de la modélisation par automates lorsqu’il s’agit pour eux d’« illustrer l’opération des instructions algorithmiques au niveau biochimique ». À son tour, cet embarras ne peut pas directement se lire, mais il se donne à voir à travers la confusion qui règne autour de cette illustration. Ce que Goodwin semble dire, c’est qu’il peut exister plusieurs illustrations biochimiques différentes pour un même ensemble de paramètres d’un modèle par automates. Autrement dit, pour lui, ce « formalisme » ne capture pas assez finement et de façon univoque les phénomènes biochimiques pour être réellement dépourvu d’ambiguïtés. D’où la confusion. Alors que pour Lindenmayer, comme on l’a vu, ce formalisme est presque trop fin pour être calibré de façon univoque par les données expérimentales disponibles, pour Goodwin, au contraire, il n’est pas assez fin pour recouvrir une signification biologique univoque. En ce sens, selon Goodwin, ce formalisme manifeste bien le défaut classique d’une analogie : celui de faire violence à la réalité sur les côtés non explicites (« neutres » selon l’expression de l’épistémologue américaine Mary Hesse2) du rapport d’analogie et de prêter à des décisions arbitraires, source de confusion, quant à ce que l’analogie représente de son corrélat réel dans ses côtés ininterprétables.
La réponse de Lindenmayer va consister à montrer qu’il ne tient en fait qu’à l’utilisateur de ce genre de modèles de lever l’ambiguïté qui pourrait se glisser dans l’interprétation puisque « le concept d’automate fini est suffisamment général pour donner l’interprétation désirée en termes de biochimie et de physiologie cellulaire »3. Loin d’être un obstacle, ce serait donc au contraire la généralité du formalisme qui permettrait de lever l’ambiguïté interprétative selon Lindenmayer.
Mais Lindenmayer, afin de se faire entendre, entreprend d’abord de construire une interprétation systématique, en termes d’automates, des concepts waddingtoniens concernant les mécanismes du développement, dont l’induction et la différenciation cellulaire. Voici donc les points d’accord minimaux qu’il demande : tout gène est présent dans toute cellule de l’organisme. Ensuite, tout gène est présent dans chaque cellule soit sous une forme active soit sous une forme passive. Chaque cellule, à chaque instant contient donc une combinaison particulière de gènes actifs et de gènes inactifs. Les gènes actifs produisent des enzymes spécifiques qui sont capables, sous certaines conditions, de convertir divers métabolites en composants dont certains, en s’accumulant dans la cellule, causent la différenciation cellulaire. Le passage de l’état inactif à l’état passif (ou inversement) d’un gène est déterminé par le produit (ou inducteur) de quelque enzyme couplé avec une protéine répresseur. Si l’inducteur vient de la même cellule, on observe alors une induction de la synthèse d’une nouvelle enzyme qui a pour résultat une différenciation. S’il vient d’une autre cellule, on assiste à l’ébauche d’une nouvelle lignée cellulaire.
Après ce bref résumé1 à vocation consensuelle, Lindenmayer soutient ensuite, et là est sa réponse, que chacun de ces contrôles (ou régulations) « peut être exprimé soit par l’extinction ou l’allumage [sic] d’un gène soit par le fait qu’ils affectent les activités des enzymes et par-là l’apparition de leurs produits »2. Il entreprend alors d’interpréter en termes d’automates ces points d’accord minimaux. En effet :
1) appelons C l’ensemble rassemblant les métabolites et les composants d’une cellule, mis à part les protéines actives et les acides nucléiques (que Lindenmayer appelle les « macromolécules informationnelles »3),
2) à chaque instant, on peut en droit définir l’état d’une cellule par une combinaison particulière d’éléments de C,
-
à chaque couple « gène-enzyme », on peut associer une « règle de transformation »4. C’est sur ce point précis que Lindenmayer avoue sa dette à la modélisation algorithmique cellulaire introduite par Walter R. Stahl5. Donc en un sens, la légitimité de la modélisation par automates dans la biologie du développement repose en partie sur celle, antérieure, de cette même modélisation en biologie moléculaire. Bref, à chaque cellule on pourra associer une combinaison de règles de transformations selon que les gènes correspondants seront actifs ou non à l’instant considéré.
Finalement, l’état interne total d’une cellule comportera à la fois la combinaison de ses composants et la combinaison de ses règles de transformation. L’entrée d’une cellule consistera en l’ensemble des composants, éléments de C, qui dans l’intervalle de temps (discrétisé) se seront nouvellement présentés et la sortie, à savoir l’ensemble de ceux qui se seront dissipés. On voit dès lors que, en conformité avec les concepts de la biologie du développement précédemment rappelés, l’état prochain ne pourra dépendre que de l’état présent, des entrées et des sorties. Ainsi, il sera en droit possible de construire des fonctions de transition qui détermineront la combinaison prochaine de composants dans chaque cellule comme la combinaison prochaine de règles de transformation. Et Lindenmayer conclut ce passage ainsi :
« On peut voir que les deux fonctions (état-prochain et sortie) peuvent en principe être construites pour une population donnée de cellules ; ainsi les cellules peuvent être représentées de façon valide par des automates finis. Je ne peux donc pas être d’accord avec les objections de Goodwin. Ce qu’il appelle le‘ programme ADN’ est l’ensemble des règles de production que nous avons introduites, et en accord avec notre courte discussion précédente, on peut dire d’une manière complètement naturelle que l’état prochain d’une cellule est calculé [computed] en utilisant ces règles de productions. »1
Nous ne savons pas si Lindenmayer connaît à cette époque l’argument de Goodwin sur la naturalité des modèles différentiels de régulation. Toujours est-il que nous sommes là face à une évidente et suggestive confrontation entre deux interprétations différentes de ce que devrait être un modèle mathématique naturel. Pour Goodwin, la naturalité est du côté des modèles différentiels parce que le corrélat réel du formalisme demeure ambigu ; pour Lindenmayer, elle est du côté des modèles à automates parce qu’ils ont la capacité de traduire très précisément et sans ambiguïté les concepts théoriques déjà élaborés : c’est pour lui la naturalité d’une compréhension, c’est la proximité d’un signe par rapport à son sens, alors que Goodwin cherche la naturalité d’une référence et valorise ainsi la proximité du signe formel et du référent réel. En un sens, nous pouvons dire que la naturalité du modèle chez Goodwin est ontologique, alors que chez Lindenmayer, en conformité avec son logicisme qui lui vient de Woodger, elle est gnoséologique et symbolique.
Par ailleurs, on peut déjà voir dans la critique de Goodwin un des foyers de résistance à la modélisation et à la simulation par automates dans la biologie du développement. De manière non surprenante, elle a sa source dans l’école waddingtonienne et organiciste. Après le modèle de Turing et avant même la reprise des postures de cette biologie théorique par René Thom, elle en est une première forme accomplie.
Parvenu à ce point de notre restitution du travail de Lindenmayer, de sa signification épistémologique et de sa réception, il nous est désormais nécessaire de dire quelques mots de la réception de ces travaux dans d’autres contextes. Comme on peut le comprendre avec la réaction de Goodwin, Lindenmayer ne pouvait pas espérer grand-chose du côté de la biologie théorique américaine. La carrière du biologiste modélisateur sera en fait transformée et accélérée à partir d’une convergence inattendue. C’est cette convergence qui va l’inciter à développer de manière toujours assez formelle son approche de la modélisation et de la simulation de la morphogenèse végétale par ordinateurs.
Un déplacement de l’horizon des automates vers l’horizon des langages
Ce qui est en effet surprenant lorsque l’on suit la bibliographie des travaux de Lindenmayer comme de ceux qui le citent dès 1969, c’est le fait que l’on a par la suite très peu affaire à des biologistes. Le premier à faire écho à ses travaux de modélisation mathématique, par exemple, est Gabor T. Herman. C’est un mathématicien britannique né au début des années 1940 et qui a soutenu son doctorat en mathématiques à l’Université de Londres en 1968. En 1969, on le retrouve au poste de professeur assistant puis de professeur associé au Département de Computer Science de l’Université d’Etat de New York, à Buffalo. Même s’il publie aussi dans le Journal of Theoretical Biology, ce qui l’intéresse dès le départ dans le modèle de Lindenmayer, c’est essentiellement sa capacité de calcul universel en comparaison des autres types d’automates et sa propriété de fermeture en termes de langage formel1. C’est lui qui nomme le « modèle mathématique » proposé par Lindenmayer un « modèle de Lindenmayer »2. Par son travail, Herman contribue surtout à épurer la présentation de Lindenmayer pour lui donner une forme axiomatique recevable par des mathématiciens : pour lui, comme le précise Lindenmayer lui-même, un « modèle de Lindenmayer » est un « construit » rassemblant un ensemble fini d’états, une fonction d’état-suivant et un tableau linéaire initial3. C’est Herman encore qui, dès 1968 semble-t-il, fait prendre conscience à Lindenmayer qu’un tel construit formel est analogue aux grammaires au sens de la théorie des langages formels4.
Ce dernier va donc progressivement passer d’une vision de son modèle conçue dans l’horizon de la théorie des automates à une reprise de ce même modèle dans l’horizon interprétatif de la théorie mathématique des langages. Dans ses écrits, c’est souvent le terme « langage » qui va remplacer le terme « automate » ou l’expression « machine séquentielle ». À partir de ce moment-là, le langage de Lindenmayer devient donc un objet d’intérêt et d’étude en lui-même. Et ce déplacement vers l’horizon de la théorie des langages va ouvrir à ce formalisme des dimensions d’évolution différentes de celles qui pouvaient sinon s’ouvrir à un simple modèle mathématique de biologie du développement. Ce formalisme donc, relativement élémentaire dans ses règles et riche en appels à l’intuition à cause de cette simplicité même, dès lors qu’il est perçu et conçu comme assimilable à l’objet mathématique « langage formel » va faire l’objet d’études pour lui-même, comme un construit mathématique parmi d’autres.
Par la suite, Gabor T. Herman s’orientera dans la reconnaissance de formes et dans la synthèse d’images médicales par ordinateur. Il deviendra un des spécialistes de l’analyse théorique et informatique des images issues de la tomographie médicale5. Il abandonnera donc l’aspect synthétique des modèles formels pour se pencher sur une approche analytique de reconnaissance de formes, c’est-à-dire sur une approche de spécification de modèles et d’identification de paramètres. En revanche, de son côté et avec d’autres collaborateurs, Lindenmayer poursuivra davantage encore, et de lui-même, cette inflexion vers la théorie des langages mais en quittant auparavant le contexte purement américain6.
Convergence entre genèse de phrases et morphogenèse végétale
En effet, pendant l’année universitaire 1968-1969, Lindenmayer, toujours grâce à un fond du Public Health Service des Etats-Unis, poursuit ses recherches aux Pays-Bas, dans le laboratoire Hubrecht de l’Académie Royale des Sciences et des Lettres. C’est un laboratoire de biologie du développement. Cependant, dans un premier temps, il ne trouve là-bas aucun collègue biologiste avec lequel collaborer réellement et poursuivre ses travaux. Il prend donc très vite contact avec les mathématiciens et informaticiens de l’université d’Utrecht dont D. Van Dalen, G. Rozenberg, P. G. Doucet et J. Van Leeuwen1. Il travaille en fait exclusivement avec eux.
De leur point de vue, ces chercheurs en mathématiques et en théorie des automates s’aperçoivent immédiatement que ce biologiste leur propose quelque chose qui ne leur est pas inconnu et qu’ils peuvent aisément classer parmi les objets formels qu’ils ont coutume d’étudier. De fait, des linguistes comme Chomsky ont déjà établi des parallélismes avec leur approche des questions de langage. On se souvient en effet qu’entre-temps la linguistique a poursuivi son tournant formel puis « modéliste » et a rejoint, elle aussi, sur bien des points la théorie mathématique des langages. Avec les travaux de Chomsky sur les grammaires formelles génératives (1957)2, ce rapprochement s’est considérablement accentué car, dans ce cadre-là, l’enjeu n’est pas purement mathématique mais rejoint bien le type de question que peut se poser la linguistique en tant que science humaine : existe-t-il une infrastructure formelle éventuellement innée susceptible de déterminer axiomatiquement la forme que prennent toutes les grammaires rencontrées dans les divers langages humaines ? Cette question, pour Chomsky, rejoint donc celle de l’innéité de certaines compétences chez l’homme, en l’occurrence les compétences linguistiques. Comme la théorie de Chomsky séduit mais est en même temps très controversée durant ces années 1960, la linguistique formelle est assez naturellement sensible à toute forme d’axiomatisation alternative des langages formels. D’où son rapprochement avec les recherches les plus récentes de la théorie des langages.
L’épistémologie de Chomsky est nettement modéliste et en même temps explicative. Il refuse d’avoir une approche purement statistique et descriptive des phénomènes linguistiques, même si leur forme discrète y prête naturellement, comme les cellules vivantes des pluricellulaires. C’est donc en cherchant des modèles de génération de phrases à partir de phrases noyaux, plus courtes, que Chomsky élabore la proposition de « règles de réécriture ». Et c’est bien autour de cette notion précise qu’il y a, après coup, une convergence formelle avec les « modèles de Lindenmayer ».
Comme elles procèdent l’une et l’autre d’un rejet des modèles phénoménistes, probabilistes et informationnels du type de ceux de Jakobson et Halle, ou de Shannon et Weaver, on peut comprendre qu’intrinsèquement, l’épistémologie de Lindenmayer et celle de Chomsky se rejoignent et qu’elles ne peuvent pas prêter exactement au même type de rencontre entre linguistique et biologie que celle qui a déjà eu lieu de 1960 à 1967 entre le statisticien Murray Eden, le linguiste Morris Halle et le botaniste, biologiste et théoricien du développement, Dan Cohen. Cette première rencontre tripartite (mathématique, linguistique, biologie théorique), nous l’avions vu, donnait en effet une place centrale à la simulation et à la visualisation par ordinateur. La seconde, quant à elle, même si elle se sert également d’ordinateurs pour déduire des comportements, ne recourt pas à des générateurs de nombres aléatoires ni à des tentatives de visualisation directe sur la machine car elle s’enracine d’abord dans une approche mathématique foncièrement différente : la logique symbolique, les langages formels et les mathématiques intuitionnistes et constructivistes du discontinu, c’est-à-dire le domaine alors en plein essor de l’informatique théorique.
Ainsi, comme ils l’avaient fait auparavant pour la linguistique formelle de Chomsky, il devient naturellement possible aux mathématiciens spécialistes d’informatique théorique d’intégrer ou plutôt de réintégrer (puisque l’emprunt de Lindenmayer à la théorie des automates, comme celui de Chomsky, est dès le départ explicite1) le « modèle de Lindenmayer » dans leurs propres recherches sur les langages formels. Avec Lindenmayer, ils vont même d’abord travailler à comparer les grammaires de Chomsky avec le nouveau langage que construit ce modèle né originellement dans la biologie théorique.
De son côté donc, c’est-à-dire du point de vue de la biologie, dans un article de 1971, Lindenmayer établit pour la première fois explicitement le parallélisme entre les systèmes formels développementaux qu’ils proposent pour la modélisation de la croissance d’organismes unilinéaires simples et les grammaires des linguistes comme celles de Chomsky :
« De même que les linguistes théoriciens sont concernés par des règles de production ou des règles de transformation au moyen desquelles certain types de mots ou de phrases peuvent être générés, de même sommes-nous concernés par la découverte d’instructions développementales au moyen desquelles des types d’organismes connus peuvent être générés. Ainsi on doit considérer les construits génératifs des linguistiques, appelés grammaires, comme étant en relation avec nos systèmes. Cela peut énormément aider ; d’autant plus qu’une relation d’ordre existe déjà au regard des grammaires abstraites et des langages (la hiérarchie des grammaires de Chomsky), relation que l’on peut utiliser pour nous fournir un ordre dans les systèmes développementaux génératifs et les langages ; ce qui nous donne une mesure de complexité de par la distinction que l’on peut établir entre les caractères primitifs et avancés, alors même qu’aucune mesure de cette sorte n’était auparavant disponible pour les biologistes. »2
Dans cet article du Journal of theoretical biology, Lindenmayer, après avoir établi une analogie explicite entre le travail des linguistes théoriciens et celui des biologistes théoriciens du développement, tient donc à insister sur le profit que la biologie pourrait immédiatement en tirer. Tout d’abord, il lui paraît possible de transférer les relations d’ordre déjà établies entre différents langages selon leur complexité aux processus biologiques de développement eux-mêmes. Le formalisme mathématique, s’étant en quelque sorte déjà abreuvé à la source d’une autre science, ferait ainsi refluer sur le domaine qu’il modélise nouvellement les propriétés intrinsèques qu’on lui a trouvées par ailleurs. Ce formalisme étant intuitif, malgré le fait que les propriétés que l’on trouve grâce à lui restent éminemment formelles, c’est-à-dire intrinsèques à lui-même (d’où d’ailleurs leur transférabilité au-delà des frontières traditionnelles entre disciplines), il est néanmoins possible, selon Lindenmayer, que ces propriétés correspondent à des propriétés biologiques effectives. Contre toute attente, cultiver le formalisme pour lui-même pourrait donc avoir là une conséquence heuristique dans l’éventuelle production de concepts à signification pleinement biologique.
Un peu plus bas, Lindenmayer donne un exemple : dans la théorie des langages, on peut montrer qu’un certain nombre de langages, en ayant une axiomatique et des règles de production très simples, sont capables de développements aussi complexes que bien des langages à définition apparemment plus complexe1. Il nous l’avait d’ailleurs démontré dès les articles de 1968 : devant la tâche de modéliser un développement biologique, on se trouve souvent face à des modèles concurrents de nature différente mais dont la performance est identique ou très proche. Il y a donc fréquemment une sous-détermination des règles de réécriture du L-système. Pour son travail heuristique, le biologiste peut en conséquence choisir de se restreindre d’abord à l’emploi du type de L-système le plus simple : celui dans lequel les cellules n’ont pas d’interaction (« zéro interaction »), celui dans lequel il n’y a aucune information qui circule entre elles, ceux que G. T. Herman appelle les 0L-systèmes. Ces types de L-systèmes, parce qu’ils sont formellement plus simples, peuvent conduire à davantage de connaissances démontrées par théorèmes : la théorie des langages est donc assez complète en ce qui les concerne. En outre, ils montrent (ou confirment selon Lindenmayer) qu’il n’est pas impossible que la cellule biologique soit fortement autonome dans la construction des êtres pluricellulaires. Elle ne serait ainsi fortement contrainte que par son « lignage » [« lineage »], son arbre généalogique en quelque sorte2, et non pas tant par son voisinage.
Il faut cependant ajouter que Lindenmayer a l’opportunité de présider à ce rapprochement ente biologie théorique et linguistique pour une autre raison qu’il ne faut pas non plus négliger. Tout d’abord, il paraît certain qu’en 1968, Lindenmayer souhaite travailler avec ces collègues non biologistes parce qu’ils lui trouvent un intérêt a priori. En restant en Hollande, il peut donc saisir là une occasion assez unique de collaborer avec des collègues qui sauront peut-être plus qu’ailleurs l’écouter et amplifier ses travaux. En effet, aux Pays-Bas, rappelons-le, dans la suite de l’impulsion initial du mathématicien Luitzen Egbertus Jan Brouwer (1881-1966), notamment au travers de ses publications, de ses cours et de ses directions de travaux à l’Université d’Amsterdam, dont ceux de Arendt Heyting (1898-1980)3, l’école intuitionniste est très vivace. Dans les années 1960, cette école est encore très représentée à Amsterdam, notamment en la personne de Dirk Van Dalen (né en 1932)4 qui, avec son collègue et assistant d’origine polonaise Gzregorz Rozenberg5, fréquentera Lindenmayer avec intérêt dès 1969. C’est même au mathématicien Dirk Van Dalen que l’on doit l’invention, en 1971, de l’expression « L-système » pour désigner de façon abrégée le modèle de Lindenmayer1.
Ce que la biologie apporte à l’informatique : un nouveau modèle de computation
Pour comprendre comment la rencontre a pu se produire, il est cependant essentiel de saisir ce que les mathématiciens d’Utrecht trouvent d’intéressant de leur propre point de vue dans les systèmes développementaux de Lindenmayer, ce sans quoi ils n’auraient sans doute pas sollicité la collaboration du biologiste. Lorsqu’ils découvrent Lindenmayer, ces mathématiciens sont en fait déjà très impliqués dans des recherches d’informatique théorique dans lesquelles on a pris l’habitude de se proposer et de mettre au point divers modèles de computation : les langages formels de la mathématique. Au contraire des mathématiciens formalistes, les informaticiens n’étudient donc pas les « langages formels » uniquement pour eux-mêmes ou pour leur beauté ou leur systématicité ou leur généricité. Une des questions essentielles, pour eux, y est plutôt de savoir comment faire pratiquer tel ou tel calcul effectif (computation) par une machine réelle (ou encore sur le papier), avec quelle chance de réussite, avec quelle chance de le voir se finir, et en combien de temps, etc. Or, contrairement à ce à quoi l’on aurait pu s’attendre, c’est-à-dire malgré le fait qu’elle n’ait pas suivi une approche formaliste du type de celle qu’affectionnaient certains concepteurs de l’ordinateur comme von Neumann, l’école hollandaise de mathématique, de par la persistance même de son intuitionnisme, se sent finalement très concernée par ces questions difficiles de computation dans la mesure où elle a l’habitude de concevoir philosophiquement les mathématiques comme une activité pratique, quasi-expérimentale et dont l’achèvement n’est jamais certain a priori. Malgré le paradoxe apparent, on peut donc comprendre qu’une fois que les ordinateurs, à la conception desquels elle a peu participé, sont à disposition, elle développe en fait très tôt une école brillante d’informatique théorique.
Dans les premières années de sa présence à Utrecht, au contact avec G. Rozenberg, Lindenmayer se rend donc aux colloques de l’ACM (Association for Computing Machinery). Il y apprend et adopte les techniques de comparaison des langages formels. Dans sa proposition, ce qui intéresse visiblement les informaticiens tient dans un premier temps au fait qu’il s’agisse d’un système formel à réécriture, comme c’était le cas pour les grammaires de Chomsky. La simplicité de l’implémentation logicielle ou matérielle de ce genre de technique de calcul fait qu’elles bénéficient en effet d’une certaine faveur parmi les informaticiens. Dans un second temps, et c’est là ce qui fait leur caractère essentiel et réellement innovant au regard des informaticiens, les L-systèmes, à la différence des grammaires génératives, sont des systèmes formels à réécriture simultanée à chaque pas de temps. C’est-à-dire qu’à chaque instant, chacun des éléments de la chaîne de symboles se voit appliquer une des règles de réécriture en fonction de son état, de ses entrées et de l’état de ses voisins. Pour Rozenberg, c’est cette idée qu’il faut reconnaître comme l’apport le plus important et comme n’ayant pu naître que dans un cadre où le modélisateur pensait à des cellules vivantes actuellement coexistantes, c’est-à-dire en biologie2. Pour Rozenberg et Lindenmayer, c’est donc la biologie qui a donné l’idée aux informaticiens d’introduire la simultanéité dans les grammaires à réécriture de manière à produire des modèles de computation nouveaux et éventuellement plus performants pour des problèmes d’ordre plus général.
Caractérisation, inférence, complexité
Pendant une vingtaine d’années, de nombreux travaux vont donc se succéder sur les L-systèmes avec un point de vue essentiellement théorique, c’est-à-dire avec une approche où la collaboration entre biologie du développement, théorie mathématique des langages et informatique se construit à un niveau essentiellement conceptuel. Il y aura alors une sorte de division du travail : les logiciens et mathématiciens comme G. T. Herman, mais aussi J. van Leeuwen1 et A. Salomaa2 s’occuperont de la caractérisation des L-systèmes, c’est-à-dire de l’exhibition des propriétés mathématiques des diverses classes de ces systèmes génératifs3, le but étant de prouver l’impossibilité pour certaines de générer telle séquence de structures. Ce travail, apparenté au test théorique des modèles de computation, mène à une classification et à une comparaison systématique de la puissance des langages ainsi conçus. Herman, pour sa part, s’occupera d’abord plus particulièrement (en 1971) de l’inférence syntaxique, c’est-à-dire de l’activité précise qui consiste à essayer de trouver un système génératif correspondant à une structure initialement donnée ou observée. Par la suite, entre 1972 et 1975, avec l’aide des ingénieurs R. Baker, W. H. Liu et Gordon L. Schiff et grâce aux fonds de la National Science Foundation, il conçoit CELIA (CEllular Linear Iterative Array Simulator)4 un programme informatique en FORTRAN permettant de simuler sous forme de tableau de chiffres des organismes unilinéaires ou arborescents obéissant à des L-systèmes. Pour lui, le recours à un tel dispositif grossier de « simulation » ne permet pas encore de réfuter ou de valider une hypothèse biologique (ici en l’occurrence la pertinence de la notion d’« information positionnelle »5 telle que Lewis Wolpert l’avait introduite en embryologie en 19696 et que Herman reprend en 1975), mais seulement de montrer la potentialité qu’ont en général les L-systèmes à prendre en charge, à l’avenir, de tels tests, une fois que l’on aura des données quantitatives plus précises1.
Lindenmayer, de son côté, tirera des leçons essentiellement théoriques, pour la biologie, de ces recherches sur le formalisme ; et il se penchera surtout sur la signification biologique des systèmes ainsi préconisés par les informaticiens. Assez rapidement, dès 1974, il présentera une vue déjà très générale sur les recherches impliquant les L-systèmes. Cela fera l’objet d’une longue intervention de sa part à la Conférence sur la Théorie des Automates Biologiquement Motivés (Virginie, Etats-Unis, juin 1974). C’est notamment là qu’il s’affrontera à la notion de complexité : il lui apparaîtra de plus en plus qu’avec les L-systèmes, on possède une mesure de la complexité biologique du développement bien plus crédible que celles que proposent les cybernéticiens avec la mesure de l’information de Shannon ou de Kolmogorov. En effet, d’une part, ces mesures informationnelles de la complexité imposent de se représenter l’être en développement sous une forme statique. Elles ne rendent donc pas du tout compte, même de manière simplifiée, de la spécificité d’un phénomène de morphogenèse : au contraire, on a là affaire à un système éminemment dynamique. D’autre part, comme il le précisera bien plus tard dans un article de 1987 :
« L’application des mesures d’information ou d’entropie à des processus affectant des êtres organiques n’a jamais été un succès pour cette autre raison que ces mesures sont définies pour une transmission d’information (une communication) d’une source à un récepteur à travers un canal. Dans les organismes, ces composants ne sont pas identifiables. Par exemple, le contenu informatif de l’effectif entier en ADN d’une cellule vivante est immensément grand et il n’y a aucun moyen de trouver comment et quelle partie de cet effectif est actuellement utilisé pendant la durée de vie de la cellule. »2
Pour Lindenmayer donc, comme on ne peut « identifier » intuitivement les composants (source, récepteur, canal) nécessaires à la juste application du formalisme informationnel, ce formalisme n’est pas valable pour la mesure de la complexité biologique. Il faut donc trouver un niveau biologique qui permette d’appliquer un formalisme qui soit à la fois réaliste et intuitif, cela, d’une part, afin de crédibiliser les enseignements sur la complexité que l’on peut tirer de ce formalisme, d’autre part afin que ces enseignements ait une signification biologique immédiate. Or, c’est bien le cas du niveau cellulaire et de son traitement par les L-systèmes, selon Lindenmayer. Nous pouvons donc le constater, comme Chomsky le fit en son temps, l’approche modélisatrice de type phénoméniste et informationnelle à la Shannon est ici critiquée par Lindenmayer en ce qu’elle ne permet aucun inférence théorique valable pour le domaine d’application considéré : la biologie du développement.
Pour finir sur cette nouvelle école d’algorithmique, il faut retenir l’idée que la modélisation, ou simulation algorithmique (même si le terme n’est pas prioritairement revendiqué ici), issue d’une certaine biologie du développement a été à l’origine de deux convergences : partielle entre la simulation sur ordinateur et la réalité biologique, quasi-totale entre la modélisation logiciste et les théories des langages. Ce sont ces deux convergences, et surtout la seconde, qui ont contribué à la fixation de cette méthode de modélisation dans les productions scientifiques. Ce qui caractérise ce type de modélisation est l’attention aux formes concrètes discrétisées mais aussi le refus du hasard. Son objectif reste donc en fait théorique : il est assez proche des théories structuralistes contemporaines qui ne se présentaient que comme des modèles à prétentions théoriques, c’est-à-dire prétendant encore dire quelque chose de l’essence des mécanismes sous-jacents aux phénomènes, malgré un déracinement assumé par ailleurs. Le structuralisme, en ce sens, reste fermement attaché au refus de la dispersion. Mais, ce que nous montre l’histoire de cette rencontre particulière, c’est que, malgré ce qu’en disent leurs promoteurs, ces convergences sont plus de forme que de fond. C’est même cela qui fait la possibilité de la convergence. La nature de la convergence reste donc ici de celles que nous avons appelées « absorbantes » : elle est interne au formalisme, mathématique. Au cours des années 1970, Lindenmayer, comme ses collègues, se plaisent ainsi à ramener tel langage à tel autre, à trouver la catégorie la plus large ou la plus étroite pour ces langages. Ils le font certes pour servir à des desseins techniquement et objectivement fondés. Mais ils le font aussi pour chasser la dispersion à quoi le déracinement, par ailleurs assumé, pourrait nous condamner.
Cependant, la générativité de ces langages, le fait qu’ils ne forment pas le plus souvent un système clos et qu’il faille les faire fonctionner pour voir comment ils fonctionnent, le fait que ce soit donc souvent une difficulté mathématique majeure de dire ce qu’ils sont capables de décrire puisqu’on ne peut pas toujours le savoir a priori, témoigne de la naissance d’un type nouveau de modèle : ouvert, génératif pas à pas et constructif. Or, intrinsèquement, la prise en charge de ce type de modèle nécessite le recours à un ordinateur, c’est-à-dire à une machine capable de réitérer en grand nombre des règles élémentaires valant sur un substrat formel spatialisé et dont la topologie change au cours du temps. Joignant l’hétérogénéité spatiale avec la répartition locale des règles, ils s’apparentent à ce que Cournot décrivaient comme des jeux historiques1. Permettant des rencontres entre des règles réparties, même sans hasard objectif (ou simulé), ces modèles sont en effet générateurs d’une certaine historicité dans l’espace. Fermés à la dispersion formelle, ils sont donc potentiellement ouverts à la créativité irréductible et interne de leur modélisation.
Au vu du nombre raisonnable des travaux qui ont rapidement été inspirés par les L-systèmes, il nous paraît incontestable que la biologie théorique ait gagné par là une plus grande audience dans la production scientifique. Ce certain engouement pour l’approche algorithmique en modélisation mathématique est important à signaler car il contribuera ensuite à relancer et à étendre un certain nombre de recherches en biologie théorique, notamment en France, à partir du début des années 1980. Afin de montrer la réalité et la force (certes à relativiser) de cet engouement dès le milieu des années 1970, il nous suffira d’évoquer maintenant le revirement d’un couple de chercheurs français en poste au Laboratoire de Botanique Analytique et de Structuralisme Végétale : Hermann et Jacqueline Lück. Leur laboratoire est alors rattaché à la Faculté des Sciences et Techniques de Saint-Jérôme, à Marseille. Ce cas est particulièrement instructif car il témoigne du fait que, dans le versant botanique de la biologie théorique, la modélisation algorithmique, issue de la théorie des automates et des langages, s’est pensée comme une alternative théorique et formelle à l’analyse statistique mais non essentiellement comme une stratégie instrumentale à visée opérationnelle. Les Lück sont ainsi passés d’une approche de modélisation statistique à une approche de modélisation algorithmique. Toutefois, dans un premier temps, les Lück auront tendance à chercher encore la calibration de leurs L-systèmes. Mais, par la suite, un peu comme Lindenmayer lui-même, aspirés par le domaine ouvert et inexploré des langages et de leur empirie, ils emprunteront une voie plus franchement théorique. L’ordinateur ou l’automate y servira alors uniquement de modèle formel : il ne constituera même pas un instrument concret permettant l’expression ou la manipulation effective de ces nouveaux formalismes. Tâchons maintenant de comprendre ce qui a fait que la rencontre des Lück avec les L-systèmes a été déterminante pour eux. Dans leur domaine, ce travail a constitué très tôt une des rares alternatives françaises à la modélisation pragmatique mais sans jamais pourtant pouvoir en inquiéter réellement l’hégémonie. Ce qui confirme encore que la dispersion demeure à cette époque aussi à ce niveau-là, à savoir entre les propositions d’explication et les propositions d’utilisation.
De l’analyse statistique à la modélisation algorithmique : Hermann et Jacqueline Lück, un cas français (1975)
Hermann B. Lück est un botaniste français d’origine allemande déjà aguerri lorsqu’il découvre les L-systèmes. Avec sa femme Jacqueline, depuis la fin des années 1950, il s’est en effet spécialisé dans l’étude de la multiplication cellulaire chez certaines algues vertes filamenteuses. Il travaille donc sur un objet biologique très proche de celui de Lindenmayer. Son but, à terme, est de pouvoir utiliser les connaissances acquises en ce domaine pour étudier ensuite les modes de formation des tissus organiques. Sa problématique part donc du principe que la connaissance de la morphogenèse des algues filamenteuses pourra aider à la compréhension de l’histogenèse.
Jusque dans les années 1940, toute recherche morphogénétique concernant les tissus reposait sur deux idées qu’il serait bon, selon Hermann Lück, de dépoussiérer : 1- les dimensions des cellules présenteraient des variations aléatoires qu’il faudrait formaliser comme telles et dont il ne faudrait considérer que la moyenne dans les arguments théoriques ; 2- les cellules particulières, de par la position spécifique dans le tissu, ne devraient être prises en compte que de manière qualitative et non quantitative. Autrement dit, l’hétérogénéité comme les ruptures de continuité dans le comportement des cellules différenciées étaient auparavant soit rapportées à une loi statistique homogénéisante, soit à une distinction qualitative purement terminologique et irréductible à l’analyse quantitative. Dans les années 1960, le couple Lück s’inscrit au contraire dans cette nouvelle lignée de botanistes et de morphologistes d’après-guerre qui, comme Ralph O. Erickson, un des maîtres de Lindenmayer et dont celui-ci s’est alors déjà démarqué, ont mis l’accent sur la nécessité de suivre du mieux possible, c’est-à-dire quantitativement, le comportement individuel des cellules lors des phases de multiplication et de différenciation : ils partent du principe qu’il faut davantage insister sur la certaine autonomie qu’ont les cellules au cours de l’élongation des organes comme au cours de l’histogenèse1 plutôt que d’inféoder le comportement individuel de la cellule uniquement à sa position par rapport au tout déjà constitué, ce qui serait laisser la porte ouverte à une certaine forme de finalisme auquel Lück ne veut pas céder2. Selon Lück, le comportement de la cellule serait déterminé par son ascendance plutôt que par son voisinage ou que par son appartenance à un tout :
« Nous sentons la nécessité de chercher une approche dans laquelle le comportement des cellules n’est pas considéré à la lumière de la croissance de l’organe, mais plutôt comme un résultat des règles agissant indépendamment dans chaque cellule et qui accepte délibérément la possibilité d’un comportement différentiel des cellules filles. »1
Indiquons simplement ici que c’est dans ce genre de passage que l’on sent combien une telle approche algorithmique de la formalisation, conçue en fait par Lück comme une arme contre le finalisme en morphologie végétale, repose sur des hypothèses théoriques comparables à bien des égards à celle de l’individualisme méthodologique que l’on peut trouver en sociologie. Ici, les individus que sont les cellules portent en eux un ensemble de règles qui les déterminent à agir de manière autonome, essentiellement en fonction du temps qui passe et éventuellement en fonction du voisinage. Dans ces conditions, on comprend mieux ce que Lück pense pouvoir trouver dans le formalisme algorithmique de Lindenmayer dont nous avons déjà abondamment montré l’inspiration logiciste. Dans ce travail, on perçoit que la modélisation algorithmique, refusant de prendre en compte une hypothétique information venant du niveau supérieur (l’organe) et à destination du niveau inférieur (les cellules), mais laissant au contraire toute l’autonomie au niveau inférieur, prend nettement le parti d’une explication générative de la morphogenèse et centrée sur le comportement de la cellule. Le projet est donc bien celui d’une explication de la morphogenèse qui soit plutôt mécaniste que finaliste.
Cependant, en général, il faut plus que la présentation d’une solution formelle alternative et séduisante, car philosophiquement plus satisfaisante, pour inciter un chercheur à se convertir à une méthodologie radicalement nouvelle comme cela interviendra en effet chez Lück. Encore faut-il qu’une impasse se dessine dans l’approche antérieure qui exhorte le chercheur à franchir le pas et le pousse à faire cet investissement conceptuel. Or, c’est bien ce qui est également apparu au cours des recherches de Lück. En effet, de son côté, pendant plus de dix ans, et à l’aide des méthodes biométriques largement répandues en biologie, Lück a lui-même d’abord développé des méthodes classiques d’analyse statistique dans le but de contourner les deux interdits sus-cités et de mieux rendre compte, en les quantifiant, de certains scénarios de l’histogenèse. Mais il lui est progressivement apparu que les méthodes statistiques ne lui permettraient pas de produire des hypothèses quantifiables au sujet de l’évolution future des cellules prises une à une, ce qui était pourtant, selon lui, souhaitable. Cette impossibilité, à ses yeux, ne provenait pas du fait que les cellules étaient dépourvues de tout déterminisme précis mais plutôt du fait que l’approche statistique ne laissait pas apparaître ce déterminisme car elle ne permettait pas de prendre en compte formellement la récursivité des déterminismes individuels telle qu’elle se fait manifestement jour via le rapport de filiation entre cellule mère et cellule fille2. En 19743, lorsqu’il rencontre Lindenmayer à Mac Lean en Virginie, à l’occasion de la conférence sur la Théorie des Automates Biologiquement Motivés, Lück connaît déjà ses travaux et il est déjà convaincu qu’il lui faut opérer un revirement complet dans sa propre approche formelle. Selon lui, si l’on veut produire des hypothèses théoriques quantifiables et susceptibles d’être rapportées et comparées à des valeurs mesurées sur le terrain, l’approche analytique n’est plus de mise : il faut synthétiser. C’est-à-dire qu’il faut modéliser la morphogenèse selon certaines hypothèses comportementales élémentaires et identifier ensuite les paramètres de ces règles en fonction des résultats obtenus globalement :
« En d’autres termes, nous devons chercher un modèle qui soit capable de simuler le comportement cellulaire de manière telle qu’il nous fournisse toujours une bonne adaptation aux données observées à un niveau supérieur à celui de l’intégration des éléments [le niveau de l’organe. NDT], et qui permettrait des prédictions également à ce niveau élémentaire [le niveau cellulaire. NDT]. Un tel modèle devrait être basé sur des suppositions très simples de manière à être applicable de façon très générale. »1
C’est donc bien cette rencontre avec le travail de Lindenmayer qui va représenter comme un tournant dans la pratique scientifique des Lück. Or, auparavant, ils s’inscrivaient davantage dans le courant de modélisation statistique de la morphogenèse institué par l’école de botanique de l’Université de Pennsylvanie, essentiellement autour de Goddard et, surtout, de Erickson. Revenons un moment sur le travail de ce botaniste que nous avons déjà évoqué précédemment, cela afin de mieux faire comprendre pourquoi Lindenmayer arrive à convaincre certains morphogénéticiens, dont Lück, d’abandonner l’approche par la formalisation continuiste.
L’analyse numérique de la croissance : Ralph O. Erickson et l’ordinateur-calculateur
La figure d’Erickson est intéressante car elle est assez complexe et ne peut être aisément caricaturée. Elle permet en ce sens de faire d’autant plus ressortir le sens et la valeur des voies divergentes adoptées à la même époque, celles de Lindenmayer et des Lück notamment, d’où son importance pour notre propos. En effet, même si, dans son cas, on a affaire à un botaniste qui modélisait au moyen de formalismes différentiels assez classiques, il est important de noter que cela ne l’a aucunement empêché de recourir assez tôt à l’ordinateur. Il est vrai qu’Erickson donnait à cette machine un rôle épistémique bien différent de celui que lui attribue Rosen ou même Lindenmayer dans leurs propres travaux. Mais là est justement tout l’intérêt du rapprochement entre ces deux branches distinctes de la modélisation de la morphogenèse à la fin des années 1960 et au début des années 1970 : l’analyse numérique de la croissance d’un tissu organique d’un côté, approche née dans la botanique expérimentale instrumentée par des microscopes optiques performants, et la modélisation logiciste de la genèse d’une arborescence, approche née plutôt dans un contexte de biologie théorique mais soutenue assez rapidement, comme nous l’avons vu, par des expérimentations ponctuelles.
Dans les années 1950, Erickson s’intéressait en effet particulièrement à la croissance des tissus organiques, notamment en poids et en surface, comme dans le cas des feuilles. En ce sens, il ne se penchait pas prioritairement sur les phénomènes d’arborescences, au contraire de ses collègues qui, comme Lindenmayer, travailleront sur les algues ou, plus généralement, sur les organismes filamenteux. Il s’orienta donc plutôt vers les phénomènes anisotropes de croissance en dimension, comme ceux que d’Arcy Thompson avait signalés lorsqu’il expliquait qualitativement la forme des feuilles par des différentiels de vitesses de croissance locale1. Or, dans ces années-là, et pour ces phénomènes particuliers de croissance en surface ou en volume, l’approche globale par les lois allométriques de Huxley et Teissier commençait en effet à présenter des signes de faiblesse, ainsi que le rappellera Lück en 1975 : d’une part, la précision du suivi que permet un tel formalisme est insuffisante, notamment au vu des progrès de la microscopie optique au cours des années 1930, et, d’autre part, même s’il s’agit là d’une formalisation à prétention descriptive, sa légitimation purement physiologique à l’exclusion des phénomènes biochimiques ou mécaniques en première approximation, risque de nous orienter tout de même vers une explication de type finaliste.
En fait, en 1943, une méthode descriptive mais analytique et mécaniste, donc alternative en ce sens, vit le jour et proposa une modélisation mathématique des comportements individuels différenciés des cellules. C’est un biochimiste américain, spécialiste de la croissances des levures mais aussi, et cela n’est pas indifférent, de la microscopie optique, Oscar White Richards (1902-1988) de l’Université de Yale, ainsi que son collègue botaniste, A. J. Kavanagh, qui reprirent méthodiquement et amplifièrent conceptuellement la proposition de d’Arcy Thompson en montrant son caractère effectivement opérationnel dans un cadre de botanique expérimentale et de terrain. Ils appliquèrent la théorie hypothétique, mais analytique du point de vue formel, des vitesses différenciées à la croissance d’une feuille de tabac et en tirèrent une méthode d’analyse spatiale des structures en croissance. Elle consistait, comme le rappella Ralph O. Erickson en 1966, à évaluer la divergence de la vitesse de croissance des tissus par une méthode formelle de type analyse vectorielle2. Rappelons que le formalisme de la divergence (noté div) leur venait alors des expressions des lois de l’électromagnétisme mises en forme par le physicien Maxwell à la fin du dix-neuvième siècle. Mais il était aussi utilisé en mécanique des fluides. Et c’est cette analogie mécanique que les auteurs privilégièrent. La divergence est définie de la façon suivante, en fonction des deux composantes axiales vx et vy de la vitesse de croissance locale V :
div V =
En deux dimensions, la divergence du vecteur vitesse est donc la somme des dérivées partielles spatiales de ce vecteur selon les deux axes de coordonnées. En 1943, Richards et Kavanagh utilisaient directement ce formalisme différentiel de la divergence pour exprimer un « taux spécifique de croissance » en volume ou en surface par unité de volume ou par unité de surface3. Comme le souligna Erickson, ce transfert de formalisme imposait obligatoirement de concevoir en même temps la croissance des tissus organiques sur le modèle des flux de fluides compressibles ou incompressibles1. L’analogie physique devait donc être assumée en tant que telle. Lorsqu’Erickson se décida à travailler sur cette proposition, le formalisme de Richards et Kavanagh l’avait depuis longtemps séduit (dès 19552) puisqu’il allait dès le début dans le sens même de sa propre approche de la morphogenèse : il permettait, au moins en droit, de prendre en compte la diversité des taux de croissance locale dans les organes et plus seulement la moyenne de ces taux comme dans l’approche statistique ou allométrique classique. Ainsi qu’il le précisa lui-même, comme dans le cas des champs de vecteurs en électromagnétisme ou en mécanique des fluides, quand la divergence de la croissance organique est positive, on a affaire à une « source » de croissance (« source »), quand elle est négative, on a affaire à un « puits » ou un « trou » (« sink ») de croissance3. Or, cette modélisation analytique est restée pendant vingt ans peu développée, si ce n’est même quasiment lettre morte, parce qu’elle nécessitait la mise en œuvre de calculs très nombreux, laborieux et donc rédhibitoires4. Elle consistait en effet à tâcher de trouver des équations analytiques pour les composantes de la vitesse susceptibles de faire correspondre les divergences locales calculées avec les divergences locales effectivement mesurées au cours d’une expérimentation minutieuse. Ici, il faut comprendre que, malgré son caractère exigeant, ce n’est pas tant l’expérimentation qui avait d’abord freiné les botanistes comme Erickson : il est toujours possible de mettre en œuvre un dispositif expérimental de marquage régulier de points de contrôle sur une feuille en croissance que l’on met régulièrement en correspondance avec une feuille de papier calque. C’est d’ailleurs ce qu’ont fait Richards et Kavanagh dès 1943. La difficulté principale résidait plutôt dans l’exploitation de ces données pour les calculs d’ajustement. Les composantes du vecteur vitesse étant exprimées analytiquement et en première approximation par des polynômes, il fallait pouvoir ensuite faire les calculs d’ajustement statistique de ces formes polynomiales aux données de l’expérience. Or, ces méthodes calculatoires d’ajustement systématique existaient et elles avaient été publiées à partir des années 1920, à la suite des travaux des statisticiens R. A. Fisher puis M. G. Kendall. Mais c’est justement elles qui nécessitaient un nombre de calculs prohibitif. C’est donc elles qui devaient bénéficier en priorité d’une automatisation des calculs.
Précisément, en 1965, Erickson considéra que le paysage technique avait changé à ce niveau là. Des ordinateurs aisément programmables par des biologistes étaient à disposition. Il se lança donc à son tour dans le développement de cette méthode d’analyse suggérée il y a plus de vingt ans essentiellement parce qu’il disposait désormais des nouveaux moyens de calcul automatique du Département de Biologie de l’Université de Pennsylvanie : d’abord un UNIVAC I puis un IBM 7040 (d’une mémoire de 32 Ko) qu’il programmait en FORTRAN5. En 1966, cette approche différentielle put donc enfin se développer du fait que le blocage technique initial s’estompait.
La méthode de Richards et Kavanagh faisait alors chez lui l’objet d’une application à la croissance d’une feuille de Xanthium. Ce travail fut publié en 1966 dans le Journal of Experimental Botany. Le programme informatique y servait d’abord et avant tout à ajuster numériquement le modèle analytique aux données mesurés. Mais, plus accessoirement, et dans cette même étude de 1965-1966, Erickson se servait aussi de l’ordinateur pour faire représenter la feuille de Xanthium sur une imprimante en y faisant figurer par des chiffres différents les différentes zones où la divergence atteignait des valeurs à peu près semblables, c’est-à-dire où le taux de croissance était à peu près le même. Il obtenait alors le dessin très grossier d’une feuille sur lequel les divergences mesurées ou calculées apparaissaient dans leurs localisations relatives.
On voit donc que dans ce travail Erickson avait recours à l’ordinateur surtout au titre d’un calculateur numérique et non pas au titre d’un opérateur logique ni non plus d’un simulateur même si la représentation finale de la feuille tendait à s’en rapprocher néanmoins. C’est parce qu’il favorisait avant tout le choix du formalisme, et, en particulier, celui du formalisme différentiel. Dans les années 1970, Erickson continua dans cette voie-là en complexifiant ses emprunts au formalisme de la mécanique des fluides1. Il reconnut même la valeur du travail de Lindenmayer, mais sa préférence pour les équations différentielles et les approximations polynomiales de leurs solutions resta inattaquable chez lui. Pour quelles raisons ?
Rétrospectivement, Erickson justifia par cinq arguments explicites son choix initial pour le formalisme différentiel et donc pour l’usage de l’ordinateur au titre de simple calculateur numérique:
-
Tout d’abord, l’objet biologique qui le préoccupait (les tailles, les surfaces et les volumes, bref les dimensions), à la différence des arborescences, appelait un formalisme adapté à la mesure. Il devait donc rester métrique voire géométrique2.
-
Pour que le modèle puisse communiquer avec les mesures et s’ajuster sur les données, il fallait que les variables du modèle mathématique soient directement et objectivement mesurables : plus que d’autres formalismes, les formules analytiques (les polynômes par exemple) autorisaient le modèle à être de plain-pied avec ce qui est intrinsèquement mesurable sur le terrain. Le modèle était par-là plus commodément et plus précisément ajustable.
-
Il ajoutait : « La puissance des équations différentielles a été abondamment prouvée dans les sciences physiques et les ressources des mathématiques classiques sont disponibles pour les caractériser et les résoudre »3. Autrement dit, c’était un formalisme que l’on connaissait déjà bien et dans lequel on pouvait se poser des problèmes que l’on savait déjà techniquement résoudre par le calcul. Pour Erickson, en biologie quantitative, il fallait utiliser ce qui marche. On avait recours à ce moyen formel puisqu’il était déjà manipulable et il ne nous demandait pas d’effort dans ce sens-là. Le biologiste n’avait plus qu’à appliquer des recettes mathématiques déjà éprouvées dans d’autres domaines (la physique essentiellement).
-
En particulier, le développement relativement récent des méthodes d’analyse statistique (ayant notamment recours aux polynômes orthogonaux qui avaient été tabulés et publiés4) permettait de généraliser la méthode des moindres carrés ou des moindres rectangles et de mener jusqu’au bout le calcul des paramètres des polynômes ajustés. La calculabilité assurée des procédures d’ajustement du modèle descriptif aux mesures était donc un argument de poids également.
-
Enfin, le formalisme différentiel permettait, si l’on adopte une « bonne résolution spatiale et temporelle »1 pour les données, de fonder la formalisation sur quelque chose qui, au niveau élémentaire, avait un sens biologique acceptable : or, c’est ce que Erickson appelait, depuis 1956, le « taux élémentaire de croissance relative en surface » (« relative elemental rate of increase in area »2).
Or, précisément, c’est ce dernier argument qui semble tout de même un peu circulaire aux yeux de chercheurs comme Lindenmayer ou Lück : Erickson n’a-t-il pas construit ici un concept biologique ad hoc ? C’est-à-dire n’a-t-il pas fabriqué de toutes pièces ce concept biologique de « taux de croissance par unité de surface » pour le faire s’adapter au formalisme différentiel qu’il préférait de toute façon pour les raisons 1, 2, 3 et 4 ? Ainsi il avait beau jeu de donner ensuite l’impression de découvrir a posteriori la parfaite adaptation de ce concept aux variables métriques introduites par le formalisme différentiel…
C’est justement la fragilité de ce genre de choix dont les Lück prennent vivement conscience en ce début des années 1970. Cela n’empêchera pas bien sûr Erickson de faire école par la suite, de son côté, et de continuer à développer son approche fondée sur l’analogie des champs de vecteurs en physique3.
Pour les raisons que nous avons dites (décision de donner la primauté au comportement individuel de la cellule, caractère arbitraire de toutes les approches quantifiées et mathématiques des niveaux supérieurs à celui de la cellule), à partir de cette année 1974, les Lück vont donc pour leur part développer une utilisation systématique de certaines catégories de langages de Lindenmayer, les PDOL (Propagative Deterministic Context-free Language)4, c’est-à-dire des langages formels déterministes qui ne font intervenir aucune circulation d’information entre cellules voisines5, en conformité avec leur choix théorique initial d’une générativité mécaniste, non-finalisée et non gérée au niveau supérieur de l’organe. Ils vont ainsi appliquer les PDOL à la modélisation formelle de la morphogenèse des algues vertes filamenteuses (le Chaetomorpha linum).
L’article de 1975 du Journal of Theoretical Biology montrera la puissance de cette approche en ce qu’elle permet bien en effet de distinguer, en fonction de leur état logique interne respectif, les différentes classes de cellules observées au cours de la morphogenèse. Conformément à leur attente, le formalisme de Lindenmayer leur permet de quantifier a priori les probabilités de ces différentes classes : ils appliquent pour ce faire les théorèmes simples formellement déductibles des seuls axiomes du PDOL. Et le modèle est validé selon eux du fait que les distributions statistiques réellement mesurées sur les algues correspondent aux probabilités calculées a priori par le modèle algorithmique1. Hermann Lück se livre même à un test statistique pour montrer le caractère significatif de l’estimation des paramètres des règles du PDOL choisi. Dans ce cadre-là, l’analyse statistique est certes bien réemployée, mais d’une façon très limitée et seulement en aval du processus de modélisation algorithmique. Le modèle récursif et génératif y a donc bien détrôné à la fois l’analyse statistique et le modèle biophysique et analytique.
Par la suite, en conformité avec leur projet initial d’étendre leur recherche à l’histogenèse, les Lück vont développer des formalismes logicistes apparentés au premier qu’ils employèrent en tâchant d’adapter l’approche algorithmique de Lindenmayer à la définition de règles régissant la genèse et la structuration d’éléments bidimensionnels dans les tissus végétaux, c’est-à-dire d’éléments de surface et non seulement d’éléments linéaires comme c’était en revanche encore le cas pour les L-systèmes appliqués aux corps filamenteux (les algues). Ils appelleront ces formalismes à interprétations géométriques spatialisées des « systèmes cartographiques » ou « map-systems »2. Il est donc important pour nous de noter ici que les Lück ne considèrent pas qu’il fallait abandonner l’approche à la Erickson uniquement parce qu’ils s’attaquaient, comme Lindenmayer, à un objet biologique différent d’un point de vue de la morphogenèse (les algues alors qu’Erickson s’occupait de feuilles) ; mais, plus largement, et c’est là que l’on peut déceler leur propre option épistémologique, anti-finaliste et somme toute assez contingente d’un point de vue strictement technique, ils considèrent que ce choix qui s’était avéré en effet pertinent pour les algues doit par la suite et par principe l’être aussi pour les tissus. En étendant à l’étude de la morphogenèse des tissus la préférence formelle qu’ils ont pour les modèle d’algues, les Lück sont appelés à inventer des axiomatiques de langages formels spatialisés et à demeurer dans cette approche logiciste de la morphogenèse qui est actuellement encore la leur (en 2000).
Qu’il nous suffise d’avoir indiqué le lieu précis où se décèle chez eux un choix méthodologique relativement contingent, comme auparavant nous l’avions décelé chez Erickson. Nous ne suivrons pas en effet davantage la série de leurs travaux dès lors qu’ils ne rencontreront plus que très incidemment les critères de notre enquête historique. En effet, jusqu’au milieu des années 1980 par exemple, à aucun moment les Lück ne recourront à une représentation assistée par ordinateur. Leurs publications présenteront seulement des dessins effectués à la main et dont les parties (les parois des cellules par exemple) seront codées numériquement de manière à pouvoir y appliquer les règles d’un système formel spatialisé assez complexe. Malgré tout, et assez logiquement (comme le fit d’ailleurs Lindenmayer dès 1971), ils ne cesseront pas de se rapprocher des travaux théoriques en informatique graphique puisque leurs formalismes seront étroitement assimilables à des approches axiomatiques de type grammaires de graphes à deux et trois dimensions. Pendant les années 1980 et 1990, ils publieront ainsi un grand nombre d’articles dans des congrès d’informatique graphique. Leurs contributions toucheront donc essentiellement ces deux domaines : la biologie théorique de la morphogenèse et l’informatique graphique théorique. Ce sera une autre occasion de convergence entre biologie du développement et informatique, mais à un niveau purement théorique.
À travers ce cas d’un déplacement épistémologique de la biométrie vers la modélisation logiciste, nous voyons bien que l’usage qui est fait de l’ordinateur reste plutôt d’ordre axiomatique, déductif et donc théorique du point de vue de la biologie. Dans de tels travaux de modélisation algorithmique, la simulation réaliste est certes souvent invoquée, mais seulement à titre d’argument théorique et logique. Elle n’est que très rarement menée concrètement et jusqu’au bout. C’est plus la possibilité de simuler les logiques de la plante ou le « langage » de la plante, que la simulation elle-même qui est mise en valeur. Les modèles sont d’ailleurs validés, soit en amont de toute simulation, comme chez Lindenmayer, soit en marge de la simulation proprement dite, comme chez les Lück. Pour ces derniers, en effet, la compréhension théorique et biologique étant l’objectif principal, à la différence également de l’approche analytique et encore trop descriptive d’Erickson, la modélisation algorithmique (susceptible de donner lieu à une simulation) est intéressante en elle-même en ce qu’elle permet d’exprimer directement sous forme de théorèmes, c’est-à-dire sous forme abrégée, un certain nombre de résultats a priori, calculables à la main, et contrôlables par l’expérience, sans passer par la simulation du modèle sur l’ordinateur. Au départ, la modélisation algorithmique s’y présente donc surtout comme une nouvelle manière formelle d’exprimer une théorie et de procéder à la déduction de ses prédictions.
Or, à la même époque, il est un autre usage de l’ordinateur et des possibilités de simulation qu’il permet, qui manifeste au contraire un certain souci de représentation fidèle du réel, en l’occurrence des arbres. Dans ce type de formalisation et d’utilisation de l’ordinateur, on prend la peine de mener la simulation jusqu’à l’intuition visible, jusqu’à la construction effective d’une image de synthèse ou d’une figuration de l’objet étudié sur un écran ou un traceur de courbes. Or, la structure d’un arbre paraît plus complexe que celle d’une algue. Dans ce cas, ce n’est pas une sensibilité aux seuls arrangements mutuels des organes qui peut suffire. Comme les rameaux changent de taille et d’orientation en fonction de leur ordre de ramification, il apparaît nécessaire de prendre en compte les dimensions des organes, c’est-à-dire leur dimensions géométriques. Quelles sont donc les sources et les motivations biologiques et épistémologiques de cette autre conception, géométrique plus que logique, de la simulation ? En quoi se distingue-t-elle de la modélisation algorithmique ? Et quelles sont les rapports qu’elles entretiennent toutes deux ?
Dostları ilə paylaş: |