INTRODUCTION – De la diversité des convergences à l’unité d’une méthode
Après six longues années de silence, les travaux de simulation d’Eden vont susciter une première réponse du côté de la biologie. Comme nous le verrons, c’est un biologiste théoricien, au départ biophysicien moléculaire, qui va considérer un à un les rameaux d’une plante ramifiée et les faire simuler graphiquement sur le même ordinateur qu’Eden, et selon une procédure stochastique semblable à celle que ce dernier utilisait dès 1959. Mais un tel transfert nécessitera des amendements très instructifs. Ce sera la première collaboration effective entre un ingénieur électronicien (et statisticien) et un biologiste des plantes autour d’une machine graphique programmable et d’une méthode de simulation. Nous tâcherons de comprendre comment cette première convergence et ce premier transfert de méthodes et de concepts ont pu avoir lieu, ce qui les a déterminés et les suites qu’ils ont connues.
Par ailleurs, et comme on peut s’y attendre, ce sont des problématiques de biologie moléculaire qui vont, les premières en biologie, susciter l’idée de procéder par la modélisation des cellules individuelles dans leurs comportements différenciés. Dès lors, assez vite, et dans un tout autre esprit que celui d’Eden, certains botanistes tenteront d’emboîter le pas à ces « simulations moléculaires », en tâchant de procéder à des simulations de plantes que l’on pourrait dire également « cellulaires » à leur échelle. Ce sera la période de la modélisation logiciste ou algorithmique des algues qui mènera à quelques essais de simulations graphiques sur ordinateur.
Enfin, un peu plus tard, ces premières convergences avec le substrat biologique, encore locales, assez formelles et non opérationnelles, sembleront elles-mêmes se précipiter, converger puis cristalliser autour d’une méthode de modélisation par simulation sur ordinateur qui conduira, quant à elle, à la mise au point du premier outil opérationnel, dès 1979. Avec cette dernière convergence, la simulation des plantes individuelles, dans leur forme et leur croissance, aura alors définitivement quitté la spéculation. Elle sera vraiment descendue sur le terrain des sciences et techniques de la vie et de l’environnement. En conséquence, fidèle à notre projet d’enquêter sur les effets techniques et épistémologiques de l’ordinateur dans la modélisation récente de la forme des plantes, comme dans le statut de ses formalismes, nous concentrerons un moment notre attention sur le contexte politique et institutionnel qui a vu naître cette option tout à la fois conceptuelle et instrumentale. Une telle focalisation mettra en lumière le rôle pionnier d’un laboratoire français du CIRAD. Les autres approches n’y seront certes pas oubliées. Mais nous leur donnerons un rôle moindre que précédemment car elles n’ont pas manifesté de changements profonds, en tout cas internes, dans les deux décennies qui ont suivi. Elles ont longtemps joué le rôle de simples alternatives spéculatives avant de s’agréger pour certaines, très récemment, à cette méthode française de simulation, pour devenir, elles aussi, opérationnelles sur le terrain.
Il est un dernier point majeur à accentuer : cette convergence dernière sera polymorphe. Elle conservera la diversité des approches, mais autour d’un même outil logiciel. Elle n’aura donc pas la nature des convergences absorbantes antérieures que l’on a connues en biologie théorique et qui procédaient par l’assimilation de formalismes les uns aux autres, mais plutôt celle d’une convergence agrégeante et concrétisante. Comment cela a-t-il été historiquement possible ? Quel glissement cela a-t-il supposé pour la méthode des modèles et pour son épistémologie ? Telles seront les dernières questions que nous poserons à l’histoire récente en ce domaine.
Suivons donc d’abord l’émergence des premières simulations à vocation de réalisme. Elles sont d’inspiration géométrique et probabiliste pour les unes, logiciste pour les autres, mixte pour les troisièmes. Voyons en quoi elles rompront fondamentalement avec les usages purement informationnels ou communicationnels de l’ordinateur comme avec l’épistémologie pragmatique ou praxique du modèle perspectiviste. Ces simulations menées à bien par des biologistes sont les premières à s’être rapprochées du terrain. Elles ne seront pas les dernières. En même temps que cette série de jonctions avec l’empirie, on verra s’ouvrir une époque de convergences de multiples natures. Mais encore faudra-t-il pour cela qu’une problématique agronomique sonde les limites de l’habituelle modélisation statistique et qu’elle s’empare de la simulation pour la faire servir à des desseins pragmatiques. Encore faudra-t-il aussi qu’elle s’approprie conjointement une avancée récente dans les concepts de la botanique qui servent à la classification systématique des architectures de plantes. Toutes choses contingentes qui demandent un contexte, des institutions, des personnes mais aussi des rencontres de hasard dont il nous faudra restituer et comprendre l’entrelacs. Alors seulement, la simulation pourra sembler devenir progressivement une plate-forme intégratrice de modèles dispersés comme elle semblera aussi, et de plus en plus, favoriser la convergence entre disciplines elles-mêmes, et entre problématiques naguère cloisonnées. Tel nous apparaîtra le mouvement d’ensemble de cette troisième époque de l’histoire récente de la modélisation de la croissance et de la forme des plantes : un mouvement de convergences multiples.
CHAPITRE 16 – Simulation probabiliste de formes biologiques ramifiées : Dan Cohen (1967)
Avec le travail du biologiste israélien Dan Cohen, on assiste à la première appropriation de la simulation discrétisée et sur ordinateur par la biologie. Toutefois, avec Cohen, cette appropriation est encore le fait d’un certain versant théorique de la biologie. Au-delà de la représentation déjà assez réaliste de la ramification végétale, ce qui intéresse Cohen, c’est avant tout la possibilité de mettre en forme un argument de nature théorique et générale sur les processus de morphogenèse. En ce qui concerne sa trajectoire professionnelle, Cohen, comme la plupart des acteurs dans cette histoire de l’émergence de la simulation, a eu un parcours interdisciplinaire. De manière assez peu commune, il est en effet passé de la physiologie et de la biochimie des plantes à la modélisation de leur croissance puis, plus récemment, à des questions d’écologie évolutionnaire.
Dan Cohen s’était en effet formé auparavant dans le domaine de la physiologie des plantes. Dans un contexte de biophysique moléculaire, il avait d’abord travaillé avec le professeur Benzion Ginzburg sur les transports d’ions dans les membranes cellulaires. Sa thèse, soutenue à Oxford en 19601, portait spécifiquement sur l’existence de liaisons entre des ions Rb+ (rubidium) et des cellules de Chlorella. Il y montrait que le rayon de l’ion jouait un rôle déterminant dans ces liaisons. Mais, à cette époque, ce genre de recherche le laisse sur sa faim. Il avoue être bien plus attiré par des travaux sur le fonctionnement et l’évolution de l’organisme conçu comme un tout2. Très vite après sa thèse, il réoriente donc ses centres d’intérêts en conséquence. C’est à ce moment-là qu’il prend la mesure de l’importance de la modélisation mathématique pour la caractérisation des processus biologiques complexes et évolutifs. Au début des années 1960, le linguiste et logicien Y. Bar-Hillel (1915-1975), alors célèbre collègue et collaborateur de Carnap3, lui conseille de s’intéresser à la cybernétique et, pour compléter sa formation, de rejoindre un temps le laboratoire que Heinz von Foerster a fondé en 19584 à l’Université de l’Illinois, le BCL (Biological Computer Laboratory)5. Ce laboratoire fonctionne en effet beaucoup à partir de collaborations et d’invitations de ce type. C’est une manière pour von Foerster de continuer à faire vivre le projet cybernétique, certes entre-temps modifié par l’importance qu’il avait accordé au rôle du bruit comme créateur d’ordre et à l’auto-organisation qui en résulte6. Pendant l’année 1964, Dan Cohen y occupe donc le poste de chercheur associé auprès de Heinz von Foerster. Aux dires de Cohen lui-même, von Foerster l’aurait « aidé à définir les problèmes de base et les processus de l’utilisation optimale de l’information dans un environnement incertain »7. C’est bien en tout cas cette notion d’usage optimal de l’information biologique en milieu incertain qui définira le cadre futur de ses recherches en écologie évolutionnaire1. À partir de ce moment-là, Dan Cohen prend l’habitude systématique de s’entourer de mathématiciens plus aguerris à la manipulation des modèles mathématiques, comme plus tard ses collègues Simon Levin de Cornell puis Princeton, et Yoh Iwasa de l’université de Kyushu au Japon.
En 1967, son désir de formation interdisciplinaire et de collaboration le retrouve encore aux États-Unis, mais cette fois-ci au RLE (Research Laboratory of Electronics) du MIT. C’est là qu’il rejoint Murray Eden. Même si nous n’avons pas de document attestant de ce lien, nous pouvons supposer qu’une fois encore, Bar-Hillel, bénéficiant de ses liens constants et privilégiés avec les linguistes du « département des langues modernes » du MIT, dont Morris Halle lui-même, a introduit Dan Cohen aux travaux communs de Halle et Eden et l’a ensuite appuyé pour venir dans cette structure du MIT. Un biologiste n’aurait peut-être pas spontanément découvert2 les publications d’Eden. Comme cela a été précédemment évoqué, en 1967, Dan Cohen reprend alors en partie le même modèle que Murray Eden, mais en bénéficiant cette fois-ci des crédits du Joint Services Electronics, de la US National Science Foundation, de la NASA mais aussi des National Institutes of Health3.
Une enquête de faisabilité sur ordinateur
Pendant, ces années 1966-1967, Cohen travaille donc avec Eden, dans le même laboratoire que lui, et bénéficie également de la technologie du calculateur TX-2. À la différence d’Eden cependant, Cohen est un biologiste et sa problématique reste biologique : il demeure attaché au département de botanique de l’Université Hébraïque de Jérusalem. De son point de vue, il perçoit l’intérêt théorique des premiers travaux de Murray Eden pour la biologie mais il envisage de les améliorer en s’efforçant de retrouver certains concepts propres à la morphologie botanique et à l’embryologie de l’époque, notamment celle de Conrad Hal Waddington. La question précise que se pose Cohen est en effet celle de savoir s’il est possible de tester théoriquement l’hypothèse waddingtonienne d’une morphogenèse conçue comme le fruit d’un « ensemble hiérarchiquement ordonné d’interactions entre des gènes, des produits de gènes et l’environnement extérieur »4. Cohen fait ici allusion à la notion de « paysage épigénétique » que Waddington avait introduite en 1957 dans son The strategy of the genes5 en adaptant à l’échelle de l’ontogenèse la notion antérieure de « paysage adaptatif » de Sewall Wright (1932).
L’intérêt de Cohen est donc de valider un argument théorique à valeur très générale : ce faisant, il commence à relier ainsi ses propres questions d’écologie évolutionnaire à cette problématique morphogénétique de l’épigenèse telle que Waddington l’avait précédemment réintroduite en embryologie. Sans volonté de calibrer précisément son modèle de morphogenèse sur des cas réels, il veut montrer une faisabilité à un niveau très général : la faisabilité pour les êtres vivants d’une croissance et d’un développement évolutifs et adaptatifs sans besoin de recourir à des lois d’une complexité excessive, cette complexité étant exprimée chez lui en terme d’« information ». Selon lui, si on arrivait à écrire un programme informatique « minimal » mettant en œuvre des règles de génération « les plus simples possibles »1 pour des formes ramifiées déjà assez réalistes globalement et qualitativement (à l’œil), on pourrait considérer qu’on a accru la plausibilité de l’hypothèse épigénétique de Waddington et donc, avec elle, les postulats analogues de l’écologie évolutionnaire, si l’on peut traiter, en première approximation, le monde organique à l’image d’un organisme unique. Ce qui serait faire retour vers la notion voisine de Sewall Wright.
Des classes d’éléments hiérarchiquement organisés et sensibles à l’environnement
Il s’agit donc bien de faire dessiner une structure ramifiée par un calculateur connecté à une table traçante. Cohen reprend alors l’approche probabiliste d’Eden pour la branchaison. Mais, pour bien faire apparaître l’utilité, d’un point de vue de biologie théorique, de ce qu’Eden appelait l’apparition d’une « dissymétrie », il propose de prendre en compte ce qui s’appelle, en embryologie organiciste, un « champ de densité » morphogénétique. C’est notamment dans cette substitution terminologique que se situe la clé du transfert de la simulation de l’analyse combinatoire vers la morphologie biologique, chez Cohen. Cette notion de « champ » avait précédemment été introduite en embryologie en 1932 par J. S. Huxley2. Prenant lui-même déjà modèle sur la notion physique de champ, Huxley avait ainsi voulu généraliser la notion de gradient (dont on se souvient qu’elle est due originellement à C. M. Child, 1916) en ne privilégiant plus une direction axiale précise3. Elle avait été ensuite reprise par Waddington pour expliquer des phénomènes embryologiques apparentés à ce principe, déjà ancien en botanique, de la pousse dans le plus grand espace libre.
Or, et ce point est d’importance, si Cohen veut rendre compte de ce champ avec la technique simulatoire d’Eden, il ne peut se contenter de sa grille de cellules carrées. Il considère donc le plan géométrique muni d’une résolution spatiale, pourrait-on dire, plus petite. Il prend ainsi en compte les 36 points qui avoisinent le point initial de la croissance ou de la branchaison éventuelle et qui sont écartés chacun d’un angle de 10° (car 36*10° = 360°). Chacun de ces 36 points directionnels se voit affecté d’un « champ de densité » qui est calculé à partir des distances de ce point aux autres éléments de l’arbre en construction4. Ces 36 points pondérés désignent alors ensemble une direction de pousse préférentielle variable pour chaque départ de pousse potentielle5. Après la forte discrétisation d’Eden, Cohen se voit donc significativement dans l’obligation de re-géométriser l’espace de la morphogenèse biologique. Cette re-géométrisation de l’espace signifie que Cohen ne voit pas comment faire dessiner une plante suffisamment réaliste dans sa forme s’il s’en tient à une approche cellulaire grossière : il resserre les mailles du réseau et il retient donc surtout la formalisation probabiliste.
La longueur et l’angle de la croissance qui s’effectue à partir du point initial sont en effet déterminés par le champ de densité. Les règles de branchaison, elles aussi, sont sensibles à ce champ de densité, mais, surtout, elles sont probabilistes. Leur probabilité est exprimée en fonction du champ. Un test est effectué à chaque point de croissance par le tirage d’un nombre au hasard, selon la méthode de Monte-Carlo, afin de déterminer si l’ordinateur doit ajouter une branche ou non en cette direction. Enfin, et c’est là que Cohen peut introduire son idée d’une épigenèse programmée mais toutefois sensible à la contingence de l’environnement, il reprend à Eden l’idée d’une probabilité de branchaison variable en fonction des directions du plan : cela permet de simuler des champs de densité hétérogènes dus cette fois-ci, non seulement aux parties déjà présentes de l’organisme, mais aussi à l’éventuelle préexistence d’un obstacle matériel étranger à l’organisme et empêchant sa pousse dans telle ou telle zone du plan. Disposant de cette souplesse de programmation, il peut également simuler des zones qui, au contraire, favorisent la pousse : la forme obtenue lui rappelle explicitement les expériences de croissance de moisissures sur un substrat nutritif hétérogène1. Mais aussi, et c’est également nouveau, Cohen choisit de faire varier les probabilités de croissance et de branchaison en fonction du rang graphique, donc, selon son interprétation biologique du dessin obtenu, en fonction du rang botanique de la branche par rapport au tronc2. C’est bien là tester l’hypothèse de la genèse hiérarchiquement organisée. Car le rang incarne bien une différence de statut biologique au niveau de l’organisation générale de la croissance.
Comme les dessins lui semblent donner des allures d’arbres ou de nervures de feuilles, ou bien encore de moisissures, qualitativement réalistes, le résultat de cette simulation lui paraît donc très concluant. Il a suffi à relever les deux défis initiaux de sa problématique théorique de l’épigenèse : 1- prouver la crédibilité d’une croissance biologique à la fois contrainte par des règles dont les formes sont fixes mais dont les paramètres sont sensibles à l’environnement ; 2- prouver la crédibilité de la représentation théorique de ce processus de croissance comme hiérarchiquement organisé. C’est donc l’ensemble de ce travail de simulation qui est publié dans la revue Nature en octobre 1967.
Les rôles de la programmation modulaire, de la simulation et de la visualisation
Quand on lit Dan Cohen, on voit quels sont les rôles argumentatifs qu’il donne au calculateur numérique et à sa sortie graphique. Tout d’abord, grâce à la programmation modulaire en FORTRAN3, la variation des paramètres biologiques des lois de probabilités de croissance lui semble directement incarnée, ou représentée dans la variabilité des paramètres des sous-routines appelées par GOSUB. La structure des lois de probabilités, elle, ne change pas : ces lois peuvent donc toujours renvoyer à la même sous-routine pour être ensuite testées par un tirage de nombre au hasard. Mais ce sont leurs paramètres qui sont en revanche variables. Ils sont fixés de l’extérieur en conformité avec la configuration contingente et évolutive de l’environnement de la pousse potentielle. Grâce aux branchements conditionnels rendus possibles par la programmation informatique, le modèle peut donc intégrer une sensibilité à l’environnement qui s’exprime comme un effet en retour de l’environnement sur les paramètres génétiques. Ces sous-routines présentent bien en elles-mêmes la propriété de rechercher l’optimum spatial par auto-adaptation des règles de pousse. Il y a là un principe proche de ceux qu’affectionne Heinz von Foerster.
Ensuite, Cohen fait remarquer que ces règles mathématiques à paramètres variables sont des plus simples. La brièveté de son programme en FORTRAN (environ 6. 10 bits) est là pour confirmer la faisabilité de ce genre de scénario pour la nature : la petite taille du programme accrédite l’idée, d’abord contre-intuitive, que la morphogenèse naturelle n’a peut-être besoin que d’un nombre limité d’« informations » élémentaires. Cohen va même jusqu’à évaluer le nombre de gènes qui seraient nécessaires pour l’insertion biologique de ces 6. 1044 bits : 30 gènes1. Cette propriété de brièveté du message informatif est également due au caractère modulaire de la programmation qui évite la répétition, dans le programme, d’instructions informatiques de formes identiques.
Enfin, il faut noter qu’avec ce modèle, Cohen n’a pas le souci de faire que le résultat ressemble encore parfaitement à un objet biologique qui l’intéresserait particulièrement. C’est là que le caractère encore théorique de son approche se manifeste donc le mieux. Toutefois, il utilise la capacité qu’a le TX-2 de visualiser ces calculs de positions de point sur une table traçante pour évaluer la réussite de son projet : il veut montrer visuellement que l’hypothèse d’une croissance à la fois structurée et épigénétique peut valoir pour les phénomènes naturels.
Le rôle épistémique de la simulation pour la biologie du développement
À ces trois rôles que Cohen confère à l’ordinateur, s’en ajoute enfin un quatrième, plus général, et qui rassemble en fait en une seule fonction épistémique les trois rôles précédents : pour le biologiste théoricien qu’il est devenu, la simulation sur calculateur numérique a pour fonction de tester des hypothèses théoriques. On pourrait s’étonner de la présence de cette idée dans la mesure où, dans la biologie des formes des années 1960, c’est surtout l’observation ou l’expérimentation sur le terrain ou en laboratoire qui sert à tester les hypothèses théoriques. Il est intéressant de revenir sur ce que veut dire précisément Cohen à ce sujet dans la mesure où l’on a sans doute ici un des premiers travaux où un théoricien de la biologie des formes s’approprie effectivement une idée qui, jusqu’à présent et pour cet objet d’étude, n’avait été avancée que par des non-spécialistes, c’est-à-dire par des non-biologistes. L’idée que l’on peut tester des hypothèses théoriques par des simulations numériques avait été exprimée, on s’en souvient, dès les débuts des calculateurs numériques, mais d’abord dans des travaux de physique nucléaire puis de biochimie et de physiologie. Sous l’impulsion des travaux initiés par le statisticien Eden, c’est donc bien chez Cohen qu’une première appropriation de l’idée de la simulation numérique entendue comme test d’hypothèse morphogénétique semble s’imposer. C’est donc avec lui que la biologie du développement et de la forme semble pouvoir s’assimiler les usages de l’ordinateur non pas seulement comme calculateur mais comme simulateur. Voici pour quelle raison selon lui :
« Un programme de simulation qui incorpore des hypothèses au sujet du processus de génération d’une forme naturelle fournit une méthode de rejet non ambigu d’hypothèses incorrectes au moyen de la comparaison entre la forme naturelle et sa simulation. »1
Selon Cohen, il faut donc deux conditions pour considérer que l’on a affaire à une simulation permettant de rejeter une théorie.
Premièrement, il faut que le programme informatique lui-même « incorpore » les hypothèses. Or, on remarquera deux choses à ce sujet : le programme a bien d’abord pour effet de matérialiser en quelque sorte ce qui n’était jusqu’à présent que formulations verbales. En ce sens, le programme gagne une proximité avec l’empirie. De surcroît, la représentation informationnelle des gènes et de la « programmation génétique », courante à l’époque, aide à cette identification. Ensuite, il faut noter le pluriel d’« hypothèses » : le programme donne de la chair à un ensemble d’hypothèses et non à une hypothèse isolée. Comme on l’a vu, c’est la diversité des règles qui remplace l’unicité d’une loi. Dans ce programme, il y a les règles de croissance et les règles de branchaison, par exemple : ces deux types de règles supposées sont testés ensemble, imbriqués l’un dans l’autre.
Deuxièmement, il faut qu’une comparaison soit possible avec les « formes naturelles ». Autrement dit, la simulation ne peut avoir la force de rejeter des hypothèses que si le calculateur va jusqu’à fournir des moyens de comparaison avec l’empirie : la simulation ne rejette pas d’elle-même un ensemble d’hypothèses ; il faut que son pouvoir de rejet lui vienne, par transitivité, de la forte ressemblance de ses résultats avec ceux que l’on trouverait dans la nature. Or, il est important de noter que c’est grâce au système technique de visualisation ajouté au calculateur TX-2 que la simulation communique à l’ordinateur son pouvoir de rejeter des théories morphogénétiques, pouvoir qui, jusqu’à présent était l’apanage de l’expérimentation réelle. Notons toutefois que cette comparaison (donc cette relation de transitivité) ne se fait ici que de manière qualitative, à l’« œil », pourrait-on dire. C’est sans doute pour cela qu’à la différence d’Eden et Ulam, Cohen, sachant de quoi il parle en matière de substrat biologique, est le premier à utiliser le terme « simulation » pour désigner ce type de modélisation et de visualisation des formes vivantes sur calculateur2. Mais selon Cohen, ce caractère ponctuellement qualitatif n’enlève rien à la non-ambiguïté du procédé global de test d’hypothèses. Car il n’évoque ici que des phénomènes de forme déjà répertoriés comme typiques, génériques, et aisément reconnaissables globalement et à l’œil nu. Selon lui, dans le cas d’une approche théorique de la biologie des formes, les dessins de la table traçante suffisent, pour le spécialiste, à évoquer des formes d’organismes réels et réellement observés. C’est cette seule évocation elle-même qui suffit. Ainsi, les dessins ne prouvent pas les hypothèses, mais ils ne les rejettent pas et ils les conservent comme plausibles. Mais en quoi cette preuve de plausibilité ou de faisabilité importe-t-elle tant pour la biologie théorique, selon Cohen ?
Pour tenter d’éclairer les motivations épistémologiques de Cohen, nous irons jusqu’à proposer, pour notre part, une analyse complémentaire de ses résultats comme de sa proposition méthodologique à propos des usages de l’ordinateur en terme de « contenu informatif » des hypothèses. Ce type d’interprétation s’appuie sur le raisonnement que tient Popper à propos de l’apport informatif important que peut constituer la simple corroboration d’une théorie audacieuse1. Ce pourrait être en effet une piètre avancée pour une théorie biologique de montrer qu’elle est tout au plus plausible. Mais en fait, ce qui nous apparaît à la lecture de l’article de 1967, c’est que, aux yeux de Cohen, la démonstration de sa plausibilité apporte beaucoup à la biologie théorique dans la mesure où il était a priori plus vraisemblable (au sens de plus intuitif) pour ses détracteurs que de telles règles simples et en nombre limité n’existent pas. Donc la simulation enseigne vraiment quelque chose de nouveau au biologiste à partir du moment où elle lui montre la possibilité, pour un phénomène précis, que la nature procède d’une façon contre-intuitive au regard des critères habituels de l’époque, c’est-à-dire ici qu’elle procède par des moyens simples pour obtenir des effets compliqués. Dans ces conditions, on conçoit mieux que la simulation numérique prolongée par une visualisation des formes peut gagner un statut argumentatif en biologie théorique. Cette suggestion d’interprétation complémentaire se confirme par ailleurs si l’on remarque que Cohen insiste sur le fait que ce qui importe, c’est bien la démonstration qu’une petite quantité d’information peut commander une morphogenèse au résultat compliqué2. Même s’il est biologiste, cet argument est repris directement des réflexions d’Eden3 mais aussi des propos couramment tenus par les promoteurs de la cybernétique.
Il est d’ailleurs significatif que Cohen ne continue pas ensuite à simuler par ordinateur les processus de croissance de formes biologiques mais se concentre sur des problèmes de la biologie évolutionnaire. Mis à part un article de 1970, dans lequel il a encore recours à l’ordinateur pour simuler la genèse de formes par des interactions locales4, il travaille de plus en plus avec les concepts du contrôle optimal qu’il adapte alors à la biologie des « histoires de vie »5. De son point de vue, le biologiste qu’il est a en effet atteint son but théorique initial avec cette simulation de 1967 : montrer une faisabilité, montrer notamment la validité du concept théorique d’« utilisation optimale de l’information »6 pour le développement, mais non point utiliser la simulation au maximum de ses capacités pour prédire exactement une croissance dans le but pragmatique d’agir sur les productions naturelles soit pour les exploiter, soit pour les modifier. La perspective de Cohen restant théorique, la simulation reste pour lui un outil d’argumentation conceptuel, même si, dans cette première incursion dans la biologie du développement, une attention essentielle est donnée au résultat figuratif.
Importance du couplage du calculateur avec un dispositif de visualisation
À titre de bilan rétrospectif et provisoire, et d’après les travaux pionniers du biologiste Dan Cohen, il nous est en effet possible de mieux comprendre l’importance de la mise à disposition de périphériques de visualisation des résultats, à côté de la plus grande accessibilité des calculateurs, pour le transfert des techniques de simulation numérique dans la biologie de la forme et du développement. Comme nous l’avons vu, il n’a pas suffi que les formalismes se spatialisent au moyen de processus aléatoires simulés. Cohen a également utilisé la faculté d’inscrire des traits quasiment en continu sur une surface dotée d’une grand nombre de points. Et c’est cela qui nécessitait un appareil de visualisation connecté au calculateur. Toutefois le nombre total de points calculés (quelques dizaines) et figurant sur le plan géométrique n’empêchait pas en principe que Cohen dessine lui-même les figures résultantes sur du papier quadrillé à partir des nombres donnés en sortie par le calculateur. Mais il ne faut pas oublier que c’est également la rapidité et la souplesse de l’ensemble (calculateur plus table traçante) qui autorisait Cohen à faire de très nombreux essais de paramétrage pour obtenir, un peu à tâtons donc, des dessins évoquant des formes biologiques réelles. Comme les sous-routines n’étaient calibrées sur aucune mesure de terrain, il fallait disposer d’un dispositif permettant ce genre de tâtonnement. De surcroît, avec une finesse de résolution certaine, cet appareil devait également permettre à Cohen de regéométriser la grille cellulaire et rectangulaire d’Eden en affinant considérablement la résolution initiale du modèle probabiliste. Il s’agissait en effet pour lui de pouvoir exprimer et mesurer bien plus que des simples voisinages, à savoir des angles et des longueurs, afin de rendre ainsi plus réalistes d’un point de vue biologique les dessins obtenus, donc plus susceptibles de servir au test des hypothèses biologiques.
C’est pourquoi l’on peut dire que la biologie du développement et de la forme s’empare de la simulation, notamment avec Cohen, à partir du moment où les calculateurs numériques s’adjoignent des tables traçantes ou des écrans performants. Mais comme nous l’avons vu, ce sont d’abord des hypothèses théoriques qui sont évaluées. Cependant elles sont évaluées indirectement sur des conséquences assez lointaines, entremêlées et même quasi-qualitatives, puisqu’il n’y a pas de discrimination quantitative pour estimer la recevabilité du modèle mathématique : les dessins ne sont pas évalués en tant que relevés des formes exactes ni codifiés mathématiquement ou formellement. Le calculateur et sa table traçante autorisent que la formalisation de la biologie des formes porte en fait d’abord sur ce qui est caché ou plutôt sur ce qui n’est pas la forme mais qui est à son origine.
Comme la biologie des formes n’a pu d’abord inscrire directement en un langage formel la forme des vivants elle-même (de par l’insuffisance des langages mathématiques classiques), pour tâcher d’en restituer ensuite la genèse par un modèle abstrait selon une méthode inductive, elle a alors conçu, à l’inverse, des hypothèses, quant à elles formalisables informatiquement, au sujet de ce qui engendre ces formes pour leur faire engendrer ce qu’elle voyait qualitativement : la forme globale. Ce sont ces hypothèses atomiques, car portant sur des éléments en interaction, qui bénéficient d’un traitement sur ordinateur. Le mouvement de rapprochement entre expérience et théorie n’est donc pas ici d’abstraction mais de concrétion, ou de concrétisation, si l’on préfère. Au lieu de tirer l’expérience vers le théorique en abstrayant, on fait le mouvement inverse (mais duquel résulte un égal rapprochement) de tirer le théorique vers l’expérience par une concrétisation du théorique qui se traduit, en biologie des formes, par une re-qualification du quantitatif : un dessin globalement perceptible et qualifiable à l’œil nu.
Finalement donc, même si Cohen reprend à Eden son approche cellulaire, il en reste à une prise en compte très imprécise de la morphogenèse. Même s’il regéométrise et s’il peut pour cela faire converger la simulation vers une réalité globalement reconnaissable, il ne prend en compte que des morceaux d’organes qu’il coupe les uns des autres en fonction de ce que le formalisme commande et sans souci préalable de leur signification biologique ni de leur individuation histologique ou physiologique. C’est cela qui fait le caractère encore fortement spéculatif de ses simulations stochastiques, géométriques et graphiques. Or, il n’en va pas de même pour une série de travaux qui ont leur source dans la prise en compte d’un niveau biologique à l’époque clairement discrétisé : la biologie cellulaire et la biologie moléculaire. Là se développera un terrain favorable à une approche davantage susceptible d’offrir une jonction effective avec l’empirie. La difficulté de la gestion de l’hétérogénéité de parties qui soient en même temps discrètes y est moindre, en effet. Et la modélisation algorithmique de la morphogenèse en tirera par la suite des leçons.
Dostları ilə paylaş: |