CHAPITRE 17 - La simulation d’automates biologiques moléculaires sur ordinateur : Walter R. Stahl (1961-1967)
Jusqu’à présent, avec les travaux de l’élève de Rashevsky, Robert Rosen, nous avions vu comment la biologie théorique d’origine biophysique, en devenant progressivement sensible aux formalismes mathématiques qualitatifs puis informationnels y résiste toutefois et décide de recourir dans ses théories à des « automates logiques » conçus sur le modèle de la machine séquentielle de Turing. Or, dans ce contexte théorique, l’ordinateur accède essentiellement au statut d’un opérateur de formalisation, aux côtés des formalismes topologiques, par exemple. Mais, avec les travaux de W. R. Stahl, la biologie théorique va se décider à donner également un autre rôle à l’ordinateur : celui de simulateur, en l’espèce, celui de simulateur algorithmique. Comme nous l’avons vu, auparavant, dès 1960, en particulier dans les travaux d’Ulam, certains non-biologistes n’avaient pas pour leur part senti de difficultés dans le fait d’admettre que l’on pouvait simuler le vivant et, spécifiquement, la mise en place des formes du vivant au moyen de l’ordinateur. Mais ces simulations n’avaient pas place dans le cadre d’une enquête biologique proprement dite et elles ne revendiquaient d’ailleurs pas cette position. Aucun calibrage sur des données biologiques de terrain n’avait été mené. D’un autre côté, à la même époque, il est par exemple significatif que Rosen, alors même qu’il a une parfaite compréhension des principes du calculateur numérique, ne voit pas l’intérêt qu’il y aurait à disposer d’un ordinateur dans son laboratoire de biologie théorique. On voit ainsi que, pour lui, l’obstacle ne provient pas d’une ignorance conceptuelle, puisqu’il intègre avec une grande maîtrise les concepts de la théorie des automates dans ses propres formalismes, mais qu’il s’enracine plutôt dans des choix théoriques et épistémologiques qui remontent eux-mêmes aux choix antérieurs du Committee on Mathematical Biology et de Rashevsky, son fondateur historique.
Mais à partir du moment où une biologie théorique d’origine biophysique et rashevskyenne, suivant en cela le mouvement contemporain de molécularisation de la biologie, tente, à l’échelle moléculaire cette fois-ci et non plus seulement cellulaire, de représenter formellement et par des automates les processus enzymatiques en cause dans une cellule (comme le copiage de l’ARN, etc.), les opérateurs formels que sont les « automates moléculaires » peuvent avantageusement être eux-mêmes représentés directement dans un automate universel (comme un ordinateur programmable en FORTRAN) et mener ainsi à une simulation algorithmique des interactions entre ces objets automatiques qui sont à la fois formels et représentables physiquement par des molécules. En se molécularisant, et cela notamment sous l’effet du développement de la biologie moléculaire, la biologie relationnelle s’ouvre à la simulation sur calculateur numérique. Mais, comme on le verra, ce n’est déjà plus une biologie relationnelle au sens initial que lui donnèrent Rashevsky et Rosen.
C’est le biologiste théoricien Walter R. Stahl qui, dès 1963, se propose de simuler sur ordinateur ces formalisations de molécules agissantes (les enzymes) par automates logiques dans leurs interactions au sein de la cellule vivante. Stahl ajoute ainsi à l’approche de Rosen l’idée de recourir à l’ordinateur comme objet technique, comme instrument opérationnel, pour faire réellement fonctionner les représentations de ces formalismes automatiques au niveau moléculaire. Mais comment Stahl en vient-il à s’autoriser ce que Rosen s’était interdit ? En quoi l’échelle des phénomènes biologiques qui l’intéressent a-t-elle pu l’inciter, plus qu’une autre, à recourir à l’ordinateur pour simuler le fonctionnement du vivant ?
De l’« analyse dimensionnelle » à l’« automate moléculaire »
Afin de répondre à ces questions, il faut revenir un peu en arrière, sur la lancée intellectuelle des premiers travaux de Stahl : on y repère d’abord un déplacement sensible, et à première vue surprenant, d’un intérêt pour l’analyse dimensionnelle en physiologie et en anatomie vers la pratique de la modélisation mathématique des molécules interagissant dans la cellule. Il nous faut donc d’abord tâcher de comprendre le sens que Stahl confère à ce déplacement d’une problématique des formes (inspirée des lois d’allométrie) vers une problématique de biologie moléculaire.
En 1961, c’est bien d’abord dans l’esprit de la biophysique rashevskyenne que le jeune W. R. Stahl termine sa thèse en biologie mathématique et théorique. Dans ses premiers travaux, et à la suite de la mise en évidence par d’Arcy Thompson, Huxley, Teissier puis Rashevsky de ce que ce dernier lui-même avait appelé le principe de « proportionnalité dimensionnelle » entre différents organismes vivants1, Stahl propose l’idée d’appliquer systématiquement aux dimensions physiologiques (masses, tailles, flux, …) des mammifères les idées de l’analyse dimensionnelle jusque là essentiellement développées dans la conception des artefacts technologiques et donc dans le domaine de l’ingénierie mécanique, chimique, rhéologique, météorologique ou thermodynamique. Selon lui, s’il est vrai qu’un cœur de souris qui pèse 0,1g et un cœur de baleine qui pèse 150kg2 peuvent exercer l’un et l’autre la même fonction pour un corps à chaque fois proportionné selon des critères dimensionnels précis, il doit être possible d’établir un parallélisme entre la construction de modèles en technologie et ces rapports d’identification non-dimensionnels qui peuvent exister de façon si remarquable entre les espèces de mammifères. Autrement dit, Stahl prolonge les travaux antérieurs sur l’allométrie de Huxley et Teissier mais également ceux de Cohn et de Rashevsky car il procède lui aussi à une modélisation mathématique fondée sur un point de vue fonctionnel et sur une épistémologie influencée par les méthodes de « conception » (« design ») de l’ingénierie. Mais il insiste davantage sur l’intérêt jusque là inaperçu qu’il pourrait y avoir pour le biologiste modélisateur à ne manipuler que des nombres sans dimensions. Son but affiché est de proposer une nouvelle forme de modélisation mathématique en biologie physiologique qui s’appuie explicitement sur l’existence d’une espèce de modélisation naturelle, pourrait-on dire3. En effet, ces nombres, déduits des équations fonctionnelles déjà connues ou à découvrir, seraient appelés à remplacer les équations puisque, du point de vue de l’interprétation de l’appartenance biologique de tels systèmes, ils en représenteraient comme une caractérisation essentielle dès lors qu’ils permettraient de dépasser tel ou tel cas d’espèce animale en son individualité. De plus, selon Stahl, il ne s’agit pas là d’une modélisation purement démonstrative qui ne ferait qu’illustrer une caractéristique spécifique d’un organisme mais d’une modélisation vraie [« a true model »4] en ce qu’on y a affaire aux bons dimensionnements permettant de faire jusqu’à des mesures sur le modèle qui vaudront ensuite pour le prototype1. Modéliser par des nombres sans dimension aurait ainsi le paradoxal mais compréhensible avantage de faciliter le dialogue entre les mesures sur le terrain et les modèles mathématiques.
Sans se livrer d’abord à des expérimentations nouvelles mais en s’appuyant sur des travaux de physiologie pour l’essentiel déjà forts anciens, Stahl donne alors une liste assez longue de tels nombres sans dimensions2. Il généralise en cela ce contournement du problème de la mathématisation de la forme du vivant par le passage à la croissance relative (rapports intrinsèques) tel que nous l’avions vu à l’œuvre et analysé chez Teissier. Ces nombres sans dimension sont ainsi tous calculés à partir de valeurs physiques ayant un sens physiologique ou anatomique. Une des particularités de son travail est qu’il insiste à maintes reprises sur la parenté entre cette similitude biologique et la modélisation technologique telle qu’elle intervient en hydrodynamique, par exemple ; il assimile ainsi pleinement la nature de ces nombres physiologiques sans dimension à celle du nombre de Reynolds, par exemple, qui caractérise le rapport des forces inertielles aux forces visqueuses s’exerçant dans un fluide, mis à part le fait que dans le cas biologique, la généralité de ces nombres sans dimension lui paraît tout de même moindre3. Mais, selon lui, cela permet néanmoins de définir des « classes » de systèmes physiologiques. C’est là pour lui, en quelque sorte, reprendre la notion de similarité qualitative que Rashevsky avait mise en évidence avec son « principe d’épimorphisme » réputé valoir entre fonctions organiques et entre organismes entiers. Mais, à la différence de Rashevsky, Stahl précise sa propre notion de similarité en la faisant d’abord s’appuyer sur des éléments organiques précisément mesurables, c’est-à-dire sur des structures quantifiables (avec leurs dimensions physiques) et non sur des fonctions4, et ensuite en la « déquantifiant », si l’on peut dire, par passage de ces quantités structurelles à leurs rapports constants et, pour finir, aux nombres sans dimensions nés de la constance de ces rapports métriques.
Un des arguments majeurs que Stahl avance en faveur de l’intérêt du passage, en physiologie, d’une approche métrique à une approche sans dimension5 s’appuie sur une réflexion ayant sa source en génétique : il est probable, selon Stahl, que les gènes soient à concevoir comme porteurs d’éléments d’information non dimensionnelle6. Dès lors, le travail du développement de l’organisme et de ses organes (embryogenèse, organogenèse) serait assimilable à la transcription d’une série d’informations (représentables par des nombres sans dimensions) en équations dotées de variables dimensionnées1. Autrement dit, aux yeux de Stahl, en usant de cette représentation non-dimensionnelle des structures anatomiques ou des processus physiologiques, on s’approche d’une représentation de ce qui semble plus directement déterminé par les gènes. Donc, tout en étant attentif aux invariants de structure, on se rapproche de ce que font les gènes, de leur fonction. D’où son grand intérêt a priori.
Une influence de la biologie moléculaire sur la modélisation mathématique du vivant
En 1962, dans la suite de ses recherches, notamment après son travail de post-doctorat au service des National Institute of Health et une fois qu’il a été intégré aux départements de médecine et de mathématique de l’Université d’Etat ainsi qu’au Département de Biométrie du Centre de Recherche sur les Primates de l’Oregon, Stahl abandonne quelque temps l’application de l’analyse dimensionnelle à la biologie pour se consacrer précisément à la modélisation de l’activité enzymatique dans la cellule en gardant à l’esprit l’idée que c’est précisément cette activité qui est déterminée par les gènes. Il passe donc d’un projet de modélisation mathématique de l’anatomie et de la physiologie à la modélisation des objets particuliers de la toute jeune biologie moléculaire : les molécules, les gènes et les enzymes. Selon nous, il faut voir dans cette évolution a priori assez étonnante, même si l’époque s’y prête, deux raisons possibles et non exclusives. D’une part, dès son arrivée dans l’Oregon, Stahl fréquente régulièrement ses collègues du Département de Traitement Automatique des Données dans la mesure où le Département de Mathématiques auquel il est rattaché abrite déjà un groupe de traitement de données dédié aux « biomathématiques »2 : il sympathise notamment avec un automaticien du nom de Harry E. Goheen avec lequel il publie un article important dès 1963 : “Molecular Algorithms”. Ce dernier l’initie au formalisme des machines séquentielles au sens de Turing. Or, la rencontre avec les idées de Turing constitue pour lui une véritable révélation. En 1967, Stahl avouera même que c’est plutôt sous l’influence particulière de l’article tardif “Computing Machinery and Intelligence (Can Machines Think ?)” de Turing (1950)3 qu’il propose en 1963 la notion de « modélisation algorithmique »4. En effet, il aperçoit là une possibilité de généraliser sa vision de la modélisation (qu’il percevait d’abord sous le seul angle de l’analyse dimensionnelle et de l’invariance numérique) en employant ce qu’il appelle des « critères de similarité » : la modélisation de la pensée humaine telle que la propose et l’anticipe Turing, dans son fameux test de 1950, n’est, pour Stahl, rien d’autre qu’une forme de modélisation où réside là aussi une invariance minimale mais qui n’est plus de nature dimensionnelle, métrique ou numérique, mais seulement algorithmique. L’expression « critères de similarité » se veut donc plus englobante encore puisqu’elle intègre aussi bien les invariants numériques entre un modèle et son prototype que les invariants algorithmiques : en ce sens une machine pourrait penser de façon similaire à un homme. Elle pourrait procéder selon les mêmes étapes élémentaires d’induction, de déduction ou de calcul, par exemple. Il y aurait ainsi une invariance algorithmique de l’homme à la machine.
D’autre part, au vu des avancées récentes de la génétique biochimique et en continuité avec les derniers propos que nous avons rapportés de son article de 1962, Stahl croit pouvoir d’ores et déjà tirer une conséquence radicale pour la conception que l’on doit se faire de la cellule :
« Durant la dernière décennie, un progrès spectaculaire dans l’analyse de la génétique biochimique et de la biologie moléculaire a conduit à la conviction croissante que tous les processus cellulaires sont logiquement contrôlés et complètement déterminés par le code génétique. Du point de vue des mathématiques modernes, la cellule peut être regardée comme un grand système de computation ; et ses mécanismes de contrôle général peuvent être examinés à la lumière de la théorie de la computation. »1
Stahl a donc le projet de construire une représentation algorithmique des processus enzymatiques et cellulaires parce que, selon lui, on dispose désormais de connaissances biologiques nouvelles qui, sur le fond de ce qu’elles révèlent du fonctionnement enzymatique, légitiment pleinement le recours à des mathématiques qui se trouvent être elles aussi nouvelles. Il lui semble qu’à l’échelle moléculaire, on peut d’ores et déjà faire l’économie du passage par l’analyse dimensionnelle, par cette technique de modélisation qui devait servir à terme à extraire du vivant des rapports à la fois constants et interspécifiques. En effet, de par son origine biophysicienne, Stahl connaissait les derniers travaux « biotopologiques » de Rashevsky et Rosen. À leur contact, il avait perçu l’importance qu’il y avait de trouver d’autres mathématiques que la géométrie ou que l’analyse : son engouement antérieur pour l’analyse dimensionnelle peut aussi rétrospectivement s’expliquer par le fait qu’il cherchait déjà à l’époque à s’émanciper des métriques pour atteindre à un niveau plus formel. Et lorsqu’il prend connaissance de la théorie des automates logiques, Stahl envisage de recourir à l’ordinateur car il a la forte impression de se trouver à la croisée féconde d’une connaissance nouvelle et d’un formalisme tout trouvé. De plus, et à la différence de Rosen, cette application des automates, à la condition qu’on la conçoive au niveau moléculaire, lui semble pouvoir être comprise plus largement et à deux niveaux : au niveau du formalisme comme au niveau de la manipulation du formalisme, à savoir au niveau d’une simulation sur ordinateur du formalisme des automates. Qu’on observe ici que c’est bien toujours pour Stahl se placer dans la continuité d’une attention préférentielle aux structures concrètes des organismes, en forte rupture avec le premier tournant topologique et abstractif de la biologie relationnelle : car c’est bien le changement d’échelle structurelle, le passage au niveau moléculaire qui, selon lui, autorise que la structure spatiale soit simulée en fonctionnement, c’est-à-dire que la structure soit représentée en même temps comme une fonction, que la structure soit fonctionnante du fait même de sa structuration. Ainsi, la structure moléculaire (la chaîne d’ADN par exemple) semble fonctionner tout en structurant et en se structurant, au même titre que la bande de données d’une machine de Turing.
C’est cette possibilité, accessible semble-t-il précisément et d’abord uniquement au niveau moléculaire, de marier la représentation mathématique structurelle d’une structure biologique et la représentation mathématique fonctionnelle d’une fonction biologique qui incite Stahl à passer à la simulation des automates logiques, c’est-à-dire à leur représentation sur ordinateur. Il passe ainsi à une représentation automatique des automates. Ce faisant, il passe également ce cap que Rosen n’avait voulu franchir : le cap de la simulation, c’est-à-dire de la représentation effective de structures organiques sur ordinateur. C’est qu’avec son objet biologique (l’enzyme…), notamment depuis les travaux de 1961 dus à François Jacob et à Jacques Monod1, il n’a pas à choisir entre une biologie qualitative, topologique ou informationnelle et une biophysique métrique et mécaniste. Les deux semblent pouvoir se conjoindre à cette échelle : il ne rencontre donc pas la même répugnance que Rosen à utiliser l’ordinateur comme simulateur. Or, pour cela, Stahl trouve nécessaire, avec l’aide de ses collègues automaticiens (dont Howard E. Goheen, mais aussi Lee B. Lusted, le directeur du Département de Traitement Automatique des Données et de Biomathématiques) de se plonger dans la théorie des automates et de la computation en commençant par la base : les articles de Turing. C’est d’ailleurs cette base sur la machine de Turing que Goheen et lui-même se sentent dans l’obligation de rappeler assez en détail (parce qu’ils la supposent peu connue) aux lecteurs du Journal of Theoretical Biology au début de leur article de 1963. Ce qui indique combien les biologistes, même les biologistes théoriciens, sont encore peu au fait de ces nouveaux formalismes.
Dans ce travail, les auteurs conçoivent ce qu’ils appellent un « enzyme algorithmique », c’est-à-dire un automate qui a la faculté de transformer des substances biochimiques représentées structurellement par des chaînes de lettres2. Pour pouvoir employer commodément la notion de machine de Turing, les auteurs utilisent une présentation équivalente : les Tables de Turing, c’est-à-dire une sorte de tableaux dans lesquels paraissent les symboles des mouvements (à gauche et à droite) de la tête de lecture de l’automate, et ceux qui commandent une écriture ou un éventuel effacement de la case actuellement lue sur la chaîne. Le résultat est l’état final de la chaîne lorsque l’automate s’arrête. Ils proposent alors une série de Tables « simulant »3 des activités enzymatiques comme le copiage d’une chaîne d’ADN représentée sous la forme d’une chaîne de lettres. Après avoir prudemment tempéré leur enthousiasme initial, notamment en évoquant le problème de la non-calculabilité qui pourrait s’avérer être la règle en biologie dès le niveau cellulaire, les auteurs montrent que l’on peut tout de même voir se manifester ce qu’ils appellent « une homéostasie logique »4 lorsque l’on met en œuvre en même temps plusieurs dizaines d’« enzymes algorithmiques » de ce type. En fait, les auteurs se contentent de montrer que, dans ce dernier cas, le système simulant total devient équivalent à un réseau de neurones formels à seuil de type Pitts-McCulloch (1943). Les auteurs connaissent d’ailleurs personnellement Warren McCulloch et ils ont été, sur certains points, conseillés par lui1. Le système simulant sera, selon eux, en « homéostasie logique » lorsqu’il se maintiendra en équilibre et présentera une stabilité au regard des erreurs de codage et des perturbations environnementales.
Par la suite, en 1967, Stahl publie une série d’articles qui proposent notamment un modèle d’auto-reproduction cellulaire sur ce même principe du traitement par automates de chaînes de caractères et dans lequel l’auteur fait représenter par le programme d’ordinateur 36 puis 46 gènes qui, sous la forme d’automates formels, codent pour des enzymes différentes. Il obtient alors ce qu’il appelle un « modèle de cellule algorithmique »2 où une cellule entière tend à être représentée au moyen d’un grand nombre de réactions enzymatiques. Stahl reconnaît qu’il s’agit là d’un modèle « hautement idéalisé »3 dans la mesure où seule une infime proportion des réactions enzymatiques supposées intervenir dans la cellule réelle est prise en compte. Cependant, ce travail peut, selon lui, être « chargé de sens » pour les biologistes moléculaires dans la mesure où il peut suggérer des voies d’accès aux phénomènes réels en leur en fournissant une meilleure intuition (rôle heuristique).
Faisant allusion à la technique d’évaluation quantitative de l’organisation d’une cellule-modèle au moyen de la théorie de la communication de Shannon (technique de l’entropie informationnelle relativement élémentaire qu’il ajoute dans le premier article de 1967), Stahl affirme également qu’une telle simulation peut même fournir selon lui une « aide conceptuelle pour la compréhension des cellules réelles »4. En même temps, Stahl indique l’existence d’une autre valeur épistémologique pour ces simulations (qu’il effectue en FORTRAN sur un ordinateur SDS-920) en précisant qu’elles donnent lieu à ce qu’il appelle des « expériences sur ordinateur »5. Ces « expériences » servent, selon lui, à tester la stabilité et l’homéostasie logique du modèle de cellule tout entier. Ainsi, alors qu’à la même époque, au RLE du MIT, Cohen6 teste par simulation une hypothèse théorique sur le contrôle génétique de la morphogenèse, Stahl, en se plaçant pour sa part au niveau moléculaire, utilise une simulation du fonctionnement de la cellule par processus de traitements de chaînes automatisés pour tester la crédibilité a priori de l’hypothèse de l’existence d’une stabilité procédant par pure régulation logique et résultant globalement des interactions des enzymes au niveau local. En outre, il faut noter que, si son programme ne prévoit pas une représentation effectivement spatialisée du modèle de cellule résultant (puisque les automates ne sont pas sensibles à la répartition des substances), Stahl en fournit tout de même une, dessinée à la main, dans ses deux premiers articles de 1967 : on y voit un contour circulaire (la cellule) formé par des lettres (codant la membrane) et renfermant des enzymes et un noyau avec sa propre membrane ainsi que son ADN, tous représentés là encore sous forme de chaînes de caractères géométriquement disposées de sorte à donner au modèle une allure rappelant la forme concrète d’une cellule réelle.
Stahl a ainsi conscience qu’il propose bien une simulation ou un modèle sur ordinateur (« computer model ») de la cellule et de son auto-reproduction et non un modèle mathématique : cela tient au fait que, selon lui, il propose une « représentation directe et littérale » des substances biochimiques. Ainsi, il rattache sa perspective à celles qui ont déjà vu le jour dans ce qu’il appelle « les mathématiques modernes » et qui ont consisté à contourner les difficiles résolutions de certaines équations différentielles par le moyen de la simulation1. Cependant, de façon tout à fait suggestive, il tient également à distinguer son approche de celle du biophysicien et biochimiste David Garfinkel2 qui, pour sa part, propose ce que Stahl appelle « un modèle de calculateur numérique de la cinétique enzymatique »3. On se souvient en effet que Garfinkel représentait les molécules biochimiques une à une dans la mémoire de son ordinateur et qu’il demandait ensuite au programme en FORTRAN d’en organiser aléatoirement (par la méthode de Monte-Carlo) les rencontres et les réactions. À ce titre, dans les simulations numériques de Garfinkel, les interactions entre les éléments représentés « littéralement » sont réduites au minimum alors que ce qui caractérise la simulation de Stahl consiste dans le fait qu’il a voulu implémenter jusqu’aux fonctions logiques et de régulation que certains de ces éléments pouvaient exercer les uns sur les autres. Ainsi, le modèle de Garfinkel ne s’occupe que de cinétique enzymatique mais pas de l’induction enzymatique ni des mécanismes que déploient les acides nucléiques4. C’est que Stahl, au contraire de Garfinkel, ne part pas d’équations différentielles préexistantes dont il donne ensuite une interprétation atomiste ou moléculaire pour mieux les résoudre ou les approximer lorsqu’elles sont insolubles analytiquement. Il part du gène concret dans sa complexité structurelle supposée. Il part de l’action du gène entendue comme une série d’activités logiques et automatiques donc algorithmiques : d’où une représentation à la fois littérale (c’est-à-dire structurelle sans qu’elle soit pourtant effectivement spatialisée) et fonctionnelle, bien que très idéalisée.
C’est semble-t-il la raison principale pour laquelle, par la suite, à la fin des années 1990, la plupart des bioinformaticiens et des spécialistes de la génomique verront dans cet article de Stahl et Goheen le travail séminal qui a conduit à l’émergence de leurs propres disciplines5. En 2001, le bioinformaticien Jake Chen reconnaîtra ainsi que ce qui fait rétrospectivement la valeur de ce travail tient au fait qu’il essaie de trouver, au moyen d’une représentation sur ordinateur, une « corrélation adéquate entre les structures et les fonctions moléculaires »6. Pour notre part, avec cette évocation de Walter R. Stahl, nous ne faisons qu’indiquer ici, en passant, un point de bifurcation de la simulation sur ordinateur de phénomènes biologiques structuraux, d’une part vers l’algorithmique moléculaire, qui deviendra en effet la bioinformatique aux alentours de 1990, d’autre part, vers la modélisation sur ordinateur de phénomènes biologiques plus intégrés et se manifestant à échelle macroscopique, comme les phénomènes de développement et de morphogenèse que nous continuerons ici à suivre plus particulièrement. Nous ne retracerons donc pas dans la suite l’histoire de la branche « moléculaire » de la simulation des phénomènes biologiques sur ordinateur. Nous renvoyons pour cela à l’historique de Jake Chen1.
Une épistémologie néo-positiviste des modèles : assumer et neutraliser la dispersion (1967)
Mais, pour revenir à Walter R. Stahl et à ses recherches, on peut constater que, parallèlement à ses propres travaux de modélisation, il continue sa réflexion méthodologique sur les modèles. En 1967, il produit ainsi un travail ambitieux qui recense déjà près de 285 modèles différents2 et dans lequel il essaie d’unifier méthodiquement la pratique des modèles sous un ensemble de principes et de critères communs. Il déplore en effet qu’on ait à subir une inflation et une dispersion de modèles dont les critères de validité ne nous sont pas toujours fournis par les concepteurs eux-mêmes, quand bien même ces concepteurs auraient réellement pris conscience que tout modèle ne peut avoir qu’un domaine de validité limité. Ce qui n’est même pas toujours le cas, selon lui. La raison en est que les biologistes n’ont pas encore tous pris la mesure de la différence entre théorie et modèle. Il s’agit donc d’alerter la communauté des biologistes théoriciens sur le sens et la valeur de la modélisation en général, et de la modélisation mathématique en particulier, en cette deuxième moitié des années 1960.
Ainsi donc, dans cet article bilan sur l’état de la modélisation en biologie comme dans les sciences et les technologies en général, Stahl va jusqu’à proposer une classification systématique de tous les modèles existants en fonction de la nature des « critères de similarité » à chaque fois mis en œuvre entre modèle et prototype3 : on y retrouve bien sûr ses réflexions antérieures sur les nombres sans dimensions mais on voit également que la modélisation algorithmique (modélisation par automate et simulable sur automate ou ordinateur) a définitivement pris une place aux côtés des modélisations organiques, physiques, analogiques ou stochastiques (c’est-à-dire notamment biométriques4) plus anciennes, puisque les critères de similarité, même s’ils sont beaucoup plus abstraits en étant algorithmiques et non plus seulement numériques, n’en demeurent pas moins mathématiques et/ou computationnels, selon Stahl, depuis que l’émergence de l’ordinateur nous en a persuadé. Au passage, il considère donc que même les modèles qui ne peuvent être que simulés sont encore des modèles mathématiques parce qu’ils restent computationnels au sens de la théorie mathématique de la computation5. En conséquence, selon Stahl, comme pour le philosophe des sciences américain Patrick Suppes qu’il cite1, l’unification finale de tous les types de modèles utilisés dans les sciences de la nature se poursuit donc en droit jusque dans la théorie mathématique des modèles2 où l’attention exclusive n’est cependant portée que sur la seule notion d’isomorphisme.
En 1967, tout l’enjeu de la suggestion méthodologique et épistémologique de Stahl consiste en fait à montrer que sa propre notion de « critère de similarité », qu’il avait auparavant introduite pour généraliser ses réflexions sur l’analyse dimensionnelle et sur la modélisation, peut être assimilée à la notion mathématique, elle aussi très souple, d’isomorphisme, pourvu qu’on la prenne au niveau abstrait et théorique (au sens donc de la « théorie des modèles ») des rapports formels entre structures et non pas seulement au niveau des simples bijections entre ensembles d’éléments. On retrouve là, sous une forme encore transformée, la tendance à résister à la dispersion des modèles dans le contexte de la biophysique théorique. Mais comme c’était le cas avec la proposition d’introduire une entropie généralisée, formulée par des conceptions physicalistes réactualisées, ou avec la proposition d’employer le concept mathématique de catastrophes, née dans une perspective mathématico-physicaliste renouvelée, Stahl propose là aussi une résistance qui se veut modernisée, car fondée sur une convergence et sur une absorption mutuelle des modèles dans une « théorie des modèles », donc dans un modèle mathématiste et formaliste des modèles. Ainsi, ce point de vue nettement formaliste et spéculatif permet-il d’exorciser commodément, plus exactement de neutraliser la dispersion formelle, désormais avérée, tout en ne renvoyant pas à un réenracinement des modèles.
Purger les modèles de toute métaphysique
En outre, il est un argument, remarquable par son côté un peu exotique au regard du contexte, mais qui revient à plusieurs reprises sous la main de Stahl lorsqu’il s’agit pour lui de légitimer son entreprise de théorisation et de mathématisation a posteriori des procédés de modélisation : montrer, à la suite des épistémologues comme Patrick Suppes, que modéliser ne consiste finalement qu’à mettre au jour des isomorphismes entre le modèle et le prototype présente comme résultat collatéral majeur, outre l’unification conceptuelle et la plus grande rigueur qui devrait en découler logiquement chez les concepteurs de modèles, de vider tous les modèles des relents de métaphysique qui ont ou qui auraient pu présider à leur conception comme à leur légitimation originelle. En mathématisant sur le tard une pratique d’abord hétéroclite et à l’origine donc douteuse du point de vue positiviste, le biologiste et théoricien de la biologie qu’est Stahl, comme Woodger en son temps3, se livre à une entreprise à ses yeux salutaire dans la mesure où il s’y présente comme un purificateur qui purge les modèles de tout ce qui pourrait leur rester de métaphysique4. Stahl affirme ainsi que ce qui vaut, pour Turing, sur le sujet philosophiquement sensible de la modélisation de la pensée, vaut par extension pour tout type de modélisation. Axer consciemment son épistémologie de la modélisation sur le seul côté formel du test de performance ou sur le seul côté formel des invariants fonctionnels, dimensionnels ou numériques revient dans les deux cas au même. Selon Stahl, on s’y délivre toujours d’une référence confuse à un substrat à tout le moins énigmatique, si ce n’est inaccessible voire inexistant, donc méta-physique en ce sens strict. Stahl s’autorise donc du geste de déracinement de Turing pour donner de la modélisation une représentation elle-même formelle qui a le pouvoir d’innocenter, au moins en droit, tout type de modèle, et pas seulement les modèles algorithmiques ou abstraits, devant l’accusation de se livrer à des affirmations métaphysiques. Dans le même geste, comme Rashevsky ou Rosen auparavant, il annule l’effet corrosif de la dispersion en promouvant une convergence absorbante entre formalismes.
Mais Stahl ne dit pas précisément ce qu’il entend par « métaphysique ». À le lire cependant, on peut comprendre qu’il entend désigner par ce terme l’erreur qui consisterait à valoriser un modèle au détriment d’un autre au prétexte que ce modèle refléterait mieux la réalité, qu’il y serait mieux enraciné, et non parce qu’il est plus efficace et performant au seul niveau des critères algorithmiquement calculables, c’est-à-dire objectifs en ce sens qu’ils seraient opérationnels et intersubjectifs : accessibles et mesurables en droit par tous. Un modèle dont la similarité ne serait pas testable par de tels critères serait préféré pour des raisons purement subjectives, non objectives. C’est cela que n’admet pas Stahl. Et l’on peut comprendre que sa théorie formelle de la modélisation lui semble se présenter comme un rempart contre ce risque car, en particulier, si elle établit une classification, elle n’établit pas pour autant de hiérarchie entre les modèles : tout type de modèle part à armes égales avec ses concurrents. Tout dépend de l’usage que l’on veut en faire. Et c’est à chaque fois que l’on veut l’employer que l’on doit vérifier si sa formulation précise est conforme aux critères de similarités pertinents pour cet emploi, ces critères étant dans le détail à chaque fois différents en fonction de l’usage que l’on veut faire du modèle. Il n’y a donc pas de critères de similarité qui soient en eux-mêmes, et dans l’absolu ou en référence à une réalité intangible, meilleurs que d’autres. Le monde des modèles, selon Stahl, est certes ordonné mais il est éminemment démocratique, si l’on peut dire1. L’épistémologie de Stahl, de tonalité donc elle aussi nettement positiviste au sens du positivisme logique anglo-saxon et de sa version sémantique, lui permet d’insister sur le caractère toujours partiel du modèle2 mais aussi sur la différence entre théorie et modèle :
« Ce ne serait probablement pas une exagération d’affirmer que la modélisation et la simulation représentent les plus importants des outils singuliers de la biologie théorique. Dans la science moderne, le simple exposé verbal d’une ‘théorie’ n’est plus considéré comme adéquate et l’on attend des construits mathématiques de diverses sortes. Ces derniers peuvent paraître sous la forme d’équations mathématiques conventionnelles ou sous la forme d’algorithmes ou de structures axiomatiques ; toutes ces représentations peuvent être incluses dans une simulation sur ordinateur. »3
Ce qui unifie théoriquement les modèles n’est donc pas la référence à une réalité unique et sous-jacente, métaphysique en ce sens, et dont ils seraient chacun un reflet particulier mais c’est le fait qu’ils se prêtent tous, d’un point de vue cette fois-ci général et mathématique, de la même et unique manière à l’évaluation objective de leur similarité. Cette évaluation objective elle-même n’absolutise pas le prototype mais absolutise plutôt le caractère nécessairement algorithmique que doit prendre le test de conformité aux critères mathématiques (donc neutres, formels, non métaphysiques) de similarité entre le prototype et le modèle. Les critères de similarité sont certes à chaque fois différents et dépendent de l’usage que l’on veut faire du modèle. Mais la manière algorithmique de tester la conformité du modèle à ses critères chaque fois singuliers est en revanche universelle. Pour le positiviste qu’est Stahl, il y a donc bien un critère universel de la similarité partielle entre un prototype et son modèle : le test algorithmique. Ce test est donc de nature computationnelle, mathématique et non métaphysique. Les modèles, s’ils sont relatifs à un usage, ont tous la même manière de se rapporter de façon objective à leurs prototypes. Donc il y a tout de même en eux quelque chose de commun, d’unique, et qui transcende leur essentielle relativité. La tâche d’unifier les différents types de modélisation, par-delà leur diversité, est en ce sens achevée, de ce point de vue positiviste qui est celui de Stahl.
Là-dessus cependant, même si une réduction mathématique (et donc un traitement par simulation sur ordinateur) de toute forme de modélisation lui semble en droit toujours possible, Stahl renonce à donner une interprétation mathématique complète et précise pour chacun des critères de similarité qu’il décèle dans les modèles1. Et c’est encore une fois le paradigme du test de Turing qui, en fait, lui offre un argument qu’il juge suffisant et qui le guide vers cette conception formelle et abstraite de la modélisation en général. Car l’invocation de cette modélisation de la pensée que l’on peut dire a minima, parce qu’axée uniquement sur les « performances »2 extérieures d’une « boîte noire », semble, selon lui, suffire à montrer qu’en droit toute modélisation peut être méthodiquement ramenée à une sorte d’isomorphisme :
« Le point de vue opérationnel incarné par le test de Turing est en un sens applicable à toutes les comparaisons de modélisation. Un modèle et un prototype ne sont jamais complètement similaires à moins qu’ils ne soient identiques, mais le degré de similarité ou l’extension de la ‘modélisation’ est une chose fondamentalement arbitraire, définie par un critère de test spécifique qui peut (et devrait) être énoncé sous la forme d’un algorithme. Dans un modèle hydrodynamique, l’algorithme de test pourrait consister dans le fait de calculer le nombre de Reynolds, tandis que, dans le cas d’un modèle à servomécanismes, cela pourrait impliquer la comparaison, du gain [de la fonction de transfert] et des critères de stabilité de Nyquist3 du modèle [d’une part] et du prototype [d’autre part]. »4
Plus concrètement donc, en produisant cette théorie épistémologique unificatrice en matière de modèles, Stahl espère que, comme l’ingénieur-rhéologue qui doit, dans son travail, demeurer explicitement sensible à l’invariance du nombre de Reynolds dans le passage du prototype au modèle, le biologiste théoricien lui aussi, grâce à cette présentation systématique et explicite (parce qu’algorithmique, c’est-à-dire réductible à un ensemble fini de règles) des types d’invariance à chaque fois incriminés dans ses modèles, finira par en développer une utilisation à la fois précisément mesurée, évaluée et maîtrisée. Les modèles mathématiques de la biologie, mais également ceux qui sont applicables aux sciences physico-chimiques, de l’ingénieur ou aux sciences sociales, devraient pouvoir être ainsi comparés entre eux et l’on pourrait sortir la biologie théorique d’une certaine cacophonie méthodologique.
Pour finir, il nous faut remarquer que, sans doute parce qu’il est un des rares à avoir acquis une vision d’ensemble assez complète de la modélisation mathématique à son époque, Stahl termine la plupart de ses dernières publications par quelques pronostics mesurés dans lesquels il exprime toutefois sa certitude que l’avenir appartient aux simulations sur ordinateur à grande échelle, notamment pour les modèles de la cellule qu’il a plus particulièrement travaillés1. Mais, sous sa main, ces prophéties perspicaces peuvent sonner comme une sorte de testament intellectuel, car W. R. Stahl n’aura pas la chance de poursuivre ses travaux. Il décèdera en effet très prématurément, cette même année 1967. Entre-temps, Stahl avait rencontré un botaniste du nom d’Aristid Lindenmayer. Or, on dispose sur ce point d’un bref témoignage de Lindenmayer : ce dernier a été ébloui par l’inventivité de Stahl, par sa culture scientifique et par sa largeur de vue2. Mais même s’il sortira transformé de cette rencontre, Lindenmayer ne peut hériter exactement de la même problématique scientifique que Stahl car, pour sa part, il s’occupe davantage de biologie du développement que de biologie moléculaire : ce qui l’intéresse, c’est donc l’embryologie, la multiplication cellulaire et le développement organique. Il sera amené à frayer dans d’autres milieux scientifiques et, par conséquent, à proposer un type de modélisation mathématique, puis informatique, assez spécifique et dans un esprit proche, certes, mais différent de celui de Stahl. C’est là que sera la source majeure de ce que l’on peut appeler la deuxième convergence de la simulation sur ordinateur de la morphogenèse des plantes avec l’empirie, après celle de Cohen.
Dostları ilə paylaş: |