Université Louis Lumière Lyon 2 Faculté de Géographie, Histoire de l’Art, Tourisme


La biocybernétique, la systémique et ce qu’en retient Legay : tout est lié - 1967-1971



Yüklə 8,85 Mb.
səhifə25/112
tarix25.07.2018
ölçüsü8,85 Mb.
#58113
1   ...   21   22   23   24   25   26   27   28   ...   112

La biocybernétique, la systémique et ce qu’en retient Legay : tout est lié - 1967-1971 

En 1967 et en 1970, Legay se rend au 5 et au 6èmeème congrès de cybernétique de Namur. Ces congrès sont organisés par l’Association Internationale de Cybernétique, fondée à Namur en 19571. Sous l’impulsion de la Société pour l’Avancement de la Théorie du Système Général créée aux Etats-Unis en 1954 autour de Bertalanffy et Quastler, l’époque est en effet aux développements de l’« analyse des systèmes » et de la « systémique » dans ses applications, parfois les plus fantaisistes, à la biologie et à l’écologie. C’est l’heure de la biocybernétique. Or, c’est dans ce cadre-là que Legay est amené à renforcer ses contacts avec les cybernéticiens, notamment avec l’école roumaine de cybernétique. Ces rencontres lui sont facilitées d’une part parce que les roumains s’expriment souvent en français mais d’autre part du fait de ses sympathies politiques. En effet, après une période de refus d’une pseudo-science à origine bourgeoise telle que se présentait la cybernétique2, le bloc de l’est, en partie du fait de son dynamisme en recherches mathématiques mais aussi parce que la cybernétique va finalement devenir le bras armé d’une vision dialectique et d’une rationalisation marxiste des sciences humaines (comme l’architecture par exemple), a en effet fortement contribué, dès le début des années 1960 au développement de la modélisation cybernétique appliquée à la biologie. À Namur, Legay rencontre donc, entre autres, Edmond Nicolau (1922 – 1997), Marianne Belis (née dans les années 1940)3 et Nicolae Teodorescu (né en 1908)4. Devant ces manifestations biocybernétiques, Legay ne sera pas absolument fasciné par les modèles théoriques des intervenants même s’il reconnaîtra l’importance et l’omniprésence des boucles de retro-contrôle (positive ou négative) en biologie. Bien plutôt, il se persuadera que l’interdisciplinarité doit désormais être fondamentale dans la recherche sur ces systèmes complexes que sont les êtres vivants ou les sociétés dès lors que, dans la nature, tout est lié. Mais comment en vient-il à la confirmation de ce qui avait déjà été une intuition de jeunesse ?



Il faut rappeler que le mathématicien Teodorescu que rencontre Legay est alors une personnalité influente en mathématiques appliquées. Toute une école de cybernétique s’est assez tôt constituée autour de lui. En 1963, fort de ses expériences multidisciplinaires en mathématiques appliquées (architecture, physique, électrotechnique, biologie…) remontant à la fin des années 1940, il a fait paraître un ouvrage en roumain vantant les mérites de cette nouvelle méthode de formalisation dans les sciences et en biologie en particulier : la « modélisation mathématique ». Il y défend l’idée qu’avec la modélisation cybernétique, on a désormais affaire à une nouvelle étape dans la mathématisation en biologie et qu’elle est à penser en rupture avec l’étape antérieure de la biométrie. Dans le cas de la biométrie et de la représentation statistique, on a affaire à une méthode mathématique qui n’est applicable que pour l’interprétation des résultats et leur mise en valeur, alors que dans le cas de la modélisation1 cybernétique, on a affaire à un instrument d’investigation des phénomènes2. En reprenant les mots mêmes de S. M. Milcou, un de ses collègues endocrinologues et membre, comme lui, de l’Académie des Sciences roumaines et qui se fait pour un temps son porte-parole, « un modèle [cybernétique] est capable de mettre en évidence des caractères inconnus difficilement accessibles », et « il peut nous permettre de découvrir de nouveaux aspects des phénomènes modelés [sic] »3. Le neurologiste Constantin Balaceanu (né en 1923) reprend également l’idée de son collègue mathématicien Teodorescu lorsqu’il s’exprime ainsi, en 1971 :
« On doit découvrir de nouvelles propriétés, on doit pouvoir approfondir la connaissance de la réalité en utilisant l’appareil mathématique non seulement comme un instrument de description mais comme un instrument de recherche […] il s’agit de souligner que la formalisation mathématique doit faire émerger des faits nouveaux qui puissent nous conduire plus près de l’essence du phénomène que nous étudions. »4
C’est le formalisme mathématique qui est donc à l’honneur dans cette conception roumaine de la modélisation cybernétique dès lors qu’il possède ce pouvoir étonnant, propre en fait aux mathématiques dont il est constitué, de donner à discerner dans les mesures ce qui est resté inaperçu. Or, s’il se trouve qu’on utilise un ordinateur pour traiter ce modèle, c’est que l’on procède à une simple « transcription » de la formulation mathématique sur une machine qui a la capacité de la résoudre, de la calculer. C’est pourquoi, pour Balaceanu, on doit simplement parler dans ce cas de « modèle sur un calculateur »5. Certes l’usage de l’informatique permet de persuader davantage de biologistes expérimentateurs de la nécessité d’une étape de formalisation claire et précise6. C’est là pour les roumains un apport indéniable : l’informatique précipite les biologistes dans l’ère des modèles. Mais, avec l’informatique, le changement dans l’usage des modèles mathématiques, à proprement parler, n’est que quantitatif. À aucun moment, il n’est question de simulation pour Balaceanu puisque la modélisation cybernétique ou, plus généralement, mathématique procède d’une innovation mathématique de type essentiellement formel et logique au sens large7.

Teodorescu, en fait, est impressionné depuis longtemps par le travail de Rashevsky, mais sa pratique multidisciplinaire et tournée vers des résultats opérationnels l’invite plutôt à insister pour sa part non pas tant sur l’objectif théorique que sur l’intérêt heuristique indéniable de toute modélisation mathématique. Il ne manque pas ainsi de souligner avant tout l’importance de l’observation et de l’expérimentation concrète : dans la modélisation, la formalisation vient certes avant l’observation mais elle n’a pourtant pas la directivité et la rigidité d’une théorie, même si on peut la qualifier de « représentation théorique »1. De plus, que cette formalisation réussisse ou non à « représenter » le phénomène, elle peut toujours, en retour, servir à déceler des faits inaperçus lors de l’observation directe. En fait, dès 1953, de telles idées avaient déjà été exprimées en France et en français sous la plume de Louis Couffignal bien sûr mais aussi de Pierre de Latil2, par exemple. Mais, en 1967, à Namur, Legay les voit exprimées et prises au sérieux par des biologistes et des médecins qui sont de surcroît de véritables expérimentateurs. Ce qui fait toute la différence : ils sont donc pour lui bien plus crédibles.

Ce texte de Teodorescu rencontre en Roumanie un écho très favorable chez des médecins, neurologistes et biophysiciens. Pendant ces années-là, dans l’esprit initié par Teodorescu, l’électronicien Edmond Nicolau, qui est, comme Teodorescu, membre fondateur de la Société de Mathématiques et de Physique de la République Populaire de Roumanie, travaille en collaboration avec le neurologiste Constantin Balaceanu sur des modèles biocybernétiques du névraxe (modèles de réseaux neuronaux au moyen d’automates analogiques, c’est-à-dire à logiques polyvalentes3). Dans ce travail de modélisation cybernétique du fonctionnement neurologique, certains médecins français (financés en général hors des institutions de la recherche publique) comme Jacques Sauvan4 ou son collègue chirurgien et fondateur de l’« agressologie »5 Henri Laborit (1914-1995) sont aussi particulièrement impliqués et ils sont présents à Namur, aux côtés de Legay, alors que bien peu d’agronomes ou de biologistes universitaires les accompagnent. Il faut comprendre que ce n’est pas un hasard si la modélisation biocybernétique n’éveille d’abord d’échos unanimes que dans la communauté des neurologues et des psychiatres : le postulat réducteur sur lequel elle se fonde est que l’on doit prendre acte du fait que le système que l’on modélise n’est qu’un système informationnel, un système échangeant des signaux. À l’époque, comme le rappelle Constantin Balaceanu, seuls quatre systèmes biologiques semblent pouvoir manifestement être traités sans dommage comme des systèmes informationnels : le système génétique, le système immunologique, le système endocrinien et le système nerveux1. Depuis le début des années 1950, comme le montrent abondamment les ouvrages de présentation générale2 ou de vulgarisation, la cybernétique porte surtout à des réflexions concernant la « pensée artificielle » ainsi qu’en témoigne le titre du premier ouvrage en français d’introduction à la cybernétique, écrit par Pierre de Latil (1953). Il s’agit donc le plus souvent de neurocybernétique, c’est-à-dire de tentative de modélisation cybernétique du système nerveux.

Or, comme le remarque alors Legay3, tous les modèles que proposent ces biocybernéticiens concernent en fait des phénomènes asses simples, c’est-à-dire des phénomènes pour lesquels on peut isoler concrètement, ou en pensée, un système biologique et faire abstraction de certains facteurs y intervenant habituellement sans que le système ne change profondément de nature : ce sont des phénomènes pour lesquels on peut faire l’approximation du système fermé assimilable à un circuit à régulateur. En 1974, Henri Laborit résumera de façon suggestive ce présupposé de la méthode expérimentale telle qu’elle est implicitement conçue dans la vision cybernétique de la biologie :


« Quand on a compris ces principes fondamentaux [la présence dans tout organisme de niveaux d’organisation séparables répondant à une finalité fonctionnelle générale], on s’aperçoit immédiatement que l’expérimentation a pour méthode essentiellement d’observer un niveau d’organisation en supprimant la commande extérieure à lui. Elle ramène le servomécanisme au rang de régulateur. Elle ferme le système à un niveau d’organisation. L’enzymologiste et le biochimiste isolent les éléments d’une réaction enzymatique in vitro, le biologiste isole des structures infra-cellulaires pour en étudier l’activité séparée de l’ensemble cellulaire auquel elles appartiennent, ou bien il étudie l’activité biochimique d’un tissu isolé. Le physiologiste isole un segment d’organe ou un organe pour en étudier le comportement ou focalise son attention sur un système, cardio-vasculaire ou nerveux par exemple, dont il étudie un critère d’activité privilégié. »4
Or c’est bien ce postulat dont Legay s’aperçoit, à Namur, qu’il ne veut à aucun prix l’admettre pour les phénomènes qui l’intéressent. Pour lui, ceux qui affirment cela soit n’ont pas affaire aux mêmes objets d’étude soit ignorent complètement l’innovation épistémologique fondamentale qu’a apportée la méthode des plans d’expérience. Postuler que l’isolement du phénomène est toujours possible, c’est nier le caractère complexe des objets auxquels on a en général affaire. C’est dans le meilleur des cas en rester au niveau du « modèle général », c’est-à-dire au niveau du modèle théorique, sans avoir la possibilité de le spécifier davantage et donc de le confronter à l’expérience. C’est en rester souvent à un stade spéculatif. En cette fin des années 1960, Legay voit donc bien que, dès lors que l’on se pose des questions biologiques d’ordre plus physiologique ou même embryologique1, ce qui est précisément son cas, l’invocation de schémas cybernétiques enchevêtrés, même si elle n’est pas entièrement fallacieuse sur le principe, ne conduit visiblement pas encore à la méthode mathématique miracle permettant de représenter simplement les phénomènes de croissance, par exemple, et d’embryogenèse. Car, dans de telles situations, il faudrait prendre en compte un nombre tellement grand de boucles de rétro-contrôle que le modèle serait inutilisable : il ne serait plus le support intellectuel maniable que l’on cherche. De plus, et c’est l’essentiel, l’hypothèse de l’isolement possible serait plus que douteuse.

De ses passages à Namur, Legay retient donc surtout ce que l’informaticien et épistémologue Edmond Nicolau y répète souvent, fidèle en cela à l’esprit de Teodorescu mais aussi au discours idéologique convenu du Parti des Travailleurs et de la Société de Mathématiques et de Physique de Roumanie : l’importance fondamentale de l’interdisciplinarité pour la construction de modèles mathématiques et le rôle essentiellement heuristique de ces modèles. Legay est ainsi tout autant sensible au fait que Nicolau, dans une perspective épistémologique et politique plus large, prône un accroissement de l’humanisme dans les rapports entre science et société ainsi qu’une vision solidaire des relations entre les disciplines scientifiques à l’intérieur même de la science.



Le groupe « Méthodologie » de la DGRST : une rencontre avec l’écologie



Mais, entre-temps, à partir de 1969, Legay va être conduit à étendre toujours plus le spectre de ses objets scientifiques et à confirmer par là davantage encore l’idée d’une nécessaire coopération interdisciplinaire, au besoin contre les disciplines établies, surtout lorsqu’il s’agit de se pencher sur des objets complexes. Cette opportunité lui est donnée par sa nomination au groupe de travail « Méthodologie pour l’écologie » de la Délégation Générale à la Recherche Scientifique et Technique. Comme Legay l’explique lui-même, il y entre au départ pour deux ou trois ans2. En fait il y restera bien plus longtemps. Sa fonction étant transversale, les responsables de la DGRST argueront notamment du fait qu’il n’est pas de parti pris et qu’il peut donc rester plus durablement. Et, en effet, la fonction que Legay et ses collègues doivent remplir consiste à examiner et à assurer le suivi d’un certain nombre des projets de recherche appliquée qui sont envoyés à la DGRST comme suite à divers appels d’offre en écologie, agronomie, géographie humaine. Dans cette situation, des financements publics sont à la clé. Et des problèmes concrets et, en général, assez urgents sont à résoudre en lien avec une demande sociale bien précise et exigeante. Legay participera ainsi à un certain nombre de programmes de recherche ciblés comme ceux qui concerneront la prévention de l’épidémie de Bilharziose en Guadeloupe, la gestion de la Mangrove (ou « mer boisée ») ou l’évolution de l’agriculture de montagne dans le Briançonnais3, etc. Du point de vue qui est le leur, Legay et ses collègues sont vite amenés à soutenir par la suite les efforts de conception des chercheurs, d’abord en les mettant en contact les uns avec les autres, mais aussi et surtout en promouvant une méthode générale qui s’impose de plus en plus dans ces situations interdisciplinaires par excellence : la modélisation mathématique. De surcroît, dans ce contexte, Legay est amené à rencontrer la modélisation mathématique des processus écologiques au moyen de réseaux énergétiques (dits « réseaux » ou « structures trophiques »1), pratique en plein essor dans cette discipline depuis les années 19502. Dans un article de 1959, l’écologue américain B. C. Patten avait par ailleurs rapidement mis en évidence le parallélisme entre l’analyse des systèmes, la modélisation cybernétique et les réseaux trophiques, eu égard au fait que les formalismes y représentent toujours des flux d’énergie ou d’information. En conséquence, chez un biologiste déjà informé de l’approche cybernétique, la réception des formalismes venant de l’écologie ne rencontre pas d’obstacle et vient plutôt apporter une confirmation de la valeur générale de l’analyse systémique3.

C’est donc lorsque Legay occupe ce poste d’observateur privilégié et en même temps de pourvoyeur de méthodes qu’il se rend compte que les modèles se retrouvent nécessairement, d’une manière ou d’une autre, dans tous les projets interdisciplinaires qui ont été menés à bien jusqu’ici. À partir de cette époque, l’interdisciplinarité va donc être étroitement liée à la pratique des modèles dans l’esprit de Legay4. Il va, à partir de ce moment-là, prôner dans toute situation complexe la « méthode des modèles ». C’est en ce début des années 1970 que Legay reprend cette expression aux cybernéticiens5 mais dans un sens modifié comme nous l’avons déjà vu en partie. Car il sera encore amené à la rectifier en certains de ses aspects. Mais voici à peu près comment on pourrait tenter de résumer sa perception des choses à l’époque. Elle est intéressante en ce qu’elle ne reprend pas docilement la justification positiviste classique des tenants des modèles telle qu’elle s’est forgée dans l’esprit de l’analyse systémique :
1) Conformément à une conception humaniste et solidaire, le travail scientifique ne doit pas être conçu comme opposé au bien-être des travailleurs, car le désir de la société et le but de la science ne sont pas contradictoires en soi6. Ils peuvent fonctionner de concert si la société le décide en s’en donnant les moyens politiques (de par la solution marxiste vers laquelle certains textes de Legay font signe dans les années 1970).

2) En conséquence, les sciences elles-mêmes doivent manifester en leur sein une solidarité, c’est-à-dire une ouverture aux exigences des autres disciplines scientifiques : contre la vision comtienne des sciences, il ne doit y avoir ni hiérarchie ni séparation étanche7 entre les disciplines.

3) De plus la science ne fait là que refléter la nature complexe des objets qu’elle étudie désormais. La science doit s’adapter aux objets non fragmentables puisqu’on les dénature si l’on tente de les traiter isolément, en partie ou parties par parties. C’est également à ce titre qu’elle ne doit pas être elle-même fragmentée.

4) Si bien que la seule méthode scientifique qui soit aujourd’hui véritablement transdisciplinaire, c’est-à-dire qui puisse encore définir l’unité de la science parce que restant valable dans toute discipline est celle qui, en même temps, permet le dialogue permanent entre les sciences ; c’est la « méthode des modèles ».
Nous avons présenté ici de façon résumée la cohérence de l’analyse de Legay en ce début des années 1970 parce qu’il se trouve que ce système de pensée, déjà en nette rupture avec la vision positiviste des modèles, va être fortement ébranlé par les réflexions contemporaines de ses collègues néo-marxistes venant de la philosophie. Nous allons voir que c’est en partie pour répondre aux critiques acerbes, anti-idéalistes, d’Althusser, de Badiou, de Fichant ou de Lecourt, toutes formulées plus ou moins directement contre la « méthode des modèles », que Legay sera amené à prolonger et à affiner encore son discours sur cette méthode pour la rendre également acceptable aux yeux d’un marxiste sincère. Car, en cette époque de bouillonnement méthodologique au sein de la DGRST, Legay lit tous ces philosophes assidûment. Il les cite constamment dans ses bibliographies. On ne peut donc faire l’impasse sur l’influence qu’ils ont dû avoir sur la formation de son épistémologie. Or, il y aura là pour lui un hiatus idéologique sévère. Et c’est précisément dans sa tentative de résoudre un tel hiatus que Legay sera conduit à rendre véritablement originale son épistémologie de la modélisation, dès lors qu’elle portera en elle les traces non seulement de cette volonté d’unification dont nous avons déjà rendu compte mais aussi d’un compromis idéologique majeur, selon nous, très révélateur de l’esprit épistémologique du temps et dont il nous faut désormais expliquer la genèse. Car comprendre comment Legay réussira finalement à contourner adroitement l’accusation d’idéalisme portée contre sa pratique quotidienne, c’est mieux comprendre comment la modélisation, en France, a pu finalement se développer en formant un relatif consensus et en évitant d’éveiller toujours les mêmes contestations, surtout dans un milieu et à une époque où la pensée de gauche est dominante. C’est comprendre en un sens l’incontestable réussite de Legay mais aussi les choix restrictifs qui ont inévitablement été les siens et qui pèseront plus tard sur l’avenir de la simulation informatique en France. Car l’épistémologie de Legay fera école en essaimant considérablement par la suite, tant au niveau de la promotion des méthodes à la DGRST qu’au niveau initial des formations de maîtrise (Certificat de Mathématiques Appliquées à la Biologie créé en 1974 à Lyon 1) et d’encadrement doctoral dispensés dans et autour de son laboratoire de biométrie de Lyon : des générations de docteurs y passeront et y seront formées dans cette perspective. Pendant longtemps, cette épistémologie des modèles coïncidera donc en grande partie avec l’épistémologie française des modèles en biologie.

Mais sur quoi porte donc cette critique quasi-unanime des philosophes néo-marxistes ? Pourquoi ne sont-ils pas à l’unisson de leurs collègues scientifiques roumains ? Est-ce une simple résurgence des critiques portées par les marxistes des années 1950 contre la cybernétique naissante au motif qu’elle allait asservir les hommes au lieu de les libérer ? Il ne semble pas. La critique est plus profonde en l’espèce, plus sévère, car elle est d’ordre épistémologique voire ontologique. Elle tend à Legay l’image grimaçante d’une science qui, avec ses modèles, est en complète dysharmonie avec le savoir vrai et sans fard qu’il espère voir se développer, solidaire en cela d’une société enfin humaine. Ce que ces philosophes stigmatisent va à l’encontre de l’idéal qu’il croit défendre. Il lui faudra donc réagir.



Une intervention de la philosophie française : l’accusation d’idéalisme

À la fin des années 1960, Althusser radicalise en effet l’épistémologie dialectique de Bachelard en réassumant sa critique des modèles mécaniques (1951) comme celle, déjà ancienne, des modèles cybernétiques formulée par Canguilhem (1963) mais en la transformant et en la déplaçant vers une critique philosophique et politique des modèles formels en général. Cette critique vise notamment les modèles qui sont récemment mis en œuvre dans les sciences humaines, en particulier dans l’anthropologie de Lévi-Strauss. En 1967, dans ses cours de philosophie à destination des scientifiques de la rue d’Ulm, Althusser inscrit nettement ce combat contre la méthode des modèles dans la tradition déjà ouverte par Engels (dans l’Anti-Dühring - 1877) et reprise par Lénine (dans son « anti-Mach » : Matérialisme et empiriocriticisme - 1909) d’une lutte contre l’idéalisme en science. Ces cours auront un fort impact puisqu’ils circuleront assez largement mais d’abord sous forme ronéotypée avant d’être finalement publiés en 1974. Le but initial d’Althusser y est de contester le développement des sciences humaines structuralistes. Au passage, il critique fortement la « mode de l’interdisciplinarité »1 en stigmatisant en elle la présence d’idéologies qui cherchent à s’asservir une partie de la science au nom de catégories philosophiques implicitement enracinées dans des idéologies pratiques, des conceptions du monde inavouées2 : sont visées ici les conceptions « positivistes, néo-positivistes, structuralistes, formalistes, phénoménologiques, etc. »3 qui toutes sont taxées de tendre à l’idéalisme. Toutefois, il considère que les disciplines scientifiques comme la physique mathématique, la chimie physique, la biophysique et la biochimie n’ont pas à être classées dans cette catégorie car elles manifestent en elles la présence de « rapports organiques » et internes entre disciplines scientifiques. Dans ces rapprochements entre disciplines, quant à eux respectables, il n’y a pas d’intervention philosophique extérieure : ces rapports « obéissent à des nécessités purement scientifiques »4. Car ces disciplines entretiennent entre elles des rapports de « constitution » réciproque et non de simple « application ». En l’espèce, avec ces disciplines frontières récemment confortées dans l’existence, il ne s’agit pas pour Althusser de cas d’échanges « interdisciplinaires » à proprement parler.

Fidèle à un spinozisme1 dialectisé par sa lecture de Hegel, de Marx puis de Bachelard, Althusser intègre en fait sa lutte contre les modèles dans un combat plus vaste et sans cesse à reprendre, puisqu’étant toujours à l’œuvre au cœur de la science : celui du matérialisme contre l’idéalisme. C’est précisément dans cette dimension spécifiquement épistémologique que le matérialisme doit, selon lui, devenir dialectique. C’est aussi la raison pour laquelle la philosophie légitime, celle qui se réduit donc à la pensée et à la pratique de ce matérialisme dialectique, doit intervenir dans la science. Car, dans le progrès scientifique, dans l’esprit même des scientifiques, interfère continûment une « philosophie spontanée » qui va toujours dans la même direction : le refus du matérialisme et le retour de l’idéalisme sous des avatars chaque fois différents et qu’il faut donc chaque fois apprendre à débusquer. Autant être lucide pour Althusser : il y a des luttes philosophiques à l’intérieur même de la science. Là se justifie pleinement le rôle critique et d’intervention, cette fois-ci consciente, de la philosophie dans les sciences, selon Althusser. Ce travail est dialectique ; c’est-à-dire qu’il faut le reprendre mais aussi en renouveler la nature à chaque génération. En faisant prendre un tournant épistémologique au matérialisme dialectique, Althusser se voit ensuite logiquement contraint d’en venir à une critique de la science actuelle, telle qu’elle fonctionne en cette fin des années 1960. Et c’est manifestement la méthode des modèles qui lui semble mériter les critiques les plus virulentes. Or voici en quels termes Althusser s’élève contre elle :
« Si on demandait [à ces physiciens et chimistes] de prendre alors la parole, il y a fort à parier qu’au petit groupe objet/théorie/méthode, ils substitueraient un autre petit groupe, beaucoup plus ‘moderne’, où il serait question de ‘données de l’expérience’, de ‘modèles’ et de ‘techniques de validation’, ou plus schématiquement : expérience/modèles/techniques […] Pour ne prendre que ce petit mot d’apparence innocent : ‘expérience’ (ou ‘données de l’expérience’), il faut savoir qu’à la place qu’il occupe dans le second groupement, il a en fait chassé un autre mot : objet extérieur matériellement existant. C’est à cette fin qu’il a été mis au pouvoir par Kant contre le matérialisme et remis en place par la philosophie empiriocriticiste dont nous avons parlé. Quand on met ainsi l’expérience (qui est, notez-le bien tout autre chose que l’expérimentation) au premier rang, et quand on parle de modèles au lieu de théorie, on ne fait pas que changer deux mots : on provoque un glissement de sens, mieux, on recouvre un sens par un autre, et on fait disparaître le premier sens, matérialiste, sous le second, idéaliste. »2

Comme Bachelard, Althusser se dresse à nouveau contre le « modélisme » en insérant les avertissements de Lénine et de Canguilhem dans une philosophie générale consistant à décrire le développement de la science comme un processus de lutte dialectique incessante. À ce titre, la « méthode des modèles » serait le dernier avatar de l’indéfectible penchant de la science à idéaliser. Elle manifesterait au plus au point des relents de ce positivisme et de ce formalisme que le philosophe et historien des sciences Michel Fichant travaille par ailleurs à débusquer chez Duhem, à la même époque1. C’est donc d’abord parce qu’elle abandonne la notion d’« objet » pour lui préférer celle d’« expérience » ou de « données de l’expérience » que la méthode des modèles est idéaliste : symptôme qui en dit long sur le rôle disproportionné donné désormais au sujet connaissant et sur la contestation corrélative (finalement kantienne selon Althusser) et implicite de la thèse de l’existence du monde extérieur. C’est ensuite parce qu’elle substitue le terme de « modèle » à celui de « théorie ». Par là, l’« objectivité de la connaissance scientifique »2 est remise en question ; entendons que les tenants des modèles refusent désormais de concevoir le projet de la science comme la recherche d’une correspondance au moins partielle entre un discours et une réalité qui existerait effectivement et extérieurement au sujet3, et qui le transcenderait en ce sens. Dès lors, la tendance de la « méthode des modèles » est clairement idéaliste car le sujet s’autorise à modeler l’objet à sa guise. Ce sont enfin les « techniques de validation » que l’on substitue à la « méthode » : par là, on valorise au mieux le côté pédagogique de la science pour l’esprit humain, sa « vertu critique », mais non le caractère objectif de ses procédures. Dans ces trois glissements, les convictions de la philosophie spontanée des savants contemporains portent bien leur nom : elles tendent toutes à valoriser les pseudo-évidences immédiates. C’est en ce sens qu’elles sont « spontanées » pour Althusser et qu’elles fonctionnent comme des images idéales donc comme un idéalisme : on croit qu’elles viennent de la science elle-même, alors que leur apparente spontanéité est bien plutôt le symptôme de leur élaboration seconde, externe, dans les catégories philosophiques ambiantes et dans les idéologies dominantes. Fidèle à l’esprit de Marx mais aussi de Bachelard (« il n’y a pas de vérités premières, il n’y a que des erreurs premières »), la philosophie d’Althusser est en ce sens une philosophie du soupçon, d’un soupçon porté sur les évidences épistémologiques premières et donc sur l’épistémologie des évidences premières, en l’occurrence sur l’épistémologie des modèles.

En 1969, dans Le concept de modèle, le philosophe Alain Badiou précise et prolonge cette critique marxiste en la fondant plus largement, ce qui est nouveau en France, sur les sources de la jeune théorie mathématique des modèles. Ainsi, tous les modèles des sciences expérimentales sont conçus a posteriori comme des interprétants sémantiques de classes de systèmes formels rigoureusement définissables axiomatiquement et syntaxiquement. Comme tout modèle, de par sa constitution, y compris le modèle mathématique de par le choix de son axiomatique particulière, insère du sémantique là où il ne devrait y avoir que du rationnel, c’est-à-dire du relationnel neutre, du syntaxique, il peut toujours être suspecté d’importer des idéologies au cœur du savoir scientifique. Tour à tour, les modèles économiques, linguistiques et cybernétiques sont accusés par Badiou de refléter les objectifs de la classe dominante, dont notamment l’idéologie du libéralisme. Badiou écrit ainsi : « Pour l’épistémologie des modèles, la science n’est pas un procès de transformation pratique du réel, mais la fabrication d’une image plausible. »4 Or la fabrication de cette « image plausible » remplit toujours une fonction autre que scientifique. Elle est déterminée par des intérêts de classe. Badiou s’assigne alors la tâche d’épurer la science du mauvais usage des modèles. En écho aux mises en garde iconoclastes de Bachelard (1951) contre le modèle-image (par exemple le modèle de l’atome de Bohr), qui fascine et fige la recherche en un idéalisme (nous pourrions dire aussi idolâtrie) dangereux et stérilisant, Badiou pense que le modèle formel, notamment l’automate cybernétique, doit être traité comme un « adjuvant transitoire »1, destiné à son propre démantèlement mais qu’il ne doit tout de même pas être éradiqué, étant donné sa valeur heuristique indéniable.

À la différence d’Althusser donc, Badiou ne rejette pas totalement l’usage des modèles mathématiques mais seulement l’idée que l’on présente la science comme une « connaissance par modèles »2. Les modèles ne doivent pas être les substituts de la théorie en ce sens-là, en ce sens figé, c’est-à-dire au sens d’une « figure idéale »3 fascinante et toujours mystifiante. Badiou refuse en fait de considérer la science comme theoria, comme une théorie toujours contemplative et prétendument neutre. Pour lui, si l’on veut conserver un rôle central au modèle en lui refusant pourtant le rôle de substitut de la théorie, il faut penser que la science qui modélise n’a pas pour visée essentielle de construire des théories mais plutôt celle de parfaire ses expérimentations. Et c’est là la grande différence d’avec Althusser : pour Badiou, il faut aller jusqu’à penser que « toutes les sciences sont expérimentales »4. Si l’on veut adopter une vision authentiquement matérialiste et dialectique, il faut, selon lui, s’habituer à penser qu’un modèle n’est qu’une « articulation conceptuelle » rapportée à un « dispositif expérimental particulier : un système formel »5 : « La catégorie de modèle désignera ainsi la causalité rétroactive du formalisme sur sa propre histoire scientifique, histoire conjointe d’un objet et d’un usage. »6 Badiou en conclut :


« Le problème n’est pas, ne peut pas être celui des rapports représentatifs du modèle et du concret [en sciences de la nature], ou du formel et des modèles [en mathématiques]. Le problème est celui de l’histoire de la formalisation. ‘Modèle’ désigne le réseau croisé des rétroactions et des anticipations qui tissent cette histoire …»7
Ainsi, finalement, avec Badiou, le modèle ne doit rien représenter. Le terme même ne désigne qu’un processus pratique, « un dispositif expérimental ». Il fait signe vers l’histoire des processus d’interactions pratiques entre des expérimentations et leurs transformations concrètes à travers un dispositif formel. Ce qui est formel, ce n’est donc pas une image, c’est un dispositif, soit un ensemble de règles d’ordonnancement et d’usage de ce qui est et reste toujours expérimentable. Pour conserver la catégorie de modèle et néanmoins faire droit à l’iconoclasme (ou anti-idéalisme) du matérialisme dialectique dont il se réclame à la suite d’Althusser, Badiou s’oriente ainsi vers une sorte d’opérationnalisme dialectique, historiciste, assez difficile à concevoir. La conception en est malaisée puisque le modèle ne semble justement pouvoir être dit et conçu que d’avoir été préalablement pratiqué8. La conception du modèle elle-même n’est pas représentable aisément.

Informatique et Biosphère et la « Méthode des modèles »



Comme on peut le comprendre, c’est surtout dans ce texte de Badiou (publié avant celui d’Althusser) que Legay trouve l’idée alternative permettant de lever le hiatus qui guette sinon son épistémologie. Car il sent que Badiou touche juste lorsqu’il lui indique, comme en passant, cette issue : s’attaquer à l’idée du modèle-représentation à laquelle croient encore inconsidérément ses collègues roumains, comme la majorité des praticiens des modèles. À partir de l’adoption et de l’explicitation de cette thèse, l’épistémologie des modèles de Legay atteint en effet sa complète maturité et sa forme définitive. Car, avec sa propre pratique et la perspective qui est la sienne, il n’est pas loin d’être d’accord avec cette insistance sur le caractère foncièrement expérimental de toute science. Il lui apparaît dès lors évident que la « méthode des modèles » renouvelle radicalement la méthode des sciences en leur ensemble, c’est-à-dire, en l’espèce, rien de moins que la « méthode expérimentale » telle qu’elle a été introduite par Bacon ou Galilée et confortée par Claude Bernard dans les sciences de la vie.

Il se trouve, qu’en 1973, Legay va avoir l’occasion de coucher sur le papier et de publier cette thèse innovante et désormais assez mûre. En effet, depuis 1971, aux côtés de son collègue du laboratoire de biométrie de Lyon, le biologiste des populations Jean-Dominique Lebreton, et avec un certain nombre d’autres collègues, notamment des médecins, des biométriciens, des écologues, des pédologues, des biopédologues, des phytosociologues, des géographes et des cartographes, il est membre d’une association internationale appelée Informatique et Biosphère dont le siège est à Paris, rue de Lille. Elle est dite « internationale » essentiellement parce qu’elle regroupe des chercheurs français de l’INRA, de l’ORSTOM ou du CNRS qui peuvent être en poste dans les DOM-TOM… Les colloques que cette association organisera pratiquement tous les ans, jusqu’à sa dissolution en 1981, pourront en effet avoir lieu en Afrique francophone, comme ce sera le cas en 1979, par exemple, avec le colloque d’Abidjan.

D’après ses statuts, cette association « a pour objet de promouvoir, coordonner, développer et diffuser les méthodes et les techniques de traitement de l’information dans les domaines de l’environnement, de l’aménagement du territoire, de la gestion globale et de la biosphère et de la protection de la nature »1. Elle promeut ainsi fortement et explicitement « l’approche multidisciplinaire ». À la manière dont les statuts la présentent, ce serait l’informatique qui permettrait désormais de réaliser immédiatement cette multidisciplinarité tant désirée. En particulier, l’association se propose « d’harmoniser les méthodes de collecte et de traitement des informations écologiques de façon à les rendre compatibles et à les mettre en commun par le moyen de banques de données »2. Or, parmi ses moyens d’actions, l’association prévoit la publication d’études régulières entreprises par l’association elle-même. Mais dans ces publications, il s’agira en fait souvent d’études méthodologiques financées quasi-exclusivement au départ par la DGRST et dont la publication n’aurait sans doute pas systématiquement été assurée par elle.

En 1973, Legay, qui, tout en travaillant pour la DGRST, enseigne depuis quelques années la méthode des modèles dans le cadre du certificat de MAB (Mathématiques Appliquées à la Biologie), voit là une occasion unique de publier « l’état actuel »3 d’un cours aux accents déjà nettement épistémologiques. Mais il le fait sous la forme d’un manifeste qui ambitionne d’être à la fois plus et moins qu’un manuel pour étudiants : « En publiant ce travail, nous affirmons un point de vue, nous soutenons une thèse. »1 Il s’agit là pour lui de présenter une thèse qui puisse répondre à la fois aux critiques formulées par des collègues scientifiques et à celles des philosophes que nous avons évoqués précédemment. Comme auparavant ses homologues anglo-saxons, Legay a en effet à faire face également à certaines critiques internes et déjà anciennes2 quant à la « méthode des modèles » : elle serait un paravent qui cacherait la disparition de toute méthode scientifique unique, donc rigoureuse et claire. La dispersion, la perte de l’unicité des formalismes manifesterait la perte de la rigueur scientifique. Dans les années 1950-1960 et dans le contexte anglo-saxon, les réponses à ce genre de critiques tendaient habituellement3 à prôner un raffermissement dans l’esprit des scientifiques d’un certain nominalisme ou positivisme au sujet de la valeur des formalismes : les modèles formels sont comme des noms, ils ne réfèrent pas à une idée qui existerait séparée, ils ne renvoient aucunement à une essence, ils ne sont donc pas à penser à l’image de théories essentialistes, ce sont des images certes, mais qui n’ont la valeur que de simples scénarios formels fictifs permettant le calcul ou l’action.

De son côté, même si Legay n’est pas entièrement convaincu par le projet d’apparence prometteur qui est à l’origine de l’association, les publications d’Informatique et Biosphère représente donc pour lui l’occasion de faire entendre publiquement un autre point de vue qui ne trouve pas encore de tribune pour s’exprimer en dehors de sa pratique de conseil au sein de la DGRST. C’est là la source de ce chapitre du livre de 1973, La méthode des modèles, état actuel de la méthode expérimentale. Il deviendra ensuite une référence pour un grand nombre de ceux qui se réclameront, en France, de la « méthode des modèles », notamment en écologie et en agronomie. Nous n’allons pas en reprendre dans le détail le contenu car nous en avons décrit la genèse partielle lors des années qui ont précédé. Mais comme il complète les premières formulations de Legay et qu’il constitue un point d’orgue dans la constitution de l’épistémologie des modèles en France, nous allons former ci-dessous un tableau-bilan des principales idées regroupées et mises en ordre par Legay en cette occasion. Ce dernier en jugera la forme suffisamment mature et aboutie pour décider d’utiliser encore des pans entiers de ce travail de 1973 dans son livre grand public de 1997, L’expérience et le modèle.

Mais avant d’en venir au contenu de ce travail, il est à signaler que Legay s’appuie considérablement sur un article de 1966 du médecin et biocybernéticien Jacques Sauvan, rencontré auparavant à Namur. Cet article, assez confidentiel, avait paru dans la revue Agressologie de Laborit sous le titre « Méthode des modèles et connaissance analogique ». Il se présente comme assez clair et complet, mais il est écrit dans une perspective quasi-exclusivement cybernétique. C’est donc bien lui qui incite Legay à employer désormais l’expression de « méthode des modèles ». Cette expression vient bien au départ de la seule pratique cybernétique de la modélisation. Par un effet de contamination et surtout du fait de cette volonté de fédérer les diverses approches en une méthode scientifique unique, Legay va l’étendre rétrospectivement et rétroactivement aux deux autres sources de modélisation mathématique en biologie. C’est un indice qui, à soi seul, montre combien Legay cherche et parvient à intégrer subtilement la vision cybernétique, la tradition biophysique et sa propre tradition fishérienne pour les faire consoner autour de sa thèse définitive. Comme nous le verrons, cette thèse du modèle-outil présentera de surcroît l’immense avantage de ne plus se prêter aux critiques des scientifiques hostiles ou des intellectuels néo-marxistes et de correspondre ainsi à certaines normes politiques et morales du temps. Mais voici en substance la forme quasi terminale de cette épistémologie :
1) L’expérience n’est pas première car il n’y a pas de rencontre directe avec la réalité. L’expérience est au contraire le résultat d’un « processus d’observation et de réflexion »1. Le modèle intervient sur les données « avant l’expérience »2 et pour mener à elle. En fait, l’expérience est une « fonction »3, non une image. C’est « l’ensemble d’un couple entrée-sortie »4 provoqué sur un individu.

2) L’individu sur lequel on expérimente est lui-même défini comme un « système », comme un « ensemble d’éléments unis par des relations d’interdépendance »5. Il est défini par sa structure de relations, non par sa nature.

3) « Les expériences actuelles sont complexes. »6 C’est-à-dire (et là Legay reprend la définition de Sauvan7) que « la fonction du tout et les fonctions des parties n’ont en commun qu’une intersection »8. Pour traiter la complexité des objets, et conformément à l’enseignement de Fisher, « nous devons nous habituer à cet espace expérimental pluridimensionnel »9.

4) La thèse du modèle-outil non représentatif est affirmée pour la première fois : « Le modèle n’est pas la réalité, il est l’instrument d’étude de la réalité. Même quand cet instrument consiste en une simulation de la réalité, il ne doit à aucun moment être confondu avec la réalité. Il y a d’ailleurs là une impossibilité logique. Si un modèle représentait totalement la réalité, il ne saurait s’en distinguer et il n’y aurait plus sujet ni recherche définis. »10

5) Enfin en tant qu’outil, le modèle doit être finalisé, c’est-à-dire qu’il ne doit pas prétendre répondre à plusieurs demandes : il est conçu en fonction d’un objectif précis. On ne doit pas chercher à construire un modèle général au sens où un tel modèle prétendrait se substituer à la réalité dans les questions que l’on pourrait lui adresser selon plusieurs perspectives : le modèle doit rester toujours partiel et perspectiviste.
Ce résumé appelle deux remarques. Tout d’abord, pour définir le cadre d’emploi de la nouvelle méthode expérimentale, Legay adopte au départ une conception clairement inspirée de la cybernétique et de l’analyse des systèmes. C’est surtout le cas pour la définition du « système » expérimenté, c’est-à-dire pour ce qui fait l’objet de l’expérience. Mais l’« expérience » elle-même, en revanche, est plutôt définie en référence avec la pratique fishérienne d’interprétation des données à travers un modèle. C’est pourquoi elle est conçue comme le fruit d’un travail et non comme une intuition première et non travaillée (influence de Bachelard et des néo-marxistes). C’est donc en particulier ici que Legay noue les fils respectifs des deux traditions de modélisation statistique et systémique. De plus, le modèle résultant d’un vrai travail de conception est à penser comme un « dispositif formel » de transformation des données, au sens de Badiou, mais non comme une image. Or, il est intéressant de noter que ce refus du modèle-image donne à l’auteur l’occasion de déployer un contexte de justification tout à fait surprenant, à première vue :
« C’est peut-être le plus grand service que l’on puisse rendre aux hommes d’aujourd’hui que de leur faire admettre le complexité de la réalité (y compris dans les domaines économiques et politiques). Se battre pour comprendre ou pour créer des structures plus complexes, c’est se battre pour un progrès mental. Dénoncer le modèle-image-de-la-réalité même auprès de ceux qui ont conscience qu’il s’agit d’une image simplifiée de la réalité, c’est dénoncer un concept primitif et idéaliste, c’est en même temps dénoncer un concept mécaniste. »1
Ce passage, très curieux du fait de cette envolée un peu déplacée dans un ouvrage de méthodologie scientifique, nous indique bien sans ambiguïté que les critiques des néo-marxistes ont été entendues, assimilées et reprises en partie2. Legay y transforme continûment l’argument politique et philosophique en un argument épistémologique mais aussi ontologique : il faut rejeter le modèle-image au nom de la complexité de la réalité. En fait, il est essentiel de comprendre que l’appel à la reconnaissance de l’objectivité du monde extérieur tel qu’il avait été exprimé par Althusser a été transformé en un appel à la reconnaissance de sa complexité. Le contexte de justification, de philosophique qu’il était, devient plus méthodologique et donc plus recevable dans un contexte purement scientifique. Dans les deux cas, il s’agit d’en appeler à la reconnaissance d’une transcendance insurmontable de l’objet à l’égard du sujet, donc d’en appeler à la lutte contre l’idéalisme ou tout autre forme d’idolâtrie. Ainsi le modèle peut survivre et même prospérer en tant qu’outil mais seulement et pour peu qu’il porte toujours en lui les stigmates de son insuffisance à dire le tout de la réalité. Un certain spinozisme s’exprime là aussi en ce que la réalité immanente est dotée de l’attribut ordinairement divin de l’insondabilité. L’interdit classique de la représentation du divin semble alors assez logiquement s’imposer pour la « réalité », objet de science. Mais ce passage montre que cette « logique » est en fait surtout le fruit d’une décision et d’une invocation morale et politique : elle dépend donc bien aussi d’une représentation du monde propre à l’après-guerre, d’un esprit du temps. Il s’agit de fuir à jamais les idoles, toujours porteuses de simplisme, en retournant au travail du monde au cœur du monde lui-même.

Comme naguère le prônait l’Imitation de Jésus-Christ de Thomas a Kempis pour l’accession à la piété et au salut, le travail scientifique doit consister à imiter l’éminence de la nature (sa complexité) par les actes réfléchis et personnels (l’interdisciplinarité et le modélisme perspectiviste et pragmatique) qu’on lui oppose et non par des contemplations figées ou par des images qui menacent toujours de nous plonger dans l’idolâtrie irrespectueuse. Dans ce contexte, comme dans celui des ordres mendiants puis des mouvements pré-réformistes dont on sait qu’ils se développèrent en partie pour compenser le déracinement du rapport sensible des fidèles au réel et à Dieu, tel qu’il fut occasionné par l’urbanisation croissante au bas Moyen-Âge3, devant le semblable déracinement que vivent les scientifiques, l’emphase est portée non plus sur la théorie collective et unitaire, mais sur la praxis individuelle, seule chargée d’incarner la présence réelle de l’esprit de connaissance dans la nature, dans cette nature certes entre-temps désenchantée, mais d’autant plus étrange et transcendante. Que ce soit dans les doctrines théologiques qui ont préparé la Réforme ou dans l’épistémologie dialecticiste des modèles de la nature vivante, il s’agit bien toujours de réagir à un déracinement, non en y résistant, mais en l’assumant pieusement par le passage de la contemplation à l’action1. Sans vouloir nous aventurer davantage ici dans l’étude de filiations intellectuelles lointaines, indiquons seulement que ce sont de tels parallélismes qui autorisent à voir découler en quelque manière la lutte épistémologique contemporaine contre l’idéalisme, de la constante lutte religieuse contre les idoles, cela du fait même d’un glissement corrélatif de l'ontologie vers un spinozisme plus ou moins explicite, c’est-à-dire vers une divinisation de la nature2.



Conséquence de cette épistémologie pour la simulation sur ordinateur

Qu’en est-il dès lors de la simulation sur ordinateur ? Va-t-on autoriser l’idée qu’elle puisse servir à représenter la réalité ? Ou va-t-on confirmer l’intuition programmatique d’Informatique et Biosphère selon laquelle l’informatique sert essentiellement à stocker, à traiter et à faire circuler des informations ? L’ordinateur n’est-il qu’une machine à traiter de l’information ? Y a-t-il des expériences sur ordinateur ?

Sur ce point, Legay répond clairement dans une note de bas de page : « Une simulation ne peut être considérée comme une expérience, tout au moins au sens de recours à la réalité. »3 Il ne peut donc y avoir d’expérience sur ordinateur. Cependant, on sent ici que Legay voit immédiatement poindre l’objection des simulations cybernétiques et il se rend compte qu’il ne faut peut-être pas ranger la simulation dans la même catégorie que le modèle révélateur d’expérience : « mais la simulation n’est pas qu’une technique de production de phénomènes ; simuler n’est pas seulement ‘faire ce qui est avant l’expérience’, c’est aussi étudier des mécanismes possibles sur des faits réels. »4 La simulation serait donc une activité plus proprement théorique et, à ce titre, elle ne concernerait pas directement le renouveau de la méthode expérimentale par les modèles dont il est pourtant principalement question dans ce texte de 1973. Elle serait une technique heuristique de recherche de mécanismes explicatifs. Mais pourquoi dès lors parler de la simulation ? Legay ne lève pas l’embarras dans lequel il nous place à ce sujet. Car il va tout de même continuer à placer les simulateurs dans la catégorie des modèles. En fait, là encore, il adopte intégralement la classification cybernétique de Sauvan5 en décidant d’admettre que les simulateurs sont bien des modèles mais qu’ils ne le sont que par les seules performances apparentes6. Plus loin, reprenant la distinction faite par Couffignal7, dans un esprit également cybernétique, entre modèle physique (matériel) et modèle dialectique (appartenant à l’ordre d’un langage naturel ou formel), Legay évoque l’existence non pas d’ordinateur1 mais de « calculateur digital ». Or, du point de vue de la modélisation, une telle machine semble ne pas être facilement classable selon les critères de Couffignal : c’est un modèle physique mais à opérateur logique car, « pour programmer une machine digitale, il faut déjà connaître l’algorithme qui mène à la solution du problème envisagé »2. Le langage y intervient donc de manière fondamentale ! Là aussi, la classification cybernétique à la manière de Couffignal semble échouer à clarifier réellement les choses : le programme informatique étant une sorte de physicalisation d’un modèle dialectique, une telle classification, trop grossière, ne devrait déjà plus tenir. Mais Legay s’efforce pourtant d’appuyer son argumentation sur elle.

En résumé, de même que la simulation n’est toujours conçue que dans un cadre cybernétique et théorique, la machine digitale se voit, pour sa part, cantonnée au rôle de calculateur, puis de transformateur et de classificateur de données en conformité avec l’orientation et la conviction des fondateurs d’Informatique et Biosphère et en continuité avec la perspective prioritairement informationnelle de la pratique fishérienne de la biométrie. Dans ce contexte précis de l’épistémologie de la modélisation mathématique, on constate donc une fois de plus que l’épistémè informationnelle a rencontré une relative unanimité et a pesé de tout son poids dans les réflexions méthodologiques comme dans les orientations scientifiques des années d’après-guerre3.



Ajoutons que ce cantonnement au sujet du rôle de l’ordinateur sera longtemps relayé et même amplifié, notamment par les pouvoirs publics en France, durant toute la décennie de 1970. Et, de ce point de vue là, l’association Informatique et Biosphère n’est pas la seule à restreindre a priori les usages de l’informatique dans les sciences. Les scientifiques français, surtout dans les sciences humaines, sont alors nombreux à faire le pari d’une informatisation précoce et généralisée, au sens d’une fluidification des échanges informationnels, ignorant ou oubliant promptement les autres usages (en particulier la simulation) de l’ordinateur. Pour s’en convaincre, il suffit de consulter les documents contributifs annexés au rapport de Simon Nora et Alain Minc sur L’informatisation de la société française conçu et publié en 1979 sur une demande remontant à 1976 et faite par le Président de la République de l’époque, Valéry Giscard d’Estaing : les histoires de l’informatique qu’on y trouve sont toutes orientées vers l’avènement d’une société où l’ordinateur servira de support pour un grand système informationnel. À aucun moment il n’y est question d’applications autres qu’informationnelles, même pour la recherche scientifique4.

La ramification du gui : un modèle pour l’épistémologie des modèles



Pendant ces mêmes années au cours desquelles Legay travaille à concevoir une épistémologie des modèles à la fois fédératrice et capable de répondre aux critiques de ses détracteurs, y compris de ceux qui appartiennent à la communauté des scientifiques, il poursuit également la conception de modèles morphologiques et de croissance pour l’œuf du ver à soie. En 1971, avec Robert Pernet, un collègue pharmacologue, il publie chez Acta biotheoretica un modèle mathématique de cet œuf. Le modèle est descriptif. Sa nature est purement géométrique. Grâce à des mesures réitérées et nombreuses effectuées au micromètre optique, Legay a en effet constaté la remarquable stabilité des proportions longueur/largeur et longueur/épaisseur de cet œuf. Il lui paraît donc possible d’en construire un modèle simple. Mais l’inconvénient de ce modèle de structure est qu’il ne vaut que pour l’œuf terminé : il ne permet aucunement de schématiser les processus conduisant à la structure finale. Comme la perspective de Legay reste avant tout explicative, au moins au niveau physiologique, il ne réutilisera donc plus ce modèle dans ses travaux futurs. Ce dernier restera une simple suggestion de description.

À la même époque, et pendant quelque temps encore, Legay ne perd pas de vue l’approche générale et en revanche déjà passablement explicative des processus de croissance que trois ans auparavant il avait mis en place pour l’article publié dans la revue de Rashevsky. Toujours en vue de clarifier et expliquer en partie les phénomènes de croissance en terme de reproduction cellulaire, et conformément à l’esprit d’un expérimentateur aguerri, il entreprend de se pencher sur des « processus de reproduction » dont on peut déjà mesurer expérimentalement et donc évaluer quantitativement les caractéristiques précises de reproduction entre générations : à savoir les processus de ramification tels qu’ils se manifestent de façon éclatante et mesurable chez les plantes. D’une certaine manière, mieux que tout autre phénomène vivant, une plante montre manifestement et maintient en permanence sous nos yeux toute l’histoire des « processus de reproduction » qui lui ont donné le jour. La « distance » temporelle s’y laisse lire et donc mesurer comme une « distance » spatiale. Elle est donc l’objet d’étude à privilégier dans un premier temps, si l’on veut tenter de spécifier le modèle général de croissance par reproductions de générations. Pour ces mêmes raisons de simplicité de procédure en vue du calibrage du modèle de croissance, Legay choisit une plante dont la morphologie est, dit-il, particulièrement « simple »1 : le gui. En 1970, un de ses étudiants, G. Cordier, a déjà travaillé avec lui à constituer un ensemble de mesures susceptibles de servir à la constitution d’un modèle de ramification précis pour cette plante. Dans ce cadre, Legay a été conduit à proposer un nouveau modèle de ramification qui l’oblige en fait à prendre nettement ses distances avec sa propre proposition générale de 1968. Ainsi ce travail sur le gui, au départ prometteur, manifeste plutôt la très faible applicabilité de son « modèle général » populationnel. Il contribue donc plutôt à renforcer en son esprit l’épistémologie instrumentaliste des modèles alors en pleine constitution. En 1971, Legay profite donc de l’occasion qui lui est donnée de publier de nouveau dans la revue de Rashevsky non pas pour prouver expérimentalement la pertinence de son modèle de 1968 (il ne le peut pas au vu de ses résultats empiriques) mais pour exprimer et démontrer dans un contexte scientifique précis son épistémologie désormais bien formée. À ce titre, le demi-échec de Legay dans cette question des modèles de croissance lui servira plutôt à confirmer aux yeux de ses collègues une épistémologie anti-représentationnaliste et instrumentaliste. Cet article de 1971 est donc intéressant et révélateur en ce qu’il ne limite pas à la publication d’un modèle partiel de ramification mais en ce qu’il présente un exemple d’usage des modèles sur lequel peut se saisir la pertinence de son épistémologie des modèles. Si bien que, du point de vue de Legay, ce modèle du gui est aussi un modèle pour l’épistémologie des modèles. Cet échec relatif lui apparaît fécond. Car le cas de la modélisation de la croissance des plantes se présente finalement à lui comme une pierre d’achoppement exemplaire pour toute entreprise de modélisation à visée représentationnelle. Il est pour lui l’occasion de confirmer une épistémologie des modèles qui, comme nous l’avons vu, dépasse par ailleurs ce seul cadre de la modélisation des plantes. Mais, comme le cas particulier de la modélisation de la croissance des plantes semblait a priori le plus favorable à l’approche théorique et représentationnelle, le fait qu’il fasse finalement échouer son projet d’une modélisation générale des phénomènes de croissance au regard des mesures et des tests statistiques vaut comme un argument a fortiori : si même les processus de reproduction les plus apparemment simples et manifestes, ceux de la ramification végétale, ne sont pas modélisables de façon univoque, il devrait en être a fortiori de même pour tous les autres « processus de reproduction ». C’est sans doute pourquoi Legay s’autorise à produire là de nombreuses remarques épistémologiques allant dans le sens de sa propre conception, désormais mature, des modèles et de leur usage. Et c’est pour cette raison même qu’il nous est crucial de revenir sur les résultats et arguments invoqués dans cet article d’autant plus que, par la suite, et ce n’est pas un hasard, il servira explicitement à l’agronome du CIRAD de Reffye à mettre en valeur sa propre approche par simulation et ce par contraste en quelque sorte avec l’approche et l’épistémologie de Legay.

Dans ce travail de 1971, Legay se propose dans un premier temps de confronter au test statistique le modèle général de ramification proposé par Rashevsky dès 1948 dans son ouvrage Mathematical Biophysics. Il s’agit d’un modèle reposant sur l’hypothèse que les contraintes métaboliques sont déterminantes dans la genèse d’une ramification végétale. On s’en souvient, elle consiste à admettre que le flux métabolique F dans un rameau de rayon r est proportionnel à la section de ce rameau :
F = K r

Legay montre alors que l’on peut en déduire ce qu’il appelle un « modèle de Rashevsky généralisé » en supposant que cette hypothèse est valable à chaque rang de ramification. Il suffit pour cela de considérer que le flux métabolique total se conserve. Si au rang 1 on a n1 rameaux de rayon r1, dans chaque rameau, on a un flux métabolique égal à F/ n1 auquel on peut par ailleurs appliquer la même hypothèse de modélisation :


F/ n1 = K r12

2
Dès lors le modèle se déporte sur la relation entre les rayons des rameaux successifs :
ri2 = ni+1 ri+12
Legay précise que cette relation est simple et que c’est pour cette raison même qu’elle est « vérifiable »1. Le « contrôle expérimental »2 est effectué sur 27 échantillons de gui prélevés sur divers arbres hôtes. Il est mené au moyen d’un test statistique de type χ et il conduit à rejeter massivement le modèle métabolique généralisé.

C’est à partir de ce rejet de l’hypothèse purement métabolique que Legay se propose d’introduire un modèle populationnel qui soit prioritairement sensible au nombre de ramifications à chaque rang. Or, c’est précisément cela qu’il appelait, en 1968, l’« ordre » de la « relation de reproduction »2. Même s’il ne le présente pas explicitement ainsi, son objectif est donc d’essayer de voir si son modèle cellulaire à perspective populationnelle et générationnelle ne vaudrait pas mieux que celui de Rashevsky. En fait, les mesures effectuées sur le gui lui montrent que les ramifications ne sont pas toujours de même « ordre » : elles ne sont pas toujours binaires (seulement à 67 %) et les mesures statistiques montrent que le nombre de rameaux dépend de façon significative à la fois de l’espèce de l’arbre hôte et du rang de ramification du rameau porteur. Legay en conclut que « l’hypothèse d’une ramification binaire serait donc assez grossière »1. Or, même s’il ne le précise pas de nouveau ici, une grande partie de l’intérêt de son « modèle général » des relations de reproductions de 1968 reposait sur la possibilité de calculer analytiquement le nombre de rameaux à chaque génération à condition que certaines hypothèses supplémentaires, comme la constance de l’« ordre » de ramification, c’est-à-dire du nombre de rameaux, soient valables. Il lui faut donc rejeter l’idée que l’on puisse utiliser son étude théorique préalable. Pour des raisons de non-calculabilité cette fois-ci, son « modèle général de reproduction » fondé sur une perspective populationnelle ne se trouve pas plus utilisable que le modèle métabolique généralisé de Rashevsky. Sur cet exemple précis, nous voyons donc bien que c’est en recourant à de telles analyses biométriques de terrain que Legay se persuade que ce genre d’hypothèse de calcul a priori est en général intenable. Devant ces résultats empiriques, Legay est conduit une fois de plus à se confirmer dans l’idée que les modèles généraux calculables sont de ceux qui ne sont pas précisément calibrables au moyen d’une étude biométrique. Ces modèles lui paraissent servir au mieux à indiquer de nouvelles variabilités, autrement inaperçues.

Toutefois, devant le cas du gui, Legay ne renonce pas encore tout à fait à recourir à une approche populationnelle. Il opte ainsi pour le test d’un « nouveau modèle »2 qui lui est suggéré par un calcul simple effectué à partir des tableaux de mesures3 disponibles, le calcul du volume total des rameaux engendrés à chaque génération. Legay constate sur les données biométriques que ce volume est relativement constant en moyenne. Il en induit donc une nouvelle hypothèse théorique : « La quantité de matière vivante qu’un organisme comme le gui est capable de synthétiser dans un temps donné est approximativement une constante. »4 Comme son « modèle général » de reproduction de 1968, cette hypothèse de modélisation de 1970-1971 concerne le niveau d’interprétation physiologique de la croissance. Cette approche ne va certes plus considérer la population des branches mais plutôt la quantité de matière vivante, c’est-à-dire en quelque sorte la population des cellules engendrées à chaque laps de temps : comme dans le cas de la première proposition de 1968, « il s’agit d’une hypothèse qui se place davantage au niveau de la physiologie cellulaire (capacité de multiplication) qu’à celui des contraintes mécaniques et métaboliques comme le faisait le modèle de Rashevsky »5. Legay étudie alors systématiquement le rapport du volume des rameaux de rang i sur la somme des volumes des rameaux de rang i+1. Il procède ensuite à un test de signification de type t de Student sur la loi des variations de ce rapport autour de la valeur théorique de 1 ; et il obtient un tableau où les différences obtenues sur les divers échantillons sont la plupart du temps non significatives. Ce modèle se révèle donc meilleur que celui de Rashevsky et que son propre « modèle général » de 1968. Mais il oblige à faire la distinction entre la croissance en extension correspondant au phénomène de ramification proprement dit (population des branches) et la croissance en densité « qui se traduit par un phénomène d’homothétie appliqué à chaque élément du système »1 (population des cellules). Donc tous les points de vue ne peuvent être adoptés en même temps si l’on veut disposer d’un modèle précis.

Bilan : la non existence du modèle unique

Legay en conclut que cette enquête qui l’a mené du modèle de Rashevsky au modèle du volume moyen des rameaux a nécessité le passage d’une approche morphologique à une analyse des processus physiologiques de croissance qui conduisent à cette morphologie : son « nouveau modèle » peut en effet être interprété comme un modèle explicatif de croissance et pas seulement comme un modèle de morphologie. Ce modèle lui-même n’est pas exempt de défaut et il se révèle approximatif à l’analyse. Pour Legay, c’est bien le signe que si l’on veut disposer de modèles à la fois calculables et calibrables sur des données de terrain, il faut préciser à quoi ces données peuvent être utilisées et ainsi restreindre a priori ses prétentions et ses objectifs d’intervention. Il faut tout d’abord adopter une « base » interprétative bien distincte, qu’elle soit métabolique comme dans le cas de Rashevsky ou bien physiologique comme dans son propre cas. Aucune base d’approche n’est en soi préférable à une autre : tout dépend de l’objectif visé. Voici alors dans quels termes Legay indique la leçon épistémologique qui doit être finalement retenue de ce genre de demi-succès ou demi-échec :


« L’intérêt d’une telle étude est pour moi d’être un exemple du fonctionnement d’un modèle mathématique en tant qu’instrument intellectuel de recherche2. Le problème n’est pas bien entendu de savoir si le modèle de Rashevsky est meilleur que le mien. À mon avis ce genre de question est sans fondement. Un modèle, s’il est un bon outil, doit nous permettre de découvrir des faits nouveaux. Le modèle de Rashevsky nous a permis d’amorcer l’exploration de la structure d’une plante comme le gui ; notre modèle, construit sur d’autres bases, a permis de saisir d’autres aspects de la réalité […] En résumé nous voyons qu’il n’est pas possible d’envisager un seul modèle pour l’étude du phénomène de ramification. Malgré l’apparente simplicité morphologique du résultat, ce phénomène met en cause d’innombrables mécanismes dont nous constatons seulement à première vue un bilan global […] Devant la multiplicité des problèmes soulevés, on voit bien qu’aucun modèle ne peut rendre compte de la réalité. Ni les relations (1) ou (2) [du modèle de Rashevsky], ni (7) ou (9) [du modèle de Legay], ni d’autres ne peuvent décrire la réalité biologique dans toute sa complexité. On notera cependant l’efficacité de relations aussi simples dans l’exploration de cette réalité. En outre, elles nous suggèrent des expériences nouvelles ; elles font progresser nos connaissances dans des directions qui ne sont pas quelconques et qui correspondent précisément aux aspects envisagés par ces modèles.

Ceux-ci sont des instruments finalisés de notre recherche. »3
C’est donc par ces mots on ne peut plus clairs que se termine l’article de 1971 sur le modèle de ramification du gui. Nous citons longuement ce passage car il montre qu’entre 1968 et 1971, la maturation contemporaine de l’épistémologie de Legay se ressent explicitement jusque dans ses publications scientifiques elles-mêmes. Il n’est pas indifférent pour notre problématique de constater que, dans un esprit biométrique attaché de surcroît, à la suite de Teissier et Grassé, au niveau physiologique des phénomènes vivants, la modélisation de la ramification et de la croissance des plantes constitue comme une pierre d’achoppement exemplaire pour tout projet scientifique qui tenterait de concevoir encore la modélisation comme une représentation, c’est-à-dire ici comme une reproduction du phénomène naturel dans toute sa complexité. Pour Legay, dans ces années-là, la problématique morphologique et morphogénétique constitue un cas exemplaire de résistance à la modélisation représentationnelle. Or, nous aurons l’occasion de voir comment l’approche par simulation a en un sens contourné ces interdictions programmatiques (qui se présentaient comme des innovations épistémologiques et idéologiques) sur le matériel même à partir duquel Legay avait bâti sa démonstration qu’il voulait si générale : la morphogenèse des plantes.

Yüklə 8,85 Mb.

Dostları ilə paylaş:
1   ...   21   22   23   24   25   26   27   28   ...   112




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©muhaz.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin