CHAPITRE 28 – La première convergence : avec l’informatique graphique (1981-1985)
Refusé à l’INRA, mais toujours en poste à l’IFCC, de Reffye va en effet se trouver directement aux prises avec les projets institutionnels et les restructurations fondamentales que vont subir les instituts de recherche tropicale en ce début des années 1980. Il y a deux explications majeures à ces restructurations de la recherche tropicale française. D’une part, le processus de décolonisation touche à son terme. Les nouveaux Etats concernés poursuivent plus que jamais la reprise en main de la recherche agronomique qui s’effectue sur leurs propres territoires. Il faut donc donner une autre dimension et de nouvelles fonctions à la recherche française expatriée dans ces pays si l’on ne veut pas la voir tout bonnement disparaître1. Les instituts dédiés aux recherches tropicales sont souvent implantés dans des pays où la présence française est restée, pour certains, remarquablement faible par rapport à d’anciennes autres colonies : la conservation d’un pôle avancé de recherche, dans de telles conditions, appelle d’autres arguments que la simple invocation d’une amitié ancienne ou que le simple maintien de rapports dits privilégiés. La seconde raison est de nature économique : les instituts français de recherche tropicale commencent à être victimes d’une féroce concurrence internationale dans la mesure où certains pays émergents ont désormais les moyens de faire entendre leur voix dans le petit monde de la recherche internationale. C’est donc à ce moment-là, en 1980, qu’est décidé la création du GERDAT, le Groupement d’Enseignement et de Recherche pour l’Agronomie Tropicale. L’ingénieur agronome Hervé Bichat est alors nommé directeur de ce nouvel EPIC (Etablissement Public à caractère Industrielle et Commercial). Il rassemble la dizaine des instituts de recherche tropicale dont chacun était au départ dédié à une filière ou à une production spécifique : végétale, animale, forestière, caféière ... De Reffye va être appelé à jouer un rôle institutionnel au sein du GERDAT. Certaines de ces compétences vont en effet être mises à contribution, ce qui, pendant un temps, va avoir pour effet de donner un coup d’arrêt à ses recherches en modélisation des plantes, tout en lui donnant une place privilégiée au sein de son institution.
Du terrain de la simulation à la simulation comme terrain
Malgré des débuts donc peu prometteurs voire très alarmants, du point de vue du développement de la simulation informatique, cette période de l’histoire de la modélisation des plantes va pourtant se conclure sur une formidable reconnaissance et une considérable diffusion de ses pratiques dans de nombreux secteurs de la recherche. Née sur le terrain agronomique, la simulation va devenir en elle-même un véritable terrain d’expérimentation pour de nombreux autres domaines. Avec le retour de de Reffye en France et la création de son laboratoire propre, on peut ainsi dire à bon droit que l’on passe de « la simulation sur le terrain » au « terrain de la simulation ». La simulation devient en effet un terrain en deux sens : elle est une technique de modélisation qui devient le terrain, le lieu de jonctions et de convergences tout à fait nouvelles et privilégiées entre des approches de la plante jusque là éloignées entre elles, comme celles de l’informatique graphique, du paysagisme, de la foresterie, de la sylviculture ou de la botanique. Au cours des années 1990, nombre de ces pratiques au départ hétérogènes vont se sentir tour à tour dans l’obligation de s’appuyer opportunément sur l’approche de de Reffye : elles vont se joindre les unes aux autres sur ce lieu commun, sur ce « sens commun » du second genre, sur ce nouveau terrain commun qu’est la simulation réaliste de la plante individuelle. Cette convergence sociologique et institutionnelle est rendue possible parce que la simulation est devenue, entre-temps et plus profondément, un terrain en un autre sens : elle est le terrain d’expérimentations virtuelles. Elle est le double d’une réalité empirique complexe qu’elle peut remplacer avantageusement pour ces diverses disciplines ou pratiques qui se rendent compte, à peu près au même moment, qu’elles doivent prendre en considération la plante au niveau individuel. Certes, cette idée d’une expérimentation virtuelle peut choquer et sembler excessive. Pourtant les artisans de cette convergence et de cette consolidation de la simulation des plantes en France vont la revendiquer et lui donner une forme de crédibilité bien particulière qu’il nous faut pour cela explorer dans son établissement. Il sera donc hautement instructif pour nous de retracer les événements et les conditions institutionnelles, conceptuelles et techniques qui ont permis ce revirement, cette convergence décisive et cette consolidation assez inattendues a priori : ce sont eux seuls qui expliquent comment la simulation des plantes sort définitivement du stade des spéculations théoriques, en particulier en France, au cours des années 1990, malgré les résistances que, sous cette nouvelle forme, elle va encore rencontrer.
Le retour en métropole : création et informatisation du CIRAD
En 1981, Bichat décide donc de réorganiser le groupement de manière à lui donner plus de cohésion sans pour cela briser les spécificités traditionnelles de chaque institut. Pendant trois ans il va travailler à faire du GERDAT ce qui sera nommé à partir de 1984 le CIRAD : Centre de Coopération Internationale et Recherche Agronomique pour le Développement. En accord avec le gouvernement français de l’époque, Bichat choisit de mettre en avant le côté « coopération » et « aide au développement » de manière à prendre explicitement en compte, dans la politique de recherche, les intérêts économiques et sociaux des pays d’accueil. Il dispose pour cela de l’appui d’Alain Savary1 puis d’Hubert Curien2. Comme ce fut le cas pour les instituts naguère indépendants, le GERDAT puis le CIRAD fonctionneront selon le principe d’une recherche appliquée directement à même de dégager des fonds propres grâce à des contrats ponctuels passés avec les pouvoirs publics français, avec des entreprises privées ou encore avec des gouvernements étrangers. Le statut du CIRAD reste donc bien différent de celui de l’INRA ou du CNRS.
Dans son travail d’unification de la recherche tropicale appliquée, même s’il n’est pas partisan d’un jacobinisme à outrance et s’il préfère l’idée d’une confédération d’instituts, Bichat perçoit rapidement la nécessité et l’intérêt d’une informatisation précoce de son institution. En effet, il lui faut gérer onze organismes dont les statuts demeurent malgré tout assez différents. La gestion de l’information et des ressources devient, dans ces conditions, un enjeu majeur. De plus, la nécessité de disposer d’un réseau informatique interne s’impose plus que jamais au GERDAT puisque la plupart des instituts sont localisés dans l’outre-mer, c’est-à-dire très loin les uns des autres. Pour en assurer un meilleur contrôle, la direction se sent donc dans l’obligation de matérialiser en quelque sorte l’unité organique du groupement. C’est la solution de l’informatique répartie qui s’impose alors à Bichat dans une époque particulièrement ouverte à cette idée puisque, rappelons-le, vient de paraître l’important rapport de Nora et Minc (1979). Ce dernier, on s’en souvient, met beaucoup l’accent sur le côté gestion-centralisation-redistribution de l’information grâce aux solutions informatiques.
C’est précisément à ce moment-là que Bichat se souvient de de Reffye. Bichat est l’un des premiers à admirer son travail de simulation sur ordinateur. Et il reconnaît volontiers une sorte de génie chez ce collègue qu’il avait rencontré naguère sur le terrain, lorsqu’il était lui-même dans un poste de direction en Côte-d’Ivoire. Cependant, les applications de son travail paraissent en réalité bien minces. L’activité essentielle du CIRAD consiste toujours en l’amélioration des sols, des graines et des techniques de culture. La prévision de la verse du caféier et la prise en compte des problèmes mécaniques des arbres paraît à ce moment-là un problème dépourvu de généralité et donc d’urgence. Il semble très marginal. En 1981 donc, en accord avec le secrétaire général du GERDAT, Jean-Marie Sifferlen, Bichat nomme de Reffye (qui vient à peine d’arriver à la station de l’IFCC de Montpellier) à la tête du Centre Informatique du GERDAT. Bichat, ne disposant pas d’informaticien de formation au GERDAT, fait donc confiance à un autodidacte dont la compétence est toutefois reconnue, en interne, par ses pairs. Il s’appuie en fait surtout sur la personnalité de de Reffye qu’il trouve rigoureuse, conciliante et diplomate. L’informatisation d’une institution étant toujours l’occasion de luttes violentes et de redistribution de pouvoir intenses, une telle personnalité fédératrice semble le meilleur choix pour Sifferlen et Bichat. Outre le fait qu’il s’agit d’une promotion importante pour lui, de Reffye accepte cette proposition pour au moins trois autres raisons. Tout d’abord, en se rapprochant des instances de décision, il rend définitif son retour en France. Ensuite, notamment après son échec à l’INRA, il est disposé à abandonner à ce moment-là la recherche. Il se sent saturé. Le travail dans l’isolement lui a pesé. Surtout il ressent assez mal le faible écho que ses travaux suscitent au-delà du succès d’estime indéniable qu’il remporte auprès de ses collègues directs de l’IFCC. Il se sent en réalité très peu soutenu de ce côté-là. Enfin, il a lui-même le sentiment d’avoir fait le tour de la question qu’il s’était lui-même posée dans le cadre de sa thèse : il ne voit pas comment renouveler sa propre problématique de simulation. On peut ajouter qu’il est probablement dépité face aux résultats en demi-teinte des recherches qu’il a entre-temps poursuivies sur l’optimisation de la densité assistée par la simulation. Il doute très certainement. Le chemin qu’il voit s’ouvrir à lui dans l’immédiat est celui d’un rapprochement possible avec des informaticiens de métier qui sauront peut-être améliorer son logiciel, à côté du travail d’informatisation du GERDAT.
Dans son nouveau poste, son activité consiste essentiellement à recruter de jeunes ingénieurs informaticiens dont il supervise ensuite le travail. De Reffye ne part pas de zéro. Il s’agit surtout de réorganiser les réseaux déjà existants. Bichat veut un outil informatique puissant susceptible de livrer des indicateurs sur le fonctionnement technique, scientifique, commercial ou administratif de chacune des petites unités du GERDAT afin de déterminer les problèmes communs et de les maîtriser ensemble et rapidement. De Reffye recrute plusieurs ingénieurs de l’ENSIMAG (Grenoble), dont Joël Sor, qui sauront développer avec lui, en deux ans, un système informatique très performant.
Pendant ces années, de Reffye ne modifie pas fondamentalement l’architecture de son programme. Mais, à ses heures perdues, il demande tout de même à Joël Sor de l’aider à le traduire en FORTRAN de manière à ce qu’il soit portable sur la plupart des autres machines. C’est en effet une des premières conditions à respecter lorsque l’on veut développer une solution informatique qui se veut plus générale. Sor et de Reffye vont ensuite développer les simulations de 1979 sur d’autres périphériques, notamment sur les grosses tables traçantes à rouleaux de marque Benson, puis sur les premiers écrans Tektronix qui seront disponibles au GERDAT à partir de 1982. De Reffye sait qu’il faut suivre le progrès technologique au plus près s’il veut tenter de sortir ses simulations de l’ornière des limitations en puissance. Or, il bénéficie d’une particulière bienveillance du côté de la direction du GERDAT. Elle lui est vivement reconnaissante d’avoir réussi à implanter rapidement et sans trop de heurts un réseau informatique qui fonctionne : Sifferlen accède donc assez souvent à ses demandes d’achat supplémentaire en machines coûteuses. Bichat et Sifferlen soutiennent fortement de Reffye de ce point de vue là. De fait, le Centre Technique dont de Reffye est le responsable dépend directement de la direction du GERDAT. Financièrement, il est ainsi moins assujetti à des contrats ponctuels comme le sont en revanche les différents instituts rattachés auxquels il est demandé de dégager des fonds propres. De Reffye bénéficie en conséquence d’une sorte de traitement de faveur : on tolère qu’il se paye le luxe de faire un peu de recherche fondamentale, chose contre-nature au GERDAT, cela d’autant plus qu’il ne semble pas abuser des largesses dont on gratifie son Centre.
Pendant cette période d’arrêt de ses recherches, de Reffye s’astreint tout de même à publier sa thèse. Il le fait de manière assez détaillée (sur 66 pages en tout) dans quatre numéros successifs de la revue Café, Cacao, Thé, entre juin 1981 et mars 1983. Mais, comme pour ses premiers articles de modélisation publiés dans la même revue technique, l’écho qu’il en reçoit est, dans un premier temps, assez faible. Les articles de cette revue sont pourtant répertoriés dans le système international des Current Contents. Ce qui permet des recherches par mots-clés. Mais les articles de de Reffye sont en français et restent donc peu, voire pas du tout accessibles aux chercheurs étrangers.
La rencontre avec l’informatique graphique : itinéraire d’un informaticien français
À l’automne 1985, les choses en sont là lorsqu’un informaticien de l’Université Louis-Pasteur de Strasbourg, Jean Françon, entre directement en contact, par téléphone, avec de Reffye. C’est ce contact tout à fait décisif qui va, par la suite, le replonger dans la recherche à temps plein. Afin de pouvoir expliquer les raisons de cette rencontre féconde et en réduire un tant soit peu le caractère passablement contingent, il nous faut au préalable revenir sur la carrière et l’approche scientifique et épistémologique de Jean Françon à l’époque. Car il est pour le moins curieux qu’un chercheur en informatique théorique contacte un agronome et un simulateur de plantes pour en attendre une aide, mieux : une collaboration. Ce qui est bien le cas. Ce contact va de surcroît contribuer à établir un lien solide entre la tradition de l’informatique graphique et la simulation réaliste des plantes née en France, sur le terrain. Comme nous allons le voir, il va constituer une première jonction et une première consolidation du travail de de Reffye. Cette jonction sera bien la première d’une succession de convergences qui vont contribuer à renforcer considérablement le poids de la simulation réaliste des plantes en France et dans le monde. C’est à travers cette reprise en main inattendue que le travail de 1979 va finalement se révéler séminal et non terminal.
Mais qui peut bien être ce chercheur en informatique graphique qui contacte spontanément de Reffye cette année-là ? Penchons-nous un moment sur sa formation et sur sa carrière. Jean Françon est né en 19371. Il avait commencé sa formation par des études de mathématiques à la fin des années 1950. En 1960, il effectua un stage d’été à la Compagnie des Machines Bull pendant lequel il apprit à programmer sur des calculateurs à cartes perforées. Ce fut son premier contact avec une technique qu’il jugea intéressante mais très lourde à mettre en œuvre. Il poursuivit alors sa formation par un DEA et une thèse de troisième cycle en physique théorique appliquée à la physique nucléaire auprès de l’Université de Strasbourg. Son travail portait sur un type de modélisation mathématique de phénomènes nucléaires. Cette modélisation était à comprendre au sens d’une simplification des équations théoriques et d’une représentation approchée conçue de manière à ce que le calcul soit possible. Il choisit cette matière, nouvelle pour lui, parce qu’il était sûr d’avoir une place dans le DEA de physique et qu’il était alors très soucieux de ne pas être envoyé comme soldat en Algérie. De fait, il vécut assez mal son passage des mathématiques à la physique à cause de sa formation mathématicienne qui, signe des temps, avait été très bourbakiste : les physiciens s’autorisaient à négliger les conditions d’applications des théorèmes, comme ceux qui portent sur les fonctions de Dirac, alors qu’on lui avait enseigné qu’il fallait s’interdire ce genre de pratique. Il se trouvait ainsi en porte-à-faux et il en conclut que le « sens physique » lui faisait défaut. Il ne poursuivit donc pas en physique et accepta d’être engagé comme ingénieur en informatique en 1965 au Centre de Recherche Nucléaire de Strasbourg2. Il travailla d’abord essentiellement en lien avec des spécialistes de la physique. C’est à cette époque qu’il découvrit la programmation en FORTRAN à laquelle il se forma sur le tas. L’utilisation des ordinateurs prenait, dès ce moment-là, une autre dimension : la lourdeur mécanique de la programmation était atténuée. Quelques années plus tard, Jean Françon fut rattaché au Centre de calcul (CNRS) de Strasbourg Cronenbourg. C’est là qu’il eut l’occasion de diversifier ses collaborations : à côté de la programmation du calcul scientifique et de l’analyse numérique pour physicien, il programmait de l’analyse de texte pour des littéraires, voire pour des théologiens. Il conçut même un logiciel d’analyse des flux routiers à destination des géographes. C’est donc dans ce contexte qu’il apprit à pratiquer et à apprécier la pluridisciplinarité.
Mais peu à peu, cette utilisation un peu improvisée d’une technique encore mal maîtrisée, la programmation informatique, finissait par lui coûter. Son goût de la rigueur et de la maîtrise conceptuelle des techniques renaquit au contact des problèmes de plus en plus complexes de propagation d’erreur dans les programmes. Plus les programmes en langage évolué devenaient lourds, moins l’informaticien savait contrôler les erreurs. Elles pouvaient être dues soit à des problèmes d’arrondis, soit à une dépendance des opérations arithmétiques à l’égard des circuits de la machine (le hardware), soit encore à certaines faiblesses congénitales des langages comme le FORTRAN ou des systèmes d’exploitation, c’est-à-dire à des erreurs logicielles. Ainsi, dans l’appel d’une sous-routine en FORTRAN par exemple, ce dernier ne distinguait pas formellement les passages des paramètres par valeurs et par adresses. C’est-à-dire que le caractère local de certaines déclarations de variables à l’intérieur du sous-programme n’était pas toujours respecté. La distinction n’était pas clairement faite entre la dénomination symbolique et conventionnelle d’un paramètre et sa désignation physique par le renvoi à son adresse absolue dans la mémoire physique. Les niveaux syntaxique et sémantique étaient encore mélangés sur ce point. Ce qui était l’occasion de multiples erreurs de programmation difficilement repérables.
Jean Françon décide alors de faire de la recherche et de se lancer dans une thèse d’Etat sur ce genre de difficultés. Il choisit de s’attaquer aux problèmes de la complexité des programmes de tri. Lorsque l’on a à effectuer un tri entre des données, par exemple alphabétique, il faut souvent les comparer une à une et cela demande un travail très long à la machine. Le programme est dit complexe si les comparaisons doivent être faites une à une. Mais il y a parfois la possibilité d’utiliser des techniques permettant de diminuer le nombre de ces comparaisons. Cela permet d’améliorer les performances en temps de calcul du programme en abaissant sa complexité algorithmique. Or, être capable de désigner les conditions rigoureuses d’application de ce genre de techniques exige d’entrer de plain-pied dans un domaine des mathématiques difficile appelé la combinatoire énumérative1. Conscient de cela, Françon s’inscrit en thèse d’informatique théorique auprès du mathématicien strasbourgeois Dominique Foata. Foata était au départ un mathématicien qui n’entretenait pas de rapport avec l’informatique. Mais il était spécialiste de combinatoire. Or, le célèbre informaticien de Stanford, Donald Knuth, avait montré dans son The Art of Programming que les algorithmes de tri s’apparentaient à de l’analyse au moyen de combinatoires. Dans son deuxième tome, encore inédit, mais dont Foata possédait un manuscrit dès 1971, Knuth étudiait plus particulièrement le tri et la recherche d’informations (Sorting and Searching). Or, la recherche d’informations recourt elle aussi à des théorèmes de l’analyse combinatoire dès lors qu’elle utilise des arbres binaires de recherche par exemple.
À partir de 1971 donc, à côté de ses activités d’ingénieur, Françon travaille à prolonger le travail de Knuth sur quelques problèmes encore ouverts : dans sa thèse de 1979, il contribue à la production de quelques théorèmes nouveaux à valoir sur les algorithmes de tri. Mais, de son point de vue, son approche reste fondamentalement mal comprise de son directeur de thèse car ce dernier n’apprécie pas le sens de l’application informatique concrète qu’il a conservé malgré tout, par-delà son approche mathématique. Formé au départ sur le tas dans un contexte d’ingénierie informatique (il a déjà 42 ans lorsqu’il soutient sa thèse), Françon développe des mathématiques pour l’informatique mais pas pour les mathématiques elles-mêmes ; ce qui lui est vivement reproché. En fait, l’informatique est pour lui une science à part entière et qui, en tant que telle, a certes besoin des mathématiques mais ne se confond surtout pas avec elles. Dans son rapport avec les mathématiques, l’informatique possède pour lui un statut comparable à celui des sciences de la nature comme la physique. Mais, à l’époque, le point de vue de Françon sur ce sujet se trouve très marginal en France. En fait, à cause de sa forte séparation d’avec les recherches en mathématiques appliquées2 dès les années 1950, l’exercice et l’enseignement de l’algorithmique et de l’informatique théorique dans l’Université française avaient très vite été accaparés et remis dans les mains de mathématiciens et non d’ingénieurs ou de chercheurs qui auraient pu travailler dans le pluridisciplinaire, à l’image de Knuth. C’étaient souvent des mathématiciens combinatoriciens qui s’étaient proclamés, sur le tard, informaticiens spécialistes de l’algorithmique. Au début des années 1980, Françon subit encore directement les conséquences de ce clivage : les mathématiciens ne le reconnaissent pas comme quelqu’un de sérieux. Et il ne pourra d’ailleurs jamais réellement enseigner sa spécialité d’origine, la combinatoire énumérative. De leur côté, les physiciens et les chimistes universitaires considèrent l’informatique comme une simple technique et non comme une science en soi. Françon doit donc lutter sur ces deux flancs pour la reconnaissance de son travail et de son approche.
Optimisation d’algorithme, nombres de Strahler et combinatoire énumérative
En 1980, malgré les rivalités qu’il éveille, Françon est tout de même nommé professeur d’informatique à l’Université de Haute-Alsace, à Mulhouse. Il y continue ses recherches en analyse d’algorithmes jusqu’en 1984 mais sans qu’on l’autorise à l’enseigner. C’est pourtant dans ce souci constant, qui lui est propre, de lier des réflexions d’informatique théorique avec des solutions existant dans la nature ou dans les théories des sciences de la nature, que Françon, sur les conseils d’un collègue américain, prend connaissance des travaux des hydrogéologues sur les arbres fluviaux. Il reconnaît là une manière de codifier une arborescence formelle qui peut apporter quelque chose pour la structuration des algorithmes. Il lit donc de près Horton, Léopold, Strahler et les combinatoriciens qui ont développé la théorie des nombres de Strahler1. En septembre 1983, alors qu’il doit inopinément s’absenter, il fait prononcer par un collègue une conférence sur ce sujet à Nancy, au 101 Congrès de l’Association Française pour l’Avancement des Sciences. Cette conférence sera ensuite publiée dans la Revue du Palais de la Découverteme. Après y avoir rappelé le fait que les nombres de Strahler se retrouvent dans de nombreux secteurs des sciences de la nature et des sciences formelles (hydrogéologie, botanique, anatomie, biochimie, combinatoire et informatique), Françon précise que sa propre problématique est d’estimer le nombre de registres de mémoire nécessaires à l’évaluation d’une expression algébrique, cette dernière pouvant toujours être décomposée selon un arbre binaire de type Strahler2. Il montre ainsi que l’informatique théorique a pour sa part fait progresser ce domaine formel transdisciplinaire. À la fin de ces rappels vulgarisés et présentés sous une forme pédagogique, il adresse cette question ouverte au lecteur :
« Les nombres de Strahler apparaissent en informatique comme solution d’un problème d’optimisation ; ne serait-il pas possible de faire apparaître les nombres de Strahler en hydrogéologie, botanique,…, comme solution d’un principe d’optimisation, peut-être en y transposant le problème informatique ? »3
Françon recherche donc les éventuelles solutions que la nature auraient de son côté spontanément apportées à des problèmes selon lui analogues à ceux qui se posent en algorithmique. Ayant hérité des nombres de Strahler développés au départ dans un secteur des sciences de la nature, l’informatique théorique pourrait en retour, selon lui, éclairer les théories biologiques de la morphogenèse, par exemple. Dans un esprit proche de celui qui a pu animer la bionique, Françon tend donc la main aux sciences de la nature. D’une certaine manière, il croit fermement en une analogie entre des analogies : de même qu’il existe des analogies formelles reconnues entre différentes sciences de la nature, et étant entendu que l’algorithmique est pour lui à traiter comme une science de la nature parmi les autres, notamment dans son rapport aux mathématiques, de même il doit exister des analogies directes entre certaines sciences de la nature et l’algorithmique. L’algorithmique doit donc aller à l’école des sciences de la nature : le fait qu’elle le puisse déjà pour les problèmes de tri ou de recherche de données est une preuve suffisante pour Françon qu’elle n’est pas réductible à un sous-secteur des mathématiques. Mais, à cette époque, il conçoit tout de même cette aide ou ce transfert conceptuel sur le mode, finalement classique en biologie théorique (ainsi qu’on peut le voir chez Lotka, Rashevsky, Cohn et Rosen, par exemple), d’une théorisation explicative au moyen d’un principe d’optimisation. Mais cette idée va évoluer chez lui.
Naissance de la synthèse d’images et naissance du NYIT
Ce n’est pas ici le lieu de retracer l’histoire détaillée des techniques matérielles et conceptuelles de synthèse d’images par ordinateur1. Précisons simplement qu’elle présente, grosso modo, trois périodes2. La première voit la naissance relativement discrète des techniques de synthèse d’image sur ordinateur, essentiellement dans un contexte militaire (années 1950-1970)3. Dès 1953, en effet, une fois couplé aux techniques radar, le système de surveillance militaire SAGE est informatisé. Il recourt alors à des techniques de graphismes vectorielles permettant le suivi des aéronefs. Ce sont des électroniciens et des spécialistes du traitement des signaux analogiques puis numériques qui développent cette première forme de synthèse d’images en grande partie en concevant des machines dédiées à la reconnaissance de formes soit par des tests de modèles statistiques soit par analyse numérique à base de transformées de Fourier rapides. Mais, au début des années 1960, Ivan Sutherland, alors professeur d’informatique à l’Université de l’Utah et futur co-directeur de l’entreprise commerciale Evans & Sutherland (fondée en 1968), amplifie le côté synthèse, en concevant et en diffusant des machines permettant de visualiser, sur un écran à balayage et à rafraîchissement de signal (de type oscilloscope), 30000 à 40000 segments de droites en 1/25 de secondeme. Ces machines, fort coûteuses mais ultra-rapides, furent ensuite diffusées dans le domaine des simulateurs de vol, et plus tard dans celui de la conception graphique industrielle, en particulier en mécanique et en chimie. La « conception graphique » recourant à ce type de visualisation sera appelée CAO à la fin des années 1970.
En 1974, le riche entrepreneur Alexander Schure crée le Computer Graphics Lab (CGL) rattaché au New York Institute of Technology (NYIT)1. Schure possède une propriété voisine d’un des membres de la famille Rockfeller qui lui-même appartient au comité de direction de Evans & Sutherland. Informé par son voisin et fasciné par les premiers résultats de cette société, Schure a la volonté de réaliser le premier long métrage d’animations synthétiques et de fonder pour cela un laboratoire de recherche à New York. Il ne peut débaucher Sutherland qui se trouve lié à l’Université de l’Utah. Mais il installe Ed Catmul à la tête du CGL. Catmul vient juste de terminer son PhD chez Sutherland. Le CGL va rapidement innover grâce à des moyens financiers considérables en fait apportés par la fortune personnelle de Schure. Car le film d’animation commercialisable se fait attendre : de nombreux problèmes techniques se posent, essentiellement liés à la puissance de calcul des machines. Le CGL va donc surtout être à l’origine de nombreuses recherches, innovations ou « trucs » technologiques et algorithmiques dans le domaine de l’image de synthèse. À la fin des années 1980, le CGL a essaimé considérablement : ses anciens chercheurs sont à l’origine de la naissance ou du développement de nombreuses sociétés d’informatiques (Apple, DEC) ou de production cinématographique dont PIXAR, Lucasfilm et NVIDIA. Ils seront notamment à l’origine de la conception du film Toy Story diffusé en 1995 par Disney-PIXAR.
La seconde période dans l’histoire de l’image de synthèse, donc celle des années 1980, sera celle d’un fort développement2 sous les effets simultanés 1- de progrès considérables dans les périphériques de visualisation, notamment avec les machines DEC puis les stations VAX3 ; 2- de la mise à disposition d’ordinateurs personnels grand public (PC), avec l’industrie des jeux qui ira bientôt de pair ; et 3- de la vogue des fractales (voir encadré suivant).
La troisième période commencera au début des années 1990 et verra notamment une normalisation en même temps qu’une complexification des techniques de synthèse sous l’effet de l’accroissement en puissance de calcul des machines mais aussi face à la demande des sciences de la nature de dépasser le simple simulacre visuel, le simple « truc » de programmeur.
Par la suite, en 1984, Françon s’intéresse en effet de plus en plus directement aux problèmes théoriques que pose la synthèse d’images proches de la réalité botanique. C’est qu’il souffre du défaut de chair des concepts issus de l’informatique théorique. Il reconnaît volontiers l’aridité et l’austérité de cette science. C’est aussi pour se sauver de cette aridité qu’il provoque lui-même, si nécessaire, une rencontre plus effective avec les sciences de la nature. Il décide donc de prospecter de ce côté-là. C’est alors qu’il tombe sur l’article de l’informaticien américain Alvy Ray Smith, qui vient d’être publié dans les actes du grand colloque annuel sur la synthèse d’image, le SIGGRAPH : « Plants, Fractals and Formal Languages ». Smith est un ancien chercheur du CGL (voir encadré) et il travaille pour l’entreprise Lucasfilm depuis le début des années 1980. Dans une approche qu’il qualifie d’« imagerie sur ordinateur » et qu’il distingue en cela nettement du « traditionnel graphisme sur ordinateur » (CAO)1, Smith développe une méthode générale de synthèse de tous les types de plantes à partir de L-systèmes. Fusionnant l’approche formelle de Lindenmayer et la philosophie de visualisation de l’école de Sutherland, il est le premier à rendre les L-systèmes véritablement capables de simuler visuellement des plantes sur ordinateur. Jusque là, comme nous l’avons vu, le formalisme des L-systèmes n’apportait pas avec lui un moyen d’être immédiatement et rigoureusement plongé ni appliqué dans un espace géométrique. Il y avait bien eu les tentatives d’une élève néerlandaise de Lindenmayer, Pauline Hogeweg, en 19742. Mais la conformité aux plantes réelles de ses simulations était restée très fruste. Hogeweg considérait de toute façon que les L-systèmes ne pouvaient servir de modèles rigoureux qu’au niveau cellulaire ou pour les algues et que leur usage à l’échelle pluricellulaire et organique devait demeurer purement heuristique3. Elle se fondait pour cela sur le fait qu’à ce niveau, la physiologie, de par la mobilité que les cellules acquièrent après leur différenciation, notamment chez l’animal, prenait un poids considérable et qu’on ne pouvait plus considérer les cellules filles comme restant durablement les voisines de leurs cellules sœurs. Identifier systématiquement la modélisation des « cycles de vie » à celle de la croissance des pluricellulaires, comme aurait pu le suggérer l’approche originelle de Lindenmayer, avait donc quelque chose d’aventureux.
Dix ans plus tard donc, dans une perspective d’infographiste qui met cette fois-ci l’accent sur les images calculées directement de manière algorithmique, et afin de corriger l’insuffisance reconnue des L-systèmes, Smith a l’idée de concevoir la notion de graftale, contraction de « grammaire » et de « fractale ». Un objet formel est dit graftal s’il est le résultat topologique d’une grammaire de Lindenmayer géométriquement interprétée4. Smith plonge dans le plan géométrique un mot géré par le système formel de règles de réécriture en associant un segment de droite à chacune des lettres E (= elongation) qui apparaissent dans ce mot1. Par là, Smith veut accroître ce qu’il appelle le « facteur d’amplification de la base de données »2 : en scindant explicitement et nettement, dans son programme en C, la partie computationnelle et topologique de la partie interprétative et donc géométrique du traitement du graphe, il économise en temps de calcul et il rend ainsi l’ordinateur à même de faire des animations, des petits films. Ce qui est son objectif principal puisqu’il est ingénieur dans la division Computer Graphics de Lucasfilm. C’est aussi la raison pour laquelle il juge peu opérants pour le rendu en imagerie les modèles faisant intervenir des nombres aléatoires3.
Avec le travail de Smith donc, on a une notion formelle qui commence à mêler et faire converger deux traditions dans un contexte d’infographie : la tradition logiciste et explicative d’une part, et la tradition géométrique et descriptive d’autre part. Cet article donne des exemples d’images engendrées par ordinateur grâce au nouveau formalisme graftal. Mais, d’une part, il ne s’agit toujours que de plantes figuratives conçues d’en haut, sans aucun souci de la conformité des parties des plantes simulées avec des entités ayant effectivement un sens d’un point de vue botanique4. D’autre part, Françon sent tout de suite que la combinatoire énumérative, qui est finalement la science des arbres formels, peut faire bien mieux que les L-systèmes, que les simples rapports d’auto-similarité géométrique des fractales5 ou même que les graftales. Il sent qu’il peut apporter quelque chose de nouveau. C’est donc à cette période qu’il se lance, avec ses doctorants, dans des travaux sur ce qu’il appelle la « modélisation combinatoire » de plantes figuratives.
Synthèse d’images et fractales : engouement puis scepticisme
Nous évoquons ici les fractales dès lors qu’elles ont concerné, mais de façon très marginale, la problématique de la modélisation et de la simulation des plantes, en particulier dans la période qui nous intéresse. Françon et son école ont en effet eu à se positionner par rapport à elles. Rappelons qu’à sa sortie de l’école Polytechnique, Mandelbrot se rendit aux Etats-Unis pour travailler chez IBM avant d’enseigner, entre autres, à l’Université Yale. Fort de son expérience de chercheur en théorie du codage, en théorie de l’information puis en économétrie, il était devenu sensible au rôle du hasard dans les formes manifestées par le monde réel, dans « des choses très concrètes »6. Il se méfiait en cela des mathématiques construites a priori. Son approche était plus soucieuse du concret et ne visait pas d’emblée à plier le réel afin de le conformer à un corps de doctrine mathématique déjà constitué1. Il avait ainsi remarqué que beaucoup de formes réelles manifestent, à quelque échelle d’observation qu’on se place, une irrégularité constante. Autrement dit, si c’est bien le hasard qui donne forme à certains objets organiques ou inorganiques, on peut tout au moins quantifier le « degré » de hasard, c’est-à-dire le degré d’irrégularité qu’ils manifestent. Et on peut, de plus, faire l’hypothèse que ce degré d’irrégularité est conservé quel que soit le niveau d’observation. C’est ce qu’on appelle l’auto-similarité. C’était là reprendre, entre autres, les travaux sur le continu du mathématicien Georg Cantor et qui remontaient déjà à la fin du siècle précédent (années 1873-18772). Une structure géométrique fut alors dite « fractale » ou auto-similaire par Mandelbrot quand elle se ressemblait à des échelles différentes. Cela revenait à dire que les mêmes lois aléatoires jouaient sur cette forme et la modelaient, à quelque niveau que ce soit. On comprend ainsi intuitivement que cette propriété puisse fréquemment être vérifiée dans le monde réel : elle manifeste une sorte d’indifférence de la nature au changement d’échelle. Elle est vérifiée en particulier par les côtes bretonnes, mais aussi par la plupart des côtes dans le monde.
Mandelbrot3 a donc été amené à développer une géométrie centrée sur la notion de hasard et à en tirer un outil mathématique capable d’exprimer les régularités que le hasard présente. En 1978, il s’attacha ainsi à montrer que la forme des arbres répondait à des critères de même type. Les lois de croissance étaient remplacées par des règles génératrices, mais sans le recours à une discrétisation effective : c’était selon lui sauver la modélisation géométrique des risques d’une désintégration sous les assauts répétés des modèles discrets4. Il lui apparaissait qu’en fractionnant récursivement le continu, on pouvait retrouver une « mesure » de l’irrégularité des formes les plus complexes, non plus certes dans une métrique classique mais dans une dimension, la dimension non entière ou fractale. Beaucoup d’informaticiens et infographistes, séduits par la simplicité de ces règles de construction des structures complexes, se sont alors servi des fractales pour la synthèse d’images photo-réalistes5. On y voyait là le développement d’une mathématisation nouvelle du monde des formes. Mais ce qui fut décisif, c’est le rôle qu’a joué, dans la popularité soudaine des fractales, leur visualisation aisée sur ordinateur. De plus, leur structure mathématique récursive les prédisposait à une programmation très facile en langage évolué. Et les calculs s’avérèrent très rapides. Ce qui permit de concevoir des films d’animations en temps réel, c’est-à-dire avec des calculs effectués entre l’affichage des deux images successives. Les images purent donc ne pas être stockées en mémoire et elles permirent ainsi une interactivité : l’industrie américaine du film et du jeu vidéo promut bien entendu la recherche en ce domaine. Dans les années 1980 donc, à l’échelle mondial, les écoles d’ingénieurs et les universités furent le théâtre d’un véritable engouement pour la synthèse d’image dans la mesure où les fractales étaient très médiatiques et séduisantes, mais dans la mesure aussi où leur apparition coïncidait avec la mise sur le marché des premières stations graphiques performantes comme aussi de nouveaux écrans (Bitmap1) basés sur le principe des pixels, ces derniers remplaçant les écrans à balayage cavalier (de l’ancienne CAO) ou à caractères alphanumériques préfixés. Cette visualisation des fractales, d’abord sur des tables traçantes sommaires dès 1973, ensuite sur imprimante puis sur écrans à pixels, a montré au grand public un usage inédit de l’ordinateur. Il consistait à utiliser les capacités de calcul de la machine mais aussi ses périphériques pour produire des images visuellement réalistes. Il s’agissait de faire imiter la réalité à une machine en lui demandant plus que la simple impression ou recopie de l’apparence sur un support, comme c’est en revanche le cas pour une photographie. En 1986, Mandelbrot résume lui-même les réflexions que cet usage lui avait suggéré : « Si je pouvais imiter la Nature, c’est que peut-être j’avais trouvé un des secrets de la Nature… » En fait, son discours séduisait d’autant plus qu’il faisait une fois de plus revivre une vieille représentation de la science conçue comme entreprise de découverte de lois de la Nature simples et universelles2. Le succès momentané des fractales résultait ainsi d’une coïncidence entre une vision ontologique mathématiste assez répandue et un « truc » technologique efficace.
Mais les représentations simulées par des fractales restaient le plus souvent irréalistes dans le détail. Elles manifestaient une trop forte régularité, une trop forte homogénéité interne : de façon générale, les branches d’une plante réelle ainsi que ses rameaux ne ressemblent pas exactement voire pas du tout à la plante entière, à quelques exceptions près, comme la fougère3. D’outil de synthèse d’images séduisantes qu’elles furent rapidement au départ, les fractales devinrent en fait de simples outils, parmi d’autres, d’analyse géométrique des formes au moyen de la notion de dimension non entière.
Néanmoins, l’approche de Mandelbrot et la popularité de ses images ont incontestablement accoutumé les botanistes, peu versés en informatique, à percevoir sous la forme végétale une allure globale tout à la fois stable et causée par des événements aléatoires. C’est donc par leur côté suggestif et potentiellement explicatif de cette caractéristique essentielle de l’architecture végétale (une allure générale constante pour une espèce donnée, bien qu’également déterminée par le hasard de l’environnement) que ces résultats mathématiques impressionneront les botanistes. Les botanistes et les architectes du végétal le citeront souvent, mais essentiellement pour mémoire, dès 1979 et jusqu’au milieu des années 19904.
En effet, il existe des théorèmes ou des algorithmes de combinatoire énumérative puissants qui permettent de tirer directement un arbre binaire de taille donnée dans l’ensemble de tous les arbres binaires de cette taille. Le caractère génératif et pas à pas des L-systèmes peut sembler être, sur ce point, avantageusement court-circuité. Françon oriente donc un de ses doctorants sur cette piste, Georges Eyrolles. Ce dernier obtient une bourse à Bordeaux. Françon est obligé de suivre son travail à distance. Eyrolles soutient en 1986 sa thèse de troisième cycle intitulée Synthèse d’images figuratives d’arbres par des méthodes combinatoires. Il s’agit bien d’une modélisation combinatoire : la conformité à la réalité botanique n’y est pas recherchée. C’est encore là aussi la commodité algorithmique et la rapidité qui restent le but avoué1. Ces recherches formelles sur les arbres binaires seront poursuivies plus tard, notamment à Bordeaux, avec Georges Eyrolles lui-même et avec Gérard Viennot, ainsi qu’à Besançon, avec Didier Arquès. Dans ce contexte, la notion d’« image figurative » sert à désigner les images de synthèse qui « figurent » une plante, qui font illusion pour le non connaisseur, c’est-à-dire qui ressemblent qualitativement et très globalement à une plante réelle mais qui se distinguent encore fortement des images qui seraient fidèles au détail botanique.
Or, en mai 1984, il se trouve que, dans la revue Computer Graphics and Applications des IEEE, paraît un article important de deux japonais, Masaki Aono et Tosiyasu L. Kunii2, respectivement ingénieur auprès de l’Institut de Recherche Scientifique d’IBM-Japon et enseignant-chercheur en poste au Département d’Informatique de la Faculté des Sciences de Tokyo. Ce travail approfondi et impressionnant par les images qu’il produit fait la synthèse des approches de modélisation mathématique a priori, qu’elles soient de type combinatoire, logiciste (Lindenmayer) ou encore géométrique (Honda et Fisher). Le but affiché par les infographistes japonais est de produire des images d’arbres très réalistes du point de vue de la botanique. Ayant montré la trop grande rigidité des L-systèmes, ils recourent au formalisme des arbres binaires et ternaires en l’associant à des règles géométriques (angles de ramification, rapports d’élongation) proches de celles de Hisao Honda. Ils ont en effet l’avantage de le connaître et de le fréquenter personnellement. Ce dernier leur a même communiqué un grand nombre des données dont on se souvient qu’il les avait glanées dans la décennie précédente auprès de ses collègues botanistes, comme Jack B. Fisher. Disposant d’un financement du Laboratoire de Recherche en Ingénierie du logiciel de la Société Ricoh, ils bénéficient également d’un matériel très performant : une station DEC VAX-11/780 fonctionnant sur un système Unix des laboratoires Bell, et un système graphique Seillac 3 doté d’une mémoire tampon étendue de 1368 x 1022 x 8. Ils programment directement en C, ce qui leur permet de concevoir un système très rapide et interactif de synthèse d’images, essentiellement à destination des paysagistes. Il faut noter qu’ils assurent le caractère très réaliste de leurs simulations géométriques par des comparaisons effectuées avec des photographies de plantes réelles, comparaisons évaluées rigoureusement au moyen de techniques statistiques. Ils calibrent ainsi leurs modèles géométriques a posteriori. C'est donc par le haut, pourrait-on dire, qu’ils assouplissent les modèles mathématiques alors que de Reffye était parti d’emblée d’une adaptation optimale par le bas, c’est-à-dire à partir des méristèmes. En tous les cas, ce que démontre cet article de manière remarquable, c’est que, quand bien même on voudrait conserver une approche par modélisation théorique, la solution purement combinatoire paraît déjà dépassée.
Sans doute est-ce une des raisons pour lesquels Françon s’en désintéresse rapidement juste après avoir dirigé la thèse d’Eyrolles. Car c’est toujours la réalité botanique qu’il a en vue : il souhaiterait du répondant de la part de véritables botanistes. Or, les informaticiens Aono et Kunii, par leurs calibrages statistiques et à échelle globale ne se fondent toujours pas sur une connaissance botanique précise. Là est la faille que l’on peut leur reprocher : ils travaillent encore uniquement pour l’infographie. Ils ne font pas du pluridisciplinaire, au sens de Françon. Ils pratiquent des « trucs » de programmeurs, avec une technique certes très avancée et surtout dramatiquement inaccessible à l’Université française, d’un point de vue financier. Mais, au regard de l’approche scientifique, on peut tout au moins leur reprocher d’ignorer la réalité botanique, c’est-à-dire de ne pas chercher à faire réellement de la science comme la conçoit Françon. Toujours est-il qu’à ce moment-là, ce dernier ne voit pas comment sortir du sentiment d’insatisfaction qu’il éprouve face aux modèles mathématiques a priori qu’utilisent massivement ses collègues.
Entre-temps, en 1985, les choses s’accélèrent de toute façon, d’un point de vue académique : Françon est nommé professeur à l’Université Louis-Pasteur de Strasbourg (ULP). Il y est chargé d’enseigner les techniques de synthèse d’image par ordinateur, matière qui n’est pas sa spécialité d’origine et à laquelle il doit mieux se former dans un premier temps. Il y prend rapidement en charge une formation doctorale en ce même domaine : peu ou prou, il entre ainsi progressivement dans la communauté des infographistes. N’oubliant toujours pas son objectif de rallier les sciences de la nature mieux que ne le font les infographistes, il décide finalement de prendre contact avec Claude Schmitt, qui est alors un de ses collègues botanistes de l’ULP, de manière à voir ce que, de leur côté, les scientifiques du végétal arrivent déjà à formaliser. Mais Schmitt travaille à l’échelle biochimique et il connaît peu les modèles d’architecture. Il conseille à Françon de s’adresser à l’Institut de Botanique de Strasbourg et à ses collègues que sont Henri Brisse et Michel Hoff1. Ce sont donc ces derniers qui finissent par lui faire connaître, après bien des péripéties, les seules publications alors disponibles de de Reffye : celles de la revue Café, Cacao, Thé.
Ce que Françon retient de la thèse de de Reffye
C’est un choc pour Françon. Il n’en attendait pas tant. Selon lui, il y a déjà à peu près tout dans ce que propose de Reffye. C’est une véritable théorie de la croissance des plantes, de son point de vue. C’est-à-dire que de Reffye propose mieux qu’un modèle puisqu’il réplique le détail, ce qui est le propre d’une théorie, selon Françon, le modèle ne servant toujours qu’à faire des calculs approchés, d’après sa propre expérience en physique. À partir de ce moment-là, contre l’avis même du principal intéressé qui, pour sa part, pense être loin d’avoir accompli sa tâche, Françon soutiendra constamment, et avec un certain esprit polémique, l’idée que de Reffye est le « Newton du brin d’herbe »2. En 1991, dans son intervention au colloque sur L’Arbre de Montpellier, après avoir rapidement présenté la première approche de la simulation des plantes au moyen de processus discret à temps discret de type L-système, voici comment il s’exprimera :
« L’autre approche est celle de Philippe de Reffye (1979) qui décrit la croissance d’une plante par un système de processus stochastiques associés aux phénomènes de croissance, mortalité et ramification qui affectent la vie des méristèmes. La nature et les paramètres de ces processus sont obtenus par des connaissances précises en botanique, des observations et des mesures sur le terrain. Il s’agit là de la seule modélisation informatique qui prenne véritablement en compte la réalité botanique, qui donc dépasse la modélisation pour accéder, à mon sens, au statut de théorie de nature mathématique validée expérimentalement, au sens de la physique depuis Galilée.
Ces deux approches [L-systèmes et simulation aléatoires de de Reffye] peuvent être fondues en une seule. La présentation de cette fusion est le deuxième objectif du présent travail. Je considère en effet que la théorie des systèmes de production est aux processus discrets à temps discrets ce que la théorie des équations différentielles et des équations aux dérivées partielles est à la physique classique, c’est-à-dire l’outil mathématique de base permettant de raisonner, prouver des théorèmes et calculer. »1
Plus loin, il insistera encore :
« [L’objectif de de Reffye] requiert que la modélisation soit validée dans tous ses détails par des observations et des mesures (métriques mais surtout de durées d’élongation) précises sur le terrain, ce qu’aucune autre méthode n’a fait. Cette méthodologie est celle des sciences physiques. C’est pourquoi je considère que la modélisation de Philippe de Reffye est à mettre au rang d’une théorie validée expérimentalement. »2
Françon écrit donc à de Reffye en Côté d’Ivoire alors qu’il est déjà en poste à Montpellier3. Le courrier finit par lui parvenir mais ce dernier lui répond avec un certain retard. Finalement, après un contact par téléphone, de Reffye, intéressé, se rend très rapidement à Strasbourg. Françon lui fait valoir l’idée que l’infographie est dans l’impasse et qu’elle a besoin de son approche d’ingénieur pour faire pièce à tous les trucs que les programmeurs emploient pour faire vrai et qu’il juge de peu valeur. De son côté, de Reffye lui répond que son logiciel de visualisation n’avait pas été spécialement conçu pour faire concurrence aux solutions des infographistes mais que la simulation visuelle sert surtout à prouver, aux yeux des botanistes et agronomes, la validité du modèle informatique sous-jacent. Mais, dans ce rapprochement que lui propose Françon, il voit tout de même une forte convergence d’intérêts, même s’ils sont différents pour l’un et l’autre : accepter une collaboration serait pour lui une manière de poursuivre la modernisation et l’extension de son logiciel initial afin de voir s’il ne serait pas ainsi plus performant et donc mieux accueilli, en agronomie notamment. D’autant plus qu’entre-temps, le CIRAD a été créé et l’acronyme GERDAT va être conservé mais pour ne plus désigner qu’un département du CIRAD. Ce nom va en effet remplacer celui de « Centre Informatique » pour désigner ce département si particulier du CIRAD, par ses avantages et son lien organique directe avec la direction scientifique, et auquel de Reffye demeure rattaché : Gestion de la Recherche Documentaire et Appui Technique. C’est cette rencontre décisive qui va se concrétiser très vite : d’abord par la venue de deux doctorants en informatiques, puis par le redémarrage de la recherche en simulation architecturale et enfin par la création d’un laboratoire dédié à ces travaux au sein du CIRAD.
Dostları ilə paylaş: |