3.2 Le programme scientifique et technique : objectifs – domaine
La nécessité de l’évaluation non destructive des constructions résulte de besoins croissants en matière de diagnostic pathologique et de requalification des structures. Dans ce contexte, il est possible de classer les données issues de l’auscultation en deux catégories interdépendantes :
-
les indicateurs pathologiques ;
-
les indicateurs de durabilité (mécanique et physique).
La première catégorie rassemble les grandeurs qui fournissent une information sur l’état actuel de l’ouvrage, relativement aux exigences de performance qu’il doit satisfaire. Connaître leur valeur permet soit d’évaluer directement le niveau de performance de l’ouvrage, soit de mieux connaître les mécanismes par lesquels les performances se dégradent. De tels indicateurs sont :
-
l’aspect visuel et les manifestations pathologiques surfaciques (qu’il convient de quantifier) ;
-
la porosité et sa variation dans l’épaisseur (gradient) et en surface ;
-
la teneur en eau volumique et sa variation dans l’épaisseur (gradient) et en surface ;
-
le niveau de contamination du béton par les ions chlorures (3D) ;
-
la position du front de carbonatation ;
-
les facteurs d’endommagement mécanique (qui peuvent résulter de mesures sclérométriques, de vitesse ultrasonique ou autres5…) ;
-
des indicateurs de fissuration (à définir) ;
-
les propriétés électromagnétiques (résistivité, impédance, permittivité) et thermiques (diffusivité) ;
-
le potentiel d’électrode, le gradient de potentiel ;
-
la vitesse de corrosion ;
-
la diminution de section d’armature par corrosion ;
-
l’émission acoustique de la structure…
La deuxième catégorie rassemble des indicateurs dont la connaissance permet d’estimer l’évolution future de l’ouvrage, et donc les durées de service résiduelles. Ces indicateurs alimentent par exemple les modèles de recalcul et, combinés aux indicateurs pathologiques, ils permettent de situer l’ouvrage sur son cycle de vie. Des exemples de tels indicateurs sont :
-
l’épaisseur d’enrobage ;
-
la section d’armature résiduelle ;
-
les dimensions des éléments (dans le cas de faces non accessibles) ;
-
les propriétés mécaniques (résistance, rigidité) ;
-
les propriétés de transfert de masse (perméation et diffusion) ;
-
la porosité ;
-
la teneur en eau ;
-
les profils de teneur en ions chlorures…
Certains indicateurs sont mixtes, à la fois indicateurs pathologiques et indicateurs de durabilité. Certains indicateurs sont en outre utiles pour deux raisons, d’une part en ce qu’ils révèlent directement, d’autre part parce qu’ils conditionnent (ou perturbent) l’évaluation d’autres indicateurs. C’est le cas de la teneur en eau, comme nous l’avons montré dans le Projet RGC&U « Evaluation du béton d’enrobage ». La connaissance fine de cet indicateur est cruciale.
Cette liste, non exhaustive, révèle la diversité des applications CND en génie civil et l’importance de fixer des objectifs précis au projet.
Les critères permettant de définir les objectifs sont les suivants :
-
l’importance des enjeux économiques en termes de diagnostic des ouvrages (caractère répandu des pathologies et coûts de l’entretien et de la réparation),
-
dans l’état des connaissances, la capacité des techniques de CND à, contribuer à améliorer le diagnostic in-situ vis-à-vis des objets et propriétés à identifier (l’objectif du Projet RGC&U « Evaluation du béton d’enrobage » était d’identifier cette capacité),
-
la complémentarité de l’action proposée et d’autres actions de recherche récentes, en cours ou en projet à l’échelle nationale. On aura par exemple à l’esprit :
- le Projet sur les poutres de la Rance, consacré à l’étude, au suivi et au diagnostic de la corrosion,
- le Projet Actena, visant à développer des techniques d’évaluation des câbles non accessibles dans les ouvrages précontraints,
- l’Action menée dans le Projet « Méthodes d’étude de la corrosion de l’acier dans les bétons » (Groupe CEFRACOR), portant essentiellement sur le développement des méthodes électrochimiques,
-
les possibilités opérationnelles de développement d’une campagne expérimentale, s’appuyant sur le savoir-faire des équipes impliquées dans le projet, afin de maîtriser la conception des corps d’épreuve, de façon à reproduire les mécanismes d’altération.
Ces critères, combinés aux questions posées à l’issue du Projet RGC&U « Evaluation du béton d’enrobage », nous conduisent à privilégier l’évaluation des ouvrages relativement aux performances mécaniques et à la durabilité (propriétés de transfert), en nous limitant aux propriétés du béton (à l’exclusion de celles des aciers et de l’interface). Les indicateurs retenus, cible du projet, sont les suivants :
|
Indicateur
|
Type
|
Commentaires
|
1
|
propr. transfert / perméation
|
durabilité
|
|
2
|
propr. transfert / diffusion
|
durabilité
|
|
3
|
propr. mécanique / rigidité – module
|
durabilité
|
aussi indicateur pathologique, témoin de l’endommagement
|
4
|
propr. mécanique / résistance
|
durabilité
|
|
5
|
teneur en eau
|
mixte
|
influence de nombreuses mesures
|
6
|
teneur en chlorures
|
mixte
|
|
7
|
porosité et porosité de fissure
|
mixte
|
paramètre corrélé aux propriétés mécaniques et de transfert
|
8
|
carbonatation
|
pathologique
|
|
9
|
macro-fissuration
|
pathologique
|
enjeu : évaluer la profondeur de fissure, pour permettre le recalcul
|
Pour chaque indicateur, les objectifs sont, dans la logique des verrous identifiés au §6.4, les suivants : évaluer sa valeur (caractéristiques moyennes et degré de variabilité) et estimer en parallèle le degré de fiabilité de cette évaluation.
Pour le propriétaire de l’ouvrage, évaluer les indicateurs permet aussi d’établir une estimation financière des ouvrages, utile par exemple en cas de vente du patrimoine.
Pour répondre à cet objectif, les voies d’action seront :
-
l’amélioration des techniques de mesure (soit par des développements techniques – qui demeureront cependant mineurs, soit par une meilleure connaissance, la modélisation et la simulation des phénomènes physiques impliqués dans la mesure) pour en étendre le domaine d’utilisation et en améliorer la précision,
-
l’acquisition d’ensembles de données expérimentales relatives au matériau dans le périmètre de l’étude,
-
l’application, innovante en génie civil, de méthodes d’analyse des données, pour mieux valoriser l’ensemble des données recueillies,
-
l’établissement de protocoles d’évaluation, de la mesure au diagnostic, conçus pour la mise en œuvre sur des ouvrages existants et validés sur de tels ouvrages.
3.3 Stratégie partenariale et valeur ajoutée de la coopération
Le projet réunit tous les laboratoires universitaires qui s’étaient déjà impliqués dans le projet « Evaluation du béton d’enrobage » auxquels se sont ralliés le LCND, apportant des compétences en matière de fusion de données, et le LEAT qui s’investira dans les travaux portant sur la prospection électromagnétique. De nouveaux partenaires privés ou EPIC s’y sont associés, montrant l’intérêt économique et technique de cette proposition.
Le bilan et l’analyse des résultats de ce premier travail en commun, développés au §6, montrent la synergie établie et la réelle plus value de la coopération.
3.4 Positionnement par rapport aux évolutions règlementaires
La diffusion de recommandations en matière d’utilisation optimale de techniques non destructives pour la surveillance et la maintenance des ouvrages s’inscrit bien dans les évolutions règlementaires et normatives actuelles.
Les normes européennes (EN 206-1) recommandent en effet l’élaboration de guides d’application directement utilisables par les exploitants.
4. Retombées scientifiques et techniques et sociétales
Les principaux enjeux scientifiques et techniques du projet SENSO ont trait à la méthodologie de l’auscultation des ouvrages en béton, depuis l’acquisition de données pertinentes in situ jusqu’au traitement et à l’analyse de ces données dans le but d’en extraire des informations fiables et utiles. SENSO proposera de nouvelles approches de l’acquisition, du traitement et de l’analyse des données d’auscultation en génie civil. Outre l’amélioration des connaissances sur les phénomènes physiques relatifs aux différentes technologies éprouvées, ces approches mettront l’accent sur la combinaison des techniques et sur l’utilisation de méthodes innovantes en matière d’analyse de données expérimentales : fusion de données, logique floue, méthodes statistiques (réseaux de neurones artificiels…)…
Par ailleurs, les travaux de recherche proposés dans le cadre de ce projet auront un impact sociétal indéniable au niveau des problématiques générales de « développement durable » et de « gestion des risques » liés aux infrastructures civiles.
En matière de développement durable, le souci de préservation d’un patrimoine bâti vieillissant conduit à la nécessité de développer de nouveaux outils d’évaluation non destructive (END) plus fiables, d’élaborer de nouvelles méthodes de diagnostic et de définir une ou des politiques de gestion des constructions basées sur la notion d’anticipation des dégradations. Les développements envisagés dans SENSO se placent donc en amont des besoins. En outre, une meilleure politique de gestion permettra de limiter les quantités de matériaux de déconstruction, ce qui constituera une retombée indirecte à caractère écologique.
Les retombées liées à la gestion des risques apparaissent dans le paragraphe 3.2. L’information résultant des essais non destructifs pratiqués sur les ouvrages est en effet doublement exploitable :
-
notion d’indicateur pathologique : l’information issue de l’END peut permettre de déceler directement certains symptômes relatifs à une pathologie ;
-
notion d’indicateur de durabilité physique et/ou mécanique : l’information issue de l’END peut alimenter des modèles de requalification mécanique et/ou de prédiction de la durée de vie de l’ouvrage
Dans les deux cas, cette information permet directement ou indirectement d’alerter le gestionnaire de l’ouvrage sur l’existence d’un risque lié à la sécurité des usagers.
5. Retombées industrielles et économiques escomptées
L’impact potentiel de SENSO sur les plans économiques et industriels est traduit par l’intérêt affiché par cinq des douze partenaires de ce projet, gestionnaires d’ouvrages pour certains, prestataires de services en matière de surveillance et de diagnostic pour les autres.
La fiabilisation du diagnostic par une meilleure exploitation des outils d’END et l’anticipation sur la dégradation des ouvrages représentent un enjeu économique majeur en terme de gestion rationnelle du patrimoine bâti. De plus, une meilleure pratique de l’évaluation non destructive se traduirait également par une réduction des coûts liés à l’immobilisation des structures.
Sur le plan industriel, le développement des connaissances sur les outils existants, associé à de nouvelles approches méthodologiques relatives au traitement et à l’analyse des données d’auscultation conduirait à de nouvelles solutions techniques non destructives permettant l’évaluation et la surveillance des ouvrages en béton.
6. Présentation des expériences antérieures : le projet « évaluation du béton d’enrobage » - avancées et questions ouvertes
6.1 Rappel des objectifs du projet
Le projet avait un double objectif :
- définir la sensibilité de techniques existantes à un nouveau domaine d’application, la caractérisation du béton d’enrobage,
- quantifier la plus value apportée par les couplages de ces techniques.
La démarche adoptée a tout d’abord consisté à tester les techniques à l’état initial de leur développement sur un ouvrage dans les conditions réelles d’utilisation. Cette approche originale a permis de mettre clairement en évidence les limites des techniques en situation réelle, ce qui a facilité la définition du programme d’étude de sensibilité en laboratoire et l’émergence des besoins les plus urgents en termes d’amélioration des techniques ou des procédures de traitement.
L’étude de sensibilité en laboratoire sur des corps d’épreuve communs aux différentes techniques et soumis à différents paramètres de dégradation a été réalisée sur la base d’essais croisés. L’objectif était de déterminer la sensibilité théorique des techniques dans des conditions maîtrisées et de fournir des lois de calage pour chaque paramètre caractérisé. Les possibilités de combinaison des techniques ont également été explorées.
Enfin un retour sur ouvrages a été réalisé afin de valider les développements opérés en laboratoire et de tester les différentes possibilités de combinaison des techniques.
6.2 Résultats obtenus :
Relatifs à l’amélioration des techniques :
Les premiers essais sur ouvrages visant à mettre en évidence les limites des techniques se sont avérés très utiles dans la mesure où ils ont surtout souligné des limites pratiques d’utilisation. Pour les techniques les plus nouvelles, en cela qu’elles n’avaient jamais été mises en œuvre sur ouvrages, les développements nécessaires à leur amélioration ont immédiatement été initiés, ce qui a d’ailleurs permis d’aboutir à un prototype totalement opérationnel sur ouvrages à la fin du projet. Des avancées importantes ont également été réalisées sur la métrologie et le traitement des signaux.
Relatifs à la définition de la sensibilité des techniques :
Cette phase initiée sur ouvrages a fait l’objet d’une étude sur des corps d’épreuve de laboratoire vis à vis de paramètres de dégradation bien identifiés (teneur en eau, en chlorures, carbonatation et macrofissuration). La sensibilité des techniques pour chacun de ces paramètres ainsi que les limites du domaine d’utilisation théorique ont été clairement définies. Des lois de calage ont été élaborées, notamment vis à vis de la teneur en eau qui agit souvent comme un biais de mesure pour certaines techniques.
Relatifs à la validation sur ouvrages, à la combinaison des techniques :
Dans une logique de validation des développements réalisés en laboratoire, un ensemble d’ouvrages présentant divers types de pathologies a été sélectionné et investigué simultanément par l’ensemble des techniques. Les ouvrages ont été choisis en fonction de plusieurs critères :
- type de pathologie,
- ouvrages sous surveillance et pour lesquels on dispose d’une base de données,
- possibilité d’avoir un parc d’ouvrages présentant des pathologies similaires avec des degrés d’altération divers dans un environnement identique
Les techniques ont démontré une réelle aptitude à la détection de certaines pathologies en environnement réel. Mais les résultats les plus intéressants ont été obtenus lorsque la plus value apportée par la combinaison de deux techniques (au moins) a pu être explorée. En particulier, on a clairement démontré que l’association des techniques radar et électrique pouvaient renforcer les conclusions d’un diagnostic établi par l’une ou l’autre des techniques. En revanche même si la combinaison des techniques pour la mesure de deux paramètres différents n’a pas pu être totalement explorée faute de données suffisantes, des pistes ont été avancées sur la base de résultats obtenus en laboratoire, en particulier pour la détermination conjointe de la porosité et de la teneur en eau en associant mesures acoustiques et résistivité, ou de la teneur en eau et de la teneur en chlorures en croisant radar et capacitif. C’est ce qui motive la mise en place d’une stratégie de combinaison des techniques, applicable sur ouvrages mais dont la mise en œuvre n’est possible que si elle s’appuie sur des lois de calage préalablement établies en fonction de chaque paramètre pris séparément.
L’ensemble de ces résultats et de ces considérations permet d’orienter les futurs développements, d’une part en établissant des lois de corrélation entre mesurables et propriétés du matériau et d’autre part en étudiant la combinaison des techniques dans un objectif de quantification de ces propriétés, ce qui est l’apport majeur. Cette méthodologie préalablement définie en environnement contrôlé doit être validée sur différents ouvrages distingués par leur position dans leur cycle de vie et pour lesquels la connaissance de certaines données de base sera essentielle. Le traitement des données croisées issues de la combinaison des techniques pourra s’appuyer sur des méthodes de fusion de données déjà éprouvées dans d’autres domaines.
Il s’agit donc de fournir une information quantitative de l’état du matériau en regard de certains indicateurs de durabilité, réellement exploitable dans le re-calcul et dans le placement de l’ouvrage dans son cycle de vie.
6.3 Questions demeurant en suspens :
A l’issue du projet (janvier 2005), un certain nombre de questions ont été soulevées. Par ailleurs, il a semblé essentiel aux partenaires du projet d’approfondir leurs réflexions de manière à être capables, au-delà du « simple » développement des techniques (et de leur domaine d’utilisation), d’opérer des liens plus immédiats entre les mesures et l’évaluation des ouvrages.
Ainsi, si le projet « évaluation du béton d’enrobage » a permis de mettre en œuvre en situation réelle de nombreuses techniques, en résolvant les difficultés pratiques, et d’acquérir des mesures pertinentes, la question de l’évaluation des propriétés (mécanique ou conditionnant la durabilité) des matériaux – et du degré de qualité de cette évaluation – n’ont été abordées qu’en fin de projet. Les mesures permettent désormais d’accéder à une série de grandeurs physiques, dont on sait qu’elles sont presque toutes influencées simultanément par plusieurs paramètres (porosité, degré de saturation, homogénéité…), qu’il est difficile de séparer. Le couplage des techniques a montré que cette séparation (et donc la résolution de problèmes inverses), en vue d’estimer les propriétés recherchées (résistance mécanique, perméation, coefficient de diffusion), est possible, et elle a été mise en œuvre de façon exploratoire au laboratoire.
Parmi les principales questions demeurant ouvertes, et dont la réponse permettra d’avancer significativement dans la voie de l’évaluation globale des ouvrages, on notera :
- la mise en œuvre concrète du couplage et la quantification des apports opérationnels, par la résolution du problème inverse couplé (plusieurs mesures dépendant de plusieurs propriétés, dont l’une ou plusieurs sont les variables recherchées),
- la valorisation des techniques de CND en combinaison avec d’autres approches (reconnaissance visuelle, semi-destructive), dans un même souci de valorisation croisée (quantifiée),
- la mise en pratique des techniques et du couplage dans une optique d’évaluation quantitative des propriétés (en moyenne, en distribution statistique et en répartition spatiale) de façon à pouvoir alimenter des modèles de recalcul de l’ouvrage (recalcul de la sécurité ou de la durée de service résiduelle),
- l’analyse quantitative de la fiabilité des estimations (les facteurs de bruit et les difficultés techniques principales étant surmontées), pour des techniques isolées et/ou utilisées en combinaison. L’un des enjeux est ici d’apprécier les conséquences de la variabilité spatiale des propriétés dans les ouvrages sur les mesures d’une part et sur la sécurité d’autre part.
6.4 Verrous scientifiques et bases d’une approche scientifique :
Les spécialistes de l’aléa et de l’incertain ont l’habitude de distinguer les incertitudes épistémiques des incertitudes stochastiques. On qualifie d’épistémique l’incertitude que l’on suppose réductible, c'est-à-dire celle que l’on peut diminuer en se donnant les moyens d’acquérir des informations complémentaires (amélioration des moyens de mesures, amélioration des techniques d’analyse des données). Cela revient à réduire ce qui pouvait apparaître dans un premier temps comme du « bruit ». On qualifie de stochastique l’incertitude non réductible, soit qu’elle résulte d’un processus réellement aléatoire (ou supposé tel), soit que l’on n’ait pas les moyens techniques de la réduire. La distinction entre les deux types d’incertitude relève parfois de la philosophie (cf Popper « Plaidoyer pour l’indéterminisme »), mais elle correspond aussi à des préoccupations concrètes.
Le développement de nouveaux moyens (techniques, méthodes d’analyse) permet de réduire l’incertitude épistémique, et donc d’améliorer la qualité de l’évaluation. Par ailleurs, la quantification de l’incertitude stochastique permet d’apprécier la précision de cette évaluation. Pratiquement, pour un ouvrage, cela revient d’une part à mieux apprécier ses caractéristiques (résistance, durabilité) et la précision de cette estimation, et donc à mieux connaître sa fiabilité.
Les techniques de CND peuvent être mises à profit dans cette double perspective, que l’on peut décliner comme suit.
Volet A : Utilisation du CND pour réduire les incertitudes épistémiques
A – 1 : établissement des relations entre propriétés et mesures CND ou semi-destructives (conception d’une série de campagnes expérimentales). Cette étape s’appuie aussi sur la meilleure compréhension des phénomènes physiques associés à la mesure, tels que le couplage entre le capteur et la mesure (antenne en champ proche p.ex.), qui autorise une meilleure analyse des grandeurs mesurées,
A – 2 : formalisation de la pratique du couplage et développement des outils d’analyse et de fusion des données (analyse des corrélations, quantification de la précision, définition de la forme des données à fusionner, stratégie de fusion …), permettant d’attacher une meilleure qualité/fiabilité à toute estimation de la propriété locale ou globale,
A – 3 : constitution de l’ensemble des données (« base de données matériaux ») qui permet la mise en œuvre opérationnelle de la démarche :
- par l’identification et la quantification des techniques « les plus complémentaires » vis-à-vis d’une propriété donnée, et la définition des techniques fusionnables,
- par la construction de procédures de correction/enrichissement des mesures6.
A – 4 : mise en œuvre de la démarche sur les propriétés et objets (« défauts ») qui auront été jugés prioritaires dans une optique de diagnostic et d’évaluation d’ouvrages.
Volet B : Utilisation du CND (et de méthodes semi-destructives ?) pour traiter les conséquences des incertitudes stochastiques
B – 1 : identification des techniques aptes à quantifier la variabilité spatiale matérielle (à distinguer de la variabilité qui résulte des erreurs/bruits de mesure…) pour les propriétés visées :
- travail théorique/labo et mesures sur site (avec validation par calage sur prélèvements ou références),
- lien entre variabilité des mesures et variabilité des propriétés
B – 2 : établissement des relations qui permettent de quantifier la variabilité en place (analyse des corrélations : estimation et qualité de l’estimation),
B – 3 : constitution d’une base de données pour l’interprétation des mesures/l’analyse des propriétés en termes de variabilité : critères de signification pour des estimations +/- grossières de la variabilité globale, ou pour le repérage de zones inhomogènes,
B – 4 : mise en œuvre opérationnelle de cette démarche sur des ouvrages en place : quantification des variabilités spatiales des propriétés des ouvrages, identification des valeurs caractéristiques, localisation des zones inhomogènes…
7. Organisation et pilotage du projet
7. 1. Le programme scientifique : décomposition méthodologique
7.1.1 Phase expérimentale : campagnes de mesures sur échantillons et sur ouvrages
S-1 : Réduction des incertitudes épistémiques :
On conduira une campagne d’essais de laboratoire en conditions contrôlées sur une gamme de bétons représentatifs, considérés comme un matériau homogène, pour établir un ensemble de relations empiriques entre mesures et indicateurs. On établira :
-
les relations entre les indicateurs recherchés et les grandeurs mesurées (principalement issues du CND, éventuellement complétées de mesures plus courantes – scléromètre, pull-out). Il s’agira ici de quantifier et formaliser la sensibilité des mesures aux paramètres d’influence. Il sera aussi important d’évaluer la fiabilité de ces mesures ou encore la confiance que l’on peut leur attribuer ;
-
les corrélations entre les mesures obtenues via les différentes techniques. Ces corrélations seront ensuite utilisées pour réduire les incertitudes (voir S-5).
Pour chaque méthode un protocole expérimental sera déterminé pour prendre en compte la nature hétérogène du matériau à travers la détermination d’un volume élémentaire représentatif homogénéisable. Les résultats porteront notamment sur le nombre de mesures nécessaires pour obtenir une valeur représentative des indicateurs d’une zone homogène avec un degré de confiance donné. La question du volume de matériau concerné par la mesure (étendue et profondeur d’investigation) sera abordée, à la fois de manière expérimentale et par le biais de la simulation, permettant ainsi une meilleure compréhension des mécanismes physiques de la mesure.
Un planning expérimental détaillé sera établi et mis en œuvre à partir :
(a) des résultats obtenus au cours du Projet RGC&U « Evaluation non destructive des ouvrages » et l’état de l’art,
(b) des propriétés et objets jugés prioritaires (voir Tableau au §3.2),
(c) des techniques disponibles et mises en œuvre par les partenaires. Les techniques CND envisagées sont celles employées dans le premier projet (méthodes radar, capacitive, ultrasons, électriques), auxquelles on ajoutera la thermographie infrarouge et l’analyse des mesures par ondes rétrodiffusées.
S-2 : Quantification des incertitudes stochastiques au laboratoire :
On conduira une campagne d’essais de laboratoire en conditions contrôlées sur une gamme de bétons représentatifs, considérés comme un matériau homogène, pour établir un ensemble de relations empiriques entre mesures et indicateurs.
Il s’agira ici de quantifier la fiabilité des mesures, reposant sur la répétabilité des mesures sur ces corps d’épreuves supposés homogènes7.
S – 3 : Estimation des incertitudes épistémiques et stochastiques sur site
Choix de plusieurs ouvrages sains et pathologiques et mise en œuvre d’une campagne expérimentale en place :
- pour mesurer et quantifier la variabilité des mesures pour les différentes techniques employées8,
- pour prélever des échantillons et pratiquer des essais de contrôle, afin de quantifier au mieux les propriétés (indicateurs) et leur variabilité. Les valeurs obtenues sur les échantillons seront considérées comme des références. Elles permettront aussi de vérifier (valider ?) les corrélations obtenues au laboratoire entre mesures et indicateurs, à condition de maîtriser les paramètres environnementaux des mesures et du matériau. La modélisation permettra de dissocier les effets des différentes pathologies ou variables d’environnement sur les évolutions des paramètres mesurés. Il deviendra alors envisageable d’isoler la pathologie.
- pour documenter une base de données combinant les mesures CND et les indicateurs.
On séparera la variabilité spatiale, importante pour l’évaluation de l’ouvrage, de la variabilité irréductible, qui conditionne la qualité de cette évaluation.
Remarques
- Les interventions sur ouvrages et les campagnes de laboratoires pourront être menées de pair, dans la mesure où l’on dispose à ce jour de techniques de mesure déjà opérationnelles. Le calendrier des interventions sur ouvrages sera établi en fonction des disponibilités offertes par les partenaires industriels du projet. Les relations nouées par les partenaires bordelais avec la Mairie de Bordeaux, propriétaire de la base sous-marine de Bordeaux, permettront de conférer à cet ouvrage le statut de site d’étude. Il s’agit d’un grand ouvrage en béton armé (très fortement armé dans certaines zones), et d’accès aisé. Ses conditions d’exposition , qui varient selon les zones (abrité, immergé, soumis aux précipitations…) et son âge (environ 60 ans) en font un site d’étude de grand intérêt.
- Dans cette première phase (S1-S3), on se borne à recueillir des données, à en faire une exploitation immédiate (relations empiriques, corrélations, mesures de variance). C’est au cours de la phase suivante que la valorisation sera entreprise.
7.1.2. Phase de modélisation et d’analyse des données
S-4. Modélisation pour améliorer l’interprétation des mesures et réduire les incertitudes épistémiques.
Modélisation physique des processus de mesure et contribution :
-
à l’amélioration de la qualité des mesures
-
à l’amélioration de l’estimation des propriétés
La compréhension de la physique des phénomènes au cœur des END permet de mieux exploiter les mesures dans une logique de problème inverse couplé. On s’appuiera sur la modélisation directe pour mettre au point des dispositifs expérimentaux plus adéquats, améliorer les procédures expérimentales, et rendre plus pertinente l’interprétation en termes d’indicateurs. La séparation des influences des différentes variables expérimentales ou de matériaux sur les paramètres mesurés peut s’appuyer sur la modélisation.
On envisage ainsi de progresser :
- dans la connaissance des couplages matériau-capteurs (influence du protocole d’humidification et des contacts pour les mesures électriques, couplage antenne-matériau en radar, conditions de propagation des ondes acoustiques dans le milieu granulaire hétérogène). Ces progrès pourront aussi résulter de l’application dans le projet de concepts développés dans d’autres projets de recherche récents ou en cours,
- dans l’interprétation des mesures : la connaissance des gradients perpendiculaires à la surface (teneur en eau, en chlorures, carbonatation) est importante. Ces gradients conditionnent les mesures électriques, acoustiques… Là encore, la simulation permettra d’améliorer la résolution des problèmes inverses et d’envisager des combinaisons utiles de techniques, voire des améliorations des dispositifs de mesure.
S-5. Analyse des données pour réduire les incertitudes épistémiques et quantifier les incertitudes stochastiques.
Il s’agira ici d’exploiter au mieux et de valoriser l’ensemble des données, relations et corrélations (empiriques, mais reposant sur l’analyse physique) établies dans les phases S1-3.
L’innovation scientifique consistera à mettre en œuvre des techniques d’analyse innovantes (en génie civil), capables de tenir compte des résultats obtenus précédemment, soit :
- de la sensibilité de chaque mesure à chaque propriété,
- de l’incertitude d’estimation attachée à chacune des propriétés,
- des limites des méthodes actuelles
La principale méthode envisagée est la fusion de données. L’annexe 4 « Stratégie de fusion de données de CND-END pour l’évaluation de l’état de santé des infrastructures en béton » présente une démarche adaptée au problème à traiter sur trois ans. La fusion de données a un triple but : améliorer la performance d'un système de mesure malgré les limitations physiques des techniques, utiliser des données provenant de plusieurs sources et maîtriser la démarche expérimentale générale. Elle permet de tirer partie d’informations issues de plusieurs techniques ou de plusieurs conditions expérimentales. Enfin elle propose une gestion de l’incertain notamment lorsqu’il y a conflit entre plusieurs sources d’informations. Il est important de maîtriser et de chiffrer à la base la confiance donnée à l'information. Il faut donc s’appuyer sur les compétences des experts des techniques pour analyser objectivement les données que l’on peut extraire des essais des phases S1-3 et d’établir leur fiabilité. Cette opération doit être faite en amont du programme expérimental S1-3 lui-même afin d’assurer la cohérence des calculs et développements finaux. Elle peut avoir des incidences sur la technique de mesure, sur l’exploitation des données aussi bien que sur la géométrie des éprouvettes. La fusion de données impose de définir en amont la stratégie de contrôle de la structure ou du matériau. La personne en charge de cette partie devra se rendre plusieurs fois dans chaque centre de compétence des techniques utilisées afin de travailler sur la technique elle-même et ses limites avant de travailler sur la fusion.
Les algorithmes de fusion de données seront mis en œuvre et développés pour traiter des variables non seulement binaires (défaut/absence de défaut) mais continues (valeur de teneur en eau, d’endommagement), et pour combiner des valeurs obtenues sur un champ global (cartographie infrarouge, US, radar) et sur un champ local obtenu en quelques points. Le cas des variables interdépendantes sera analysé. Les fusions pourront être multi-techniques aussi bien que mono-technique, mais avec des mesures obtenues à partir de paramètres expérimentaux différents.
Le traitement et l’analyse des données d’auscultation pourront également faire appel à l’analyse statistique multivariable (ACP) et à des outils de modélisation statistique non paramétrique tels que les réseaux neuronaux ou les algorithmes génétiques. Ces outils permettront, sur la base de l’apprentissage des relations mesures/indicateurs (en s’appuyant sur la base de connaissances qui rassemblera les données expérimentales des phases S1-S3), d’établir un ensemble de relations empiriques, puis de déduire les valeurs des indicateurs correspondant à un ensemble de mesures donné (une telle approche ne repose pas sur une modélisation physique des processus et ne nécessite a priori aucune connaissance sur les phénomènes en jeu).
Les résultats attendus sont :
- l’exploitation de l’ensemble des données obtenues sur les ouvrages pour établir les corrélations entre mesures et propriétés et valider (ou pas) les corrélations établies au laboratoire,
- la mise au point des algorithmes d’analyse et de traitement des données qui permettront d’estimer les indicateurs (propriétés moyennes, variabilité, degré de confiance ou précision de l’estimation). Ces estimations seront comparées à celles obtenues en ne mettant en œuvre qu’une seule technique. Les apports d’informations additionnelles (« a priori » déduits de la connaissance de l’ouvrage et de son histoire) seront quantifiés (on analysera la manière dont ces informations peuvent aider à réduire les incertitudes).
D’un point de vue opérationnel, on proposera :
- des programmes d’investigation, conçus pour répondre à des objectifs précis (obtenir la valeur d’indicateurs donnés, à un niveau de confiance donné9),
- des procédures éventuelles de correction des mesures et d’interprétation en situation opérationnelle, en précisant leur validité.
7.1.3 Phase de validation et d’exploitation
S-6 : Retour d’expérience sur ouvrages et validation en aveugle.
Il sera procédé au choix d’un ou deux ouvrages de référence sur lesquels des auscultations sont programmées par le gestionnaire. L’objectif de cette partie est double :
-
il s’agit tout d’abord de valider en conditions réelles les développements réalisés en laboratoire et sur sites tests (calibration, fusion de données) pour les mesures non destructives. Les mesures seront réalisées totalement en aveugle sur des zones préalablement fixées par le gestionnaire de l’ouvrage. En parallèle des essais non destructifs, des prélèvements seront également réalisés de façon à évaluer par des mesures classiques les propriétés recherchées. La stratégie expérimentale sera développée à partir des a priori maîtrisés du matériau et de son état micro et macrostructural.
-
on s’appliquera ensuite à évaluer sur ces ouvrages les indicateurs de durabilité précédemment identifiés (et leur intervalle de confiance), afin de fournir aux calculateurs un ensemble de données utiles pour établir un diagnostic complet de l’état de l’ouvrage et le replacer dans son cycle de vie.
7.2. Le programme scientifique : décomposition opérationnelle
Le Tableau de la page 26 28 présente la manière dont les différentes étapes participent à la résolution des verrous scientifiques. Il résulte d’une logique de contribution au diagnostic. Il n’est pas défini en termes de techniques employées, ni en termes d’objets ou de propriétés à identifier.
Le programme expérimental n’est pas encore totalement défini à ce jour, mais on peut cependant tracer ses grandes lignes, en s’appuyant sur l’expérience acquise dans le Projet RGC&U « Evaluation du béton d’enrobage ».
Dostları ilə paylaş: |