Maitrise Des Risques Par LInstrumentation
Maitrise Des Risques Par LInstrumentation
Maitrise Des Risques Par LInstrumentation
L'IMGC est une association regroupant les différents acteurs de l'Ingénierie de Maintenance dans le
domaine des ouvrages d'art.
Nos objectifs
◆ Promouvoir les métiers de l'Ingénierie de la Maintenance ;
◆ Développer des programmes de formations spécifiques ;
◆ Permettre aux maîtres d'ouvrage de bien appréhender des prestations ;
◆ Être un lieu d'échange entre maîtres d'ouvrage, bureaux d'ingénierie et organismes scientifiques.
https://www.imgc.fr
2. RISQUES 9
» 2.1 RAPPEL SUR L’ANALYSE DE RISQUES.....................................................................9
» 2.2 RISQUES ET ALEAS...............................................................................................11
• 2.2.1. Mauvaise conception et mauvaise exécution........................................................... 11
• 2.2.2. Vieillissement des matériaux........................................................................................ 12
• 2.2.3. Changement d’usage ou de conditions d’exploitation............................................. 14
• 2.2.4. Changement climatique................................................................................................. 15
• 2.2.5. Événements exceptionnels............................................................................................ 15
• 2.2.6. Interaction sol/structure................................................................................................ 16
• 2.2.7. Interaction structure / structure................................................................................... 18
• 2.2.8. Modification de l’environnement et travaux à proximité de l’ouvrage................... 19
3. INSTRUMENTATION 21
» 3.1 RAPPEL SUR L’INSTRUMENTATION......................................................................21
» 3.2 MESURES ET ACQUISITIONS................................................................................23
• 3.2.1. Notions de métrologie ................................................................................................... 23
• 3.2.2. Acquisition : système et architecture.......................................................................... 26
» 3.3 LES USAGES DE L’INSTRUMENTATION.................................................................27
• 3.3.1. Quelques usages de l’instrumentation........................................................................ 27
• 3.3.2. Le diagnostic.................................................................................................................... 29
• 3.3.3. La surveillance préventive............................................................................................. 30
• 3.3.4. La surveillance renforcée............................................................................................... 32
• 3.3.5. La haute surveillance...................................................................................................... 32
• 3.3.6. La surveillance dans le cadre de travaux sur les avoisinants................................. 32
» 3.4 INDICATEURS D’ALERTES......................................................................................33
6. CONCLUSION 58
7. ANNEXE 1 59
» 7.1 TERMINOLOGIE......................................................................................................59
» 7.2 GLOSSAIRE............................................................................................................59
• 7.2.1 Rappel définition métrologie.......................................................................................... 59
• 7.2.2 Etat d’un ouvrage.............................................................................................................. 60
• 7.2.3 Activités de maintenance............................................................................................... 60
1
Avant-propos
Le présent document constitue un guide de recommandations regroupant des bonnes pratiques professionnelles
sans pour autant avoir l’ambition de définir un caractère prescriptif pour les Maîtres d’ouvrage (MOA).
Il s’appuie sur une bibliographie détaillée au chapitre 10 et sur laquelle le lecteur pourra s’appuyer pour aller plus
loin.
1.1 PREAMBULE
Afin d’assurer une bonne gestion de son patrimoine, tout gestionnaire doit mettre en place une surveillance
organisée visant à suivre l’état de fonctionnement et de sécurité de ses structures.
Si on se réfère aux recommandations de l’Instruction Technique pour la Surveillance et l’Entretien des Ouvrages
d‘Art (ITSEOA) et notamment son fascicule 3 [1], la stratégie de maintenance des structures repose sur les actions
de surveillance, d’auscultation, de surveillance renforcée ou de haute surveillance.
Une fois l’inventaire du patrimoine réalisé, la première action consiste à organiser la surveillance des structures, au
travers de contrôles annuels, de visites d’évaluation et d’inspection, afin de définir si elles sont dans un état normal
(ou quasi-normal), douteux ou encore défectueux (ou anormal).
En fonction de l’état constaté, l’auscultation est destinée à approfondir la connaissance réelle de la structure en
cherchant à évaluer la gravité des désordres qui l’affectent, à établir un diagnostic et à définir ou à étayer des
hypothèses de calculs.
Cette surveillance renforcée peut également être mise en œuvre sur des structures particulièrement complexes
ou exceptionnelles dès la construction afin de faciliter et fiabiliser leur suivi, leur exploitation et leur maintenance.
Enfin, la haute surveillance s’applique à une structure jugée défectueuse. C’est une mesure d’exception qui consiste
à guetter l’apparition d’un signe faisant craindre la possibilité de défaillance à très court terme, afin de prendre
immédiatement les mesures nécessaires et préalablement définies. Cette haute surveillance nécessite, de fait,
la définition de critères ou indicateurs explicites ainsi que des seuils afférents. Les mêmes principes peuvent
s’appliquer dans le cadre de travaux importants à proximité des structures existantes.
La surveillance renforcée se distingue de la haute surveillance par le fait que la réserve de sécurité structurelle ne
doit pas être mise en cause pendant toute la durée de la surveillance et que des consignes reposant sur des seuils
d’alerte ne sont pas indispensables.
A l’heure de la tolérance zéro (zéro accident, zéro restriction d’exploitation, zéro verglas sur les routes…), il est
de plus en plus nécessaire de maîtriser les risques et de fiabiliser les connaissances sur l’état des ouvrages en
vue d’organiser une maintenance préventive et/ou prédictive et mieux spécifier et dimensionner la maintenance
corrective permettant de minimiser les risques, tout ceci à un coût acceptable.
L’instrumentation, tout comme les démarches d’analyse de risques, est un outil important, notamment dans le
cadre du suivi préventif voire prédictif. Elle permet, en l’occurrence, de mieux comprendre le comportement des
structures, de connaître leur état, et donc de fournir des données d’entrée fiables pour une analyse de risques
robuste.
L’instrumentation en tant que telle est couramment utilisée dans de très nombreux domaines et secteurs d'activités
comme l’industrie, la recherche et développement, le génie civil, l’avionique, etc.
Les enjeux de la maîtrise des risques par l’instrumentation consistent, au travers d’une meilleure connaissance
des phénomènes initiateurs, à définir un système qui doit permettre d’anticiper toute apparition de pathologie
ou toute aggravation de celle-ci vers un état inacceptable. Dans ce dernier cas, la stratégie consiste à mettre
une structure neuve ou ancienne sous surveillance préventive et/ou prédictive en définissant des seuils ou des
indicateurs permettant au gestionnaire de prendre les bonnes décisions au bon moment et, de fait, de gérer en
amont les risques liés à son patrimoine bâti.
D’une manière plus courante, l’adoption d’une approche basée sur l’instrumentation permet au gestionnaire de
mieux connaître son patrimoine, le fonctionnement de tout type d’ouvrage en appliquant une méthode expéri-
mentale, et éventuellement de caler des modèles du comportement mécanique basés sur des calculs simples ou
complexes, afin de rechercher des réserves de capacité portante par exemple ou de permettre la modification de
l’usage initial de la structure.
Dans le cadre de ce document et de la réflexion associée, les structures et équipements linéaires telles que les
routes, voies ferrées, pistes d’aéroport, réseaux… ainsi que les équipements importants type ponts roulants,
structures offshores, ouvrages en terre, ont été exclus de la réflexion car ils nécessitent des instrumentations
particulières et « en marge » de celles nécessaires pour suivre les structures plus classiques de bâtiments et génie
civil.
Par ailleurs, le guide se limite également à la maîtrise des risques par l’instrumentation des structures existantes.
Dans ce document, l’instrumentation mise en œuvre pour le suivi en cours de construction d’une structure n’est pas
traitée, ce qui ne veut aucunement dire qu’elle en a moins d’importance. Les recommandations énoncées dans le
présent guide peuvent toutefois s’appliquer pour les ouvrages en cours de construction, et au-delà de leur mise en
service (suivi du fluage par exemple).
En conséquence, ce guide s’applique aux structures existantes pour lesquelles le gestionnaire veut connaître le
comportement / l’évolution au cours du temps, que ces structures soient juste mises en service ou centenaires,
pathologiques ou non.
Il est à noter que certaines structures sont sujettes à des obligations réglementaires qui prévalent sur les principes
évoqués dans ce guide de recommandations (barrages par exemple).
2
RISQUES
2.1 RAPPEL SUR L’ANALYSE DE RISQUES
Pour plus de détail sur ces notions, on pourra se référer à la bibliographie fournie sur cette thématique, reprise au
chapitre 10 du présent document, et en particulier sur les références [2], [12] ou [13] :
◆ [2] ISO 13824 :2020 « Bases du calcul des constructions – Principes généraux sur l’évaluation du risque pour
les systèmes comprenant des structures »
◆ [12] Maîtrise des risques associés aux ouvrages d’art – SETRA – Janvier 2013
◆ [13] Analyse des risques appliquée aux viaducs à travées indépendantes en poutres précontraintes (VIPP) –
SETRA – Novembre 2010
La norme ISO 13824 :2020 [2] précise que « le risque est la combinaison de la probabilité d’occurrence ou fréquence
d’occurrence d’un événement et la magnitude de ses conséquences. Du point de vue de la théorie de la décision,
c’est la valeur attendue des conséquences indésirables, c’est-à-dire la somme de tous les produits des consé-
quences d’un événement et de leurs probabilités ».
L’analyse de risque est basée sur le croisement de la probabilité d’occurrence ou fréquence d’occurrence d’un
événement et la magnitude de ses conséquences. Globalement, elle se décompose en 9 étapes que sont :
1. la définition des objectifs de cette analyse,
2. la définition du système et des principales hypothèses nécessaires à l’élaboration de cette analyse,
3. l’identification et l’évaluation des aléas qui sont à l’origine du risque que l’on va par exemple classer de faibles à
très élevés avec une décomposition en plusieurs niveaux qui dépendront de la finesse de l’analyse recherchée,
4. l’analyse de la robustesse de l’objet étudié sous différentes hypothèses d’usage. Cette robustesse (ou inverse-
ment cette vulnérabilité) de l’objet étant elle-même décomposée en différents niveaux permettant de classer
les objets selon leur conception, leur redondance, leur typologie…
5. l’évaluation des enjeux et de l’importance stratégique de l’objet qui vont représenter les conséquences de
la défaillance de l’objet que ce soit sur le plan humain, d’exploitabilité, de risques financiers / écologiques /
environnementaux…
6. l’évaluation du risque qui résulte du croisement des paramètres précédents et qui, sous la forme d’une matrice
des risques, permettra de classer l’objet étudié,
7. la sélection du ou des risque(s),
8. l’analyse détaillée pour les objets identifiés comme étant à risque élevé,
9. et enfin le traitement du risque par le gestionnaire de l’objet.
Pour illustrer ce principe, et faire écho à la schématisation du principe de l’analyse de risque explicité ci-dessus, on
peut représenter le processus d’analyse de risque à l’aide des matrices suivantes permettant de définir les classes
de criticité (C1 à C4) et les classes de risques (R1 à R3).
Classification
des aléas des ouvrages
Classe de vulnérabilité
Aléas faibles Classe de criticité
Très peu Peu Très
Aléas modérés Correct Vulnérable
vulnérable vulnérable vulnérable
Aléas assez élevés
Classe d'aléa 1 2 3 4 5
Aléas élevés
Aléas
0-20 C1 C1 C2 C3 C3
Aléas très élevés faible
Classe
Classe de vulnérabilité
Aléa de risques
20-40 C1 C2 C2 C3 C3
modéré
Classe de C1 C1 C3 C4
Robustesse Vulnérabilité Aléa
vulnérabilité 40-60 C2 C2 C3 C3 C4 Niveaux
assez élevé OA OA OA
d'enjeux OA
Très non peu très
Aléas faibles 5 60-80 Aléa C3 C3 C3 C4 C4
critique
vulnérable critique critique critique
élevé
Aléas Aléa
1-normaux R1 R1 R2 R3
4 Vulnérable > à 80 C3 C3 C4 C4 C4
modérés très élevé 2-élevés R1 R1 R2 R3
Aléas assez
3 Correct 3-très élevés R1 R2 R3 R3
élevés
Peu Niveaux d'enjeux
Aléas élevés 2
vulnérable
1-normaux
Aléas très Très peu
1
élevés vulnérable 2-élevés
3-très élevés
➤ Figure 2 : Principe général de l’analyse des risques – tableaux issus des guides [12] et [13]
La classe de risque ainsi définie doit permettre au gestionnaire d’établir une stratégie de surveillance de ses objets.
Dans ce cadre, le gestionnaire peut rechercher à réduire les aléas par une amélioration de sa connaissance de
l’objet (mise en place d’une surveillance préventive voire prédictive, réduction des charges d’exploitation, contrôles
de paramètres dimensionnels…) et/ou par une augmentation de la robustesse de son objet par le biais de travaux
de réparation et/ou de renforcement.
En général, le risque ultime, pouvant conduire à des catastrophes, est le fruit d’une conjonction de plusieurs risques.
La mauvaise conception et/ou la mauvaise exécution d’une structure de génie civil font partie des causes majeures
de sinistre. Elles peuvent concerner l'ensemble de l'ouvrage ou bien une partie seulement comme un composant, un
équipement, une protection, un matériau…
Causes :
Les causes sont multiples : erreurs de calcul, hypothèses de calcul inadaptées ou mal évaluées, mauvaise évaluation
de l'environnement, mauvaise évaluation de l'exploitation prévue (cas de charges ou incompatibilité des matériaux
par exemple), ancienne conception basée sur des connaissances obsolètes ou à l’inverse une conception expé-
rimentale, manque de robustesse / redondance dans la conception, mauvaise gestion des documents (erreur de
plan, matériaux…), incompétence, mauvaise organisation du chantier, défaillance des contrôles, pression exagérée
des délais ou des coûts, planning non réaliste, voire tout simplement des compagnons insuffisamment qualifiés
pour la réalisation de cette structure.
Conséquences :
Les conséquences vont de la réduction de la durée de vie de l’ouvrage jusqu'à sa ruine partielle, voire totale. Une
restriction d’exploitation de l’ouvrage est parfois nécessaire comme la limitation en tonnage pour un pont ou le
ralentissement des trains sur ouvrages ferroviaires. L’ouvrage peut aussi être classé comme impropre à son usage
(ouvrage d’art trop souple, vibrations incompatibles avec l’usage…) ce qui nécessite dès son début de vie une
surveillance particulière avant sa remise en conformité.
Cinétique :
Dans le cadre de ce type de risques, la cinétique d’évolution est très variable. Elle peut être lente sur plusieurs
dizaines d’années (mauvaise protection des aciers par un enrobage insuffisant par exemple) à très rapide (charges
sous-évaluées dès l’origine et apparition de fissuration dès la mise en service).
Exemple :
Effondrement du pont de la Concorde à Laval au Canada lié notamment à un défaut de recouvrement des barres et
mauvaise prise en compte de l’effort tranchant. Source = présentation colloque le Pont 2007 par un représentant du
ministère des transports du Québec.
➤ Figure 3 : P
ont de la Concorde - détail du ferraillage de l’appui
cantilever mal conçu puis mal exécuté
Ces causes étaient aggravées par une conception (appui cantilever) sans redondance et particulièrement sensible aux
infiltrations d'eau, donc à la corrosion et au gel/dégel (l'ouvrage était au Canada), avec une géométrie générale rendant
complexes les inspections visuelles de ces zones d’appui en cantilever. L'ensemble a conduit à une rupture fragile.
Les inspections visuelles ne peuvent pas toujours détecter les indices précurseurs d'une telle rupture.
Ce risque est naturel et inéluctable mais il peut être retardé en amont avec une bonne conception (approche perfor-
mancielle notamment) et le choix des caractéristiques des matériaux, un traitement adapté pendant l’exécution de
l’ouvrage et pendant sa vie en œuvre avec notamment les actions de maintenance préventive.
Causes :
Ce risque découle des interactions inévitables entre les matériaux et leur environnement (sol, eau, micro-orga-
nismes, atmosphère, etc.). Ces interactions sont multifactorielles.
Au-delà des aspects classiques de carbonatation ou d’attaques de chlorures pour le béton, ces causes peuvent
être complétées par les maladies du béton de type gonflement tel que la RSI (Réaction Sulfatique Interne - figure 5)
ou la RAG (Réaction Alcali-Granulats), la présence de matériaux anciens à très anciens (fonte ou fer puddlé avec
des assemblages par rivets par exemple), la présence de structures « mixtes » avec des renforts en lamelles de
composite sur du béton ou du métal et dont l’interface de colle se dégrade au fil des ans…
Le défaut d’entretien et de maintenance constitue également une des causes importantes de l’aggravation de
ce vieillissement des matériaux en favorisant par exemple des venues d’eau répétées sur une zone structurelle
sensible lesquelles accélèrent ainsi ces phénomènes de vieillissement.
A noter également que l’usage de matériaux innovants sans retour d’expérience suffisamment long peut être une
source de risque non connue à ce jour et de vieillissement ultérieur anormal.
Conséquences :
Comme pour une mauvaise conception, le vieillissement des matériaux a pour conséquence la réduction de la
durée de vie de l’ouvrage, vers sa ruine totale ou partielle ainsi que l’accroissement des coûts de maintenance et
de contrôle supplémentaires.
Par exemple, la conjonction d’un sous-enrobage des aciers, quelle qu’en soit l’origine (évolution du corpus régle-
mentaire, mauvaise mise en œuvre des aciers lors de la construction) et d’un environnement agressif (salage
fréquent, structure en ambiance maritime) ou simplement la carbonatation du béton peut conduire à un risque de
corrosion des aciers puis à l’éclatement du béton jusqu’à la réduction, à terme, de la capacité portante de l’élément.
Il peut s’en suivre une dégradation de l’esthétique de l’ouvrage jusqu’à des accidents de gravité variable (chute de
blocs béton sur la chaussée, décrochement d’éléments de corniches voire rupture de l’ouvrage). Une restriction
d’exploitation de l’ouvrage partielle ou totale est alors parfois nécessaire.
Cinétique :
Le processus de vieillissement des matériaux est d’autant plus lent que la conception et l’exécution sont de qualité
et l’environnement sain, mais peut être plus rapide (cinétique moyenne) dans le cas contraire (corrosion de struc-
tures en bord de mer ou en zone de marnage par exemple).
La cinétique dépend beaucoup des conditions ambiantes. Elle peut s'accélérer en favorisant le développement
d'une pathologie concomitante ou facilitant la pénétration des agents agressifs. A titre d’exemple, on peut citer
l’interaction entre une réaction de gonflement interne du béton qui facilite la pénétration des agents agressifs et
donc la corrosion des armatures et l’éclatement du béton d'enrobage.
La durée de vie d'un ouvrage de Génie Civil dépasse de beaucoup les cycles d'évolutions sociales ou technolo-
giques. Un ouvrage peut donc être amené à changer d’usage au cours de sa vie ou voir ses conditions d'exploitation
et/ou son environnement modifiés. Tout changement de cette nature doit conduire à réinterroger la surveillance
de l'ouvrage (contenu, fréquence, seuils, ...) sur la base d'une actualisation des études et de l'analyse de risques.
Causes :
Les changements de propriétaires, de fonction, de sollicitations sont les principaux facteurs de risque pour
l’ouvrage.
Les évolutions technologiques ont permis d'accroitre la masse et la vitesse des véhicules lourds. Elles améliorent
aussi l'isolation des bâtiments, favorisant la tenue de la neige sur les toitures à faible pente, par exemple.
En dehors du changement lui-même, la méconnaissance de l'ouvrage et surtout des modifications qui lui ont
déjà été apportées aggravent ce risque. Ce point est d’autant plus prégnant pour les fondations qui sont souvent
oubliées dans l’analyse de ses changements d’usage et pour lesquelles il est très difficile voire quasi impossible de
contrôler les caractéristiques réelles.
La modification des conditions d’exploitation de l’ouvrage par l’augmentation de la charge est fréquente :
› Transformation mode doux (routier / tram), élargissement des structures ;
› Nouvelle catégorie routière avec camions super-lourds ;
› Évolution technologique avec des avions de plus en plus imposants et lourds (l'arrivée du Boeing 747 avait
nécessité de renforcer les ponts aéronautiques de l'aéroport d'Orly, par exemple) ;
› Changement d’usage d’un bâtiment d’exploitation en archivage ;
› Ouverture de lignes ferroviaires voyageurs en fret ;
› Augmentation des épaisseurs de matériaux (chaussée, renforcement d’ouvrages précontraints, pose d'un
revêtement de sol en pierre…) ;
› etc.
Conséquences :
Elles se traduisent surtout par une surcharge, ou à l'inverse, par une perte de capacité portante. Elles peuvent ainsi
accélérer le vieillissement de l'ouvrage. Les conséquences dépendent de la maîtrise ou de la connaissance du
changement en cause par le maître d'ouvrage, ainsi que des précautions prises au moment de la réalisation de ces
changements dans l’étude exhaustive des impacts associés sur l’ouvrage.
De tels changements nécessitent souvent une évaluation des capacités de la structure dans son entièreté, puis son
renforcement, sa modification ou sa réparation. Ces actions impliquent donc une perte d'exploitation de l'ouvrage
dans certains cas.
Cinétiques :
Lente à rapide selon que le risque est lié à une surcharge ou au vieillissement des matériaux.
Exemples :
L'agrandissement ou la création d'une ouverture dans un voile porteur peut endommager la structure s'il est mal maîtrisé
et nécessite une instrumentation ad hoc préventivement aux travaux pour, d’une part, connaître le mode de fonctionne-
ment normal de l’élément, et d’autre part de s’assurer de son bon comportement pendant et après les travaux.
Le passage de convois exceptionnels très lourds peut induire des risques immédiats pour la structure, mais également
contribuer à une diminution de sa durée de vie dès lors que le passage est régulier et que les contraintes induites sont
importantes.
➤ Figure 6 : Passage en crabe d’un convoi exceptionnel de 560 t sur ouvrage d’art
Le changement climatique est un fait indiscutable qui change les habitudes et a des impacts sur les infrastructures.
Les principaux effets de ce changement se traduisent par une augmentation des sollicitations extrêmes.
Causes :
Le changement climatique se caractérise par une augmentation de la température, de la récurrence de périodes de
sécheresse et de la multiplicité d’épisodes de pluies extrêmes, plus globalement de l’augmentation de la fréquence
d’évènements violents.
Conséquences :
L’augmentation de la température a des répercussions sur la durabilité des structures en béton armé exposées à
un risque de corrosion des armatures initiées par la carbonatation. Elle a aussi des effets sur le vieillissement des
joints de dilatation voire des contacts tabliers / culées du fait de souffles insuffisants.
L’alternance des périodes de sécheresse et de pluies violentes a pour conséquence la multiplication des affouille-
ments des appuis et la déstabilisation des talus de rive.
La surveillance des effets liés au changement climatique peut consister à mettre en place une instrumentation
faisant appel tant à des capteurs « environnementaux », tels que station météo, pluviomètres, piézomètres,
anémomètres, qu’à des capteurs géotechniques, inclinomètres ou extensomètres en forage, et enfin de capteurs
de structures placés sur les appuis.
Cinétique :
Lente à très rapide.
Les accidents pouvant endommager un ouvrage sont aléatoires et donc difficiles à anticiper. S'ils ne peuvent être
évités, les retours d'expérience permettent toutefois d'en réduire les conséquences et/ou la vulnérabilité des struc-
tures. C'est notamment le cas des séismes, accidents routiers ou incendies qui sont bien intégrés à la conception
des ouvrages récents. De tels accidents peuvent aussi se conjuguer avec un défaut de conception/exécution.
Dans d'autres cas, la probabilité d’occurrence peut être diminuée, par exemple en réglementant le transport de
matières dangereuses contre les incendies ou en renforçant les dispositifs de sureté contre les attentats (fouilles,
systèmes anti-voitures béliers…).
Causes :
Elles sont naturelles (séisme, inondation, glissement de terrain, sécheresse…) ou humaines, et dans ce dernier cas,
accidentelles (incendie, accident routier…). La probabilité d’occurrence de ces aléas peut aussi évoluer, souvent en
fonction de l'activité humaine (changement climatique, augmentation du trafic routier…). Pour mémoire, on peut
citer d’autres causes telles que les malveillances (attentats, conflits…).
Conséquences :
Elles sont rarement anodines et peuvent même être catastrophiques. Un accident routier n'endommagera qu'une
partie d'un ouvrage alors qu'un séisme touchera une région. A minima, l'exploitation de la structure sera limitée et
au pire, le bilan humain sera lourd.
Elles peuvent aussi gêner l'intervention des secours (effondrement d'un tunnel après un incendie, effondrement de
plusieurs ponts après séisme ou crue exceptionnelle…).
Cinétiques :
Rapides, voire violentes, mais certains effets peuvent aussi se révéler après l'accident (affouillement après une
crue, affaiblissement d'une structure après un incendie ou un choc…).
Exemples :
Des actions accidentelles telles que les accidents routiers ou les incidents de chantier peuvent avoir des conséquences
catastrophiques sur la capacité portante d’un ouvrage.
Pour tout type de structure de génie-cil, la fonction première du sol est d’assurer sa portance. L’interaction Sol/
Structure doit être étudiée au moment de la conception et de la réalisation de l’ouvrage, mais également dès
lors que l’on modifie sensiblement les charges appliquées à la structure dans le cadre d’un changement d’usage
notamment, quand les caractéristiques du sol sont susceptibles de changer (infiltration d’eau) ou que l’ouvrage
subit une modification de ses fondations et/ou de son environnement (affouillement par exemple).
Une reconnaissance du terrain (des essais géotechniques sur pieu ou une inspection subaquatique par exemple)
permet d’en vérifier la portance, des essais de reconnaissance géotechnique et géologique servent à caractériser
le terrain, une instrumentation adaptée via des capteurs de niveau d’eau ou des capteurs de pression interstitielle
assure la surveillance du niveau d’une nappe…
Causes :
Le risque résulte d’une modification du comportement du sol ou de la structure, comportement qui n’est plus alors
conforme à celui envisagé au moment de la conception de l’ouvrage. On peut citer les exemples suivants :
◆ Le gonflement d’argile plastique en présence d’eau amenée par des injections d’un chantier voisin.
◆ La campagne de reconnaissance géotechnique n’a pas détecté la présence de failles dans le sol, lesquelles
accroissent le risque de fontis par dissolution des gypses.
◆ La mauvaise réalisation des fondations de l’ouvrage avec un défaut de portance.
◆ L’augmentation sensible des charges du fait d’un changement d’usage de l’ouvrage et le dépassement des
capacités portantes des fondations existantes.
◆ la liquéfaction des sols après un fonçage de palplanches, liquéfaction qui va induire un défaut de portance du
sol.
Conséquences :
Des déplacements/tassements importants peuvent mener à la fissuration d’une structure voire sa fracturation
jusqu’à la fermeture de l’ouvrage ou à sa ruine.
Généralement il s’en suit des procédures de diagnostic et d’expertises pour déterminer les responsabilités (concep-
tion, reconnaissance, travaux, ...) et les solutions de réparation.
Cinétique :
La cinétique des dégradations liées aux risques d’interaction sol/structure est très variable. Elle peut être lente
à extrêmement rapide.
Exemple :
Compte-tenu des effets de la Dordogne sur le comportement du sol de fondation des viaducs d’accès du Pont de Cubzac
(figure 8), d’importantes dégradations ont été constatées au niveau des voutes du viaduc d’accès. Une instrumentation
spécifique a été mise en œuvre pour suivre l’évolution des tassements et s’assurer de la performance des travaux de
renforcement [fiche référence n° 9.9, annexe 3].
Plusieurs cas de figures sont possibles comme la réalisation d’une nouvelle structure attenante à la structure
existante ou la modification de cette structure.
L’interaction structure / structure doit être étudiée au moment de la conception et de la réalisation de l’ouvrage ou
de sa modification. Dans certains cas, ces modifications sont prévues dès la réalisation de l’ouvrage initial en vue
d’une éventuelle extension.
Les notes de calculs (quand elles existent), des investigations structurelles complémentaires (radar…), des essais
structurels (mesures de contraintes résiduelles…) sont des outils d’aide à la conception. Un suivi de l’ouvrage
existant avant, pendant et après les travaux pourra être effectué afin de vérifier son bon comportement.
Causes :
Le risque résulte en une modification du comportement de la structure qui n’est plus conforme à celui qui avait été
envisagé au moment de la conception de l’ouvrage. On peut citer les exemples suivants :
◆ Élargissement d’un ouvrage ou modification de son dévers,
◆ Changement des appuis pour la réalisation d’un parking sous un bâtiment existant,
◆ Modification de la charge par l’ajout d’un étage sur un bâtiment existant,
◆ Construction d’un nouvel accès dans une gare,
◆ Construction d’un immeuble en mitoyenneté d’une structure souterraine [fiche référence n°9.4, annexe 3],
◆ Modification des propriétés mécaniques d’une partie de l’ouvrage, liée par exemple à un renforcement partiel,
◆ Rénovation.
Conséquences :
Une fragilisation de l’ouvrage existant par l’apparition de désordres comme des fissures et des déplacements allant
parfois jusqu’à une dégradation de la structure qui mène à sa ruine.
Généralement il s’en suit des procédures d’expertises pour déterminer les responsabilités (conception, reconnais-
sance, travaux, ...) et les solutions de réparation.
Cinétique :
Comme pour l’interaction sol/structure, la cinétique des dégradations liées aux risques d’interaction structure/
structure est très variable. Elle peut être de quelques heures à quelques années. Le suivi devra être adapté en
conséquence.
Exemples :
Mise en œuvre d’une instrumentation de la couverture du CNIT à la Défense en prévision des travaux de réalisation de
la gare du RER E en sous œuvre (figure 9). Cette instrumentation était destinée à connaître la respiration de la structure
sous les conditions environnementales puis, de manière préventive, à s’assurer de son bon comportement pendant toute
la durée des travaux.
On pourra également se référer à la fiche référence n°4 en annexe 3 et relative à la construction d’une gare profonde
à proximité immédiate de la double voute de la station Porte Maillot de la ligne 1.
Dans le cas de travaux à proximité d’une construction ou d’une infrastructure de transport, l’analyse des risques
peut conduire à la mise en place d’une instrumentation en continu. Dans ce cas, l’instrumentation permet d’assurer
la continuité d’exploitation en sécurité pendant la réalisation des travaux.
Le principe d’une telle instrumentation qui correspond à de la haute surveillance doit être défini très en amont dans
les phases du projet. En effet, elle est basée sur la définition de seuils de pré-alerte, alerte ou alarme relatifs aux
déplacements, déformations ou autre, seuils qui peuvent conduire, s’ils sont dépassés, à des mesures fortes et
avec un impact économique et social important : arrêt du chantier et arrêt de l’exploitation de l’infrastructure. Il est
donc nécessaire que ces critères soient définis dès la phase d’avant-projet, et partagés entre le maître d’ouvrage
gestionnaire et exploitant de l’existant et le maître d’œuvre en charge du projet à réaliser. Le maître d’ouvrage peut
prendre l’attache d’experts, voire établir un comité technique d’experts pour l’assister dans la prise de décision.
En outre, afin de prendre en compte les effets naturels et principalement thermiques, il est nécessaire/souhaitable
que cette instrumentation soit mise en place a minima un an avant le début des travaux.
Causes :
Le risque résulte en une modification du comportement de la structure, lequel n’est plus conforme à celui qui avait
été envisagé au moment de la conception de l’ouvrage. On peut citer les exemples suivants :
◆ Consolidation et/ou renforcement de sol,
◆ Rabattement de nappe,
◆ Déblaiement à proximité d’une structure,
◆ Tirs de mine (terrassement, creusement de tunnels…),
◆ Etc.
Conséquences :
Une fragilisation de l’ouvrage existant par l’apparition de désordres comme des fissures et des déplacements est
susceptible de survenir, allant parfois jusqu’à une dégradation de la structure pouvant mener à sa ruine.
Généralement, il s’en suit des procédures d’expertises pour déterminer les responsabilités (conception, reconnais-
sance, travaux, ...) et les solutions de réparation.
A noter que, dans ce cadre, la haute surveillance a aussi pour objectif de différencier la responsabilité entre la
société de construction, le maître d’œuvre, le maître d’ouvrage pendant la réalisation d’un ouvrage.
Cinétique :
Comme pour l’interaction sol/structure, la cinétique des dégradations liées aux risques de modification de l’environ-
nement et/ou des travaux à proximité de l’ouvrage est très variable. Elle peut être de quelques heures à quelques
années. Le suivi devra donc être adapté en conséquence.
Exemple :
On peut citer par exemple le cas du projet du Grand Paris dans les zones de réalisation de tunnel par tunnelier. D’après le
cahier des charges, les grandeurs physiques telles que la déformation, le tassement, les mouvements du bâti… dans la
zone d’influence géotechnique doivent rester inférieures à un seuil contractuel défini préalablement à la mise en place de
la surveillance (figure 10). Les actions correctives (renforcement, réparation) sont à la charge de la société de construc-
tion dès que ces seuils sont dépassés.
➤ Figure 10 :
Exemple de suivi des avoisinants dans
la zone influence géotechnique avec
théodolite automatisé (suivi de surface)
et section renforcée (suivi du sous-sol)
dans le cadre du creusement d’un tunnel
3
INSTRUMENTATION
En amont du dimensionnement de l’instrumentation, une attention particulière doit être portée à la définition de
ce besoin qui dépend de la complexité du risque à évaluer : cahier des charges, recalculs éventuels pour mieux
identifier et quantifier les risques, identification des grandeurs physiques pertinentes...
D’un point de vue fonctionnel, une instrumentation dispose des composantes suivantes :
◆ Mesure et acquisition. Cette fonction est le fait d’acquérir des données dites brutes sur une structure en
prenant en compte les contraintes d’intégration. Cette fonction se réalise avec :
› Des capteurs qui captent des grandeurs physiques et qui sont intégrables sur (ou dans) la structure et/ou
dans son environnement,
› Un module d’acquisition qui intègre l’électronique de numérisation des données issues des capteurs.
A noter que certains capteurs intègrent une fonction acquisition.
Ce qu’il faut retenir est que la fonction de mesure comporte une partie propre à la captation de la donnée
physique et une partie propre à la numérisation de ces données physiques pour rendre possible leur exploi-
tation.
◆ Stockage et base de données. Les données doivent être préférentiellement stockées selon un format et une
architecture formalisée dans une base de données. Cette base de données a deux fonctions importantes : un
accès aux données à travers une interface de restitution (évoquée ci-après) et un archivage de ces données
pour une consultation sur une période déterminée en début de projet. Les caractéristiques de cette base de
données (durée de consultation, architecture de stockage, format des données, modalités d’accès : export et
visualisation) doivent donc être indiquées dans le CCTP d’instrumentation.
◆ Transmission. Les données brutes acquises sur, ou à proximité, d’une structure doivent être transmises à un
serveur sur lequel elles seront stockées, traitées et mises en forme pour être restituées au client. La transmis-
sion peut être filaire, sans-fil ou hybride en fonction des contraintes (environnement, sécurité, performance)
liées à l’application. La transmission doit se faire de façon sécurisée et peut se faire à distance ou les données
peuvent être récupérées sur place par un opérateur.
◆ Traitement des données. La fonction de traitement des données consiste à transformer les données brutes
(directement issues des capteurs) en données attendues telles qu’elles ont été convenues avec le client et/
ou utilisateur. Cette fonction peut être localisée proche du capteur (pour les capteurs intégrant une électro-
nique d’acquisition et calcul) ou sur un serveur distant dédié au calcul. A l’issue de cette étape, on obtient des
données dites traitées. Les traitements des données sont l’expression de modèles (de calibration, de structure,
d’analyse statistique, par exemple) qui lient les données brutes aux données attendues requises par le client.
◆ Management et contrôle de données. Un contrôle des mesures doit être effectué de manière périodique afin de
s’assurer de leur qualité. Il est important de surveiller également les paramètres liés au système d’acquisition
pour deux raisons : pour détecter la présence de défauts (liées à des perturbations électriques ou dérive d’un
capteur par exemple) et pour filtrer les perturbations induites par l’environnement extérieur (trafic, joints de
chaussée, bruits de fond…).
◆ Restitution des données. La restitution est la fonction qui rend les données accessibles et exploitables par le
client. Cette fonction consiste à présenter les données traitées selon un format (fichier de mesure, visualisation
en temps réel, rapports, alertes mail ou SMS) défini par le client.
◆ Analyse. Ces données traitées peuvent faire l’objet d’une analyse technique détaillée qui doit être générale-
ment conclusive. Celle-ci peut éventuellement être automatisée mais devra dans tous les cas faire l’objet d’un
contrôle par un personnel qualifié.
◆ Maintenance et gestion du système. Dans un système d’instrumentation, il convient de prévoir la stratégie de
maintenance et de gestion du système mis en place en conformité avec la durée de suivi des phénomènes
surveillés et l’environnement dans lequel il se trouve, en fonction du contrat de vente ou de location des
matériels.
Le dimensionnement d’une instrumentation est en premier lieu piloté par les données attendues par le client et/
ou l'utilisateur final. Ce sont des données qu’il sait interpréter et exploiter. Elles peuvent avoir plusieurs formes :
alertes, mesures, graphiques, etc.
Dans l’exemple du Pipeway [fiche référence n°9.8, annexe 3], les données attendues sont des alertes sur les flèches
de l’ouvrage.
La définition des données attendues ne suffit pas à définir une instrumentation. Deux composantes doivent
également être spécifiées :
◆ Performances sur les données attendues. Il s’agit de préciser des caractéristiques attendues au sens large :
résolution, précision, fréquence de restitution, fiabilité, entre autres. La performance sur les données attendues
ne dépend pas uniquement de la précision de la métrologie utilisée. Elle dépend également de la qualité de la
mise en œuvre de l’instrumentation, du positionnement des capteurs et de la bonne adéquation des modèles
utilisés pour interpréter les données brutes. Dans le cadre de ces performances attendues, il convient de
s’assurer de la disponibilité des données tout au long du suivi (réseaux de communication, serveurs…).
◆ Contraintes sur l’intégration de l’instrumentation. La notion d’intégration d’instrumentation est large, elle
concerne principalement les problématiques suivantes : habilitation pour l’accès au site, type d’insertion des
capteurs dans l’environnement (collage, chevillage, soudage, scellement…), encombrements acceptables des
capteurs, gestion des câbles lorsqu’il y en a, alimentation pour les systèmes non autonomes, disponibilité
d’un réseau de communication sans-fil ou filaire pour la transmission des données. Les conditions de mise
en œuvre d’une chaîne de mesure peuvent également impacter le résultat final. Par exemple, si l’installation
des capteurs n’est pas conforme aux spécifications du fournisseur, la lecture effectuée par ces capteurs ne
respectera pas les incertitudes de mesures annoncées par le fabriquant.
A partir de ces données d’entrées (type de données, performances, contraintes d’intégration), l’instrumentation peut
être dimensionnée selon les composantes rappelées plus haut : mesures et acquisition, transmission, traitement
des données, restitution et analyse.
On pourra se référer aux différents documents [9], [10] et [11] pour de plus amples détails sur ces notions.
Avant de présenter les grandeurs physiques qui sont mesurables, il est fait un rappel des définitions qui permettent
de qualifier les performances d’une mesure.
Chaque projet a des spécifications différentes en termes de performance sur les données attendues et donc impli-
citement sur les mesures. Toutefois, les paramètres sur lesquels ces performances sont exprimées peuvent être
listés. La liste qui est présentée ici n’est pas exhaustive mais reflète les paramètres principalement requis dans le
suivi d’ouvrages :
◆ la fidélité (souvent appelée précision). L’attention est attirée sur le fait que le terme courant précision n’existe
pas en français en métrologie, il s’agit d’un faux-ami de l’anglais “precision”. Le terme correct étant la fidélité.
Par simplification de lecture, eu égard aux usages actuels, le terme de précision est employé dans ce document.
◆ la sensibilité,
◆ la dérive dans le temps.
A ces performances sur la mesure il faut également prendre en compte les performances de l’acquisition (ou sur
le système complet) :
◆ Fréquence d’acquisition,
◆ Temps de calcul et de restitution,
◆ Fiabilité du système.
On trouvera une définition de chacun des paramètres listés ci-avant dans le glossaire (n°7.2, annexe 1) ainsi que
dans le Vocabulaire international de métrologie – Concepts fondamentaux et généraux et termes associés (VIM) [3].
Pour donner un exemple quantitatif, si un capteur de précision 0.2 mV est couplé avec une centrale de précision
0.4 mV, la précision des résultats mesurés par les capteurs en sera dégradée. Pour une mesure attendue de 1mV, le
résultat du système d’acquisition sortirait un résultat à ± 0.6 mV.
La figure 11 illustre la surveillance de constructions modernes dans le cadre de travaux souterrains nécessitant
une précision millimétrique dans les déplacements observés, conduisant à la conception d’un système d’instru-
mentation ad hoc (topographie + prises de précision).
Autre exemple, si le suivi de l’écartement d’une fissure est demandé au dixième de millimètre, une inspection visuelle
ou un relevé à l’aide d’une règle graduée ne suffira pas. L’utilisation d’un vernier permettant un relevé au dixième
de millimètre sera privilégié. A contrario, le relevé de cette fissure à l’aide d’un capteur annoncé très précis – 0,001
mm par exemple – ne sera pas nécessaire (figure 12). Si cette mesure doit être effectuée toutes les heures, on
privilégiera alors le suivi par instrumentation automatique.
Selon les résultats recherchés, en relatif ou en absolu, Il faudra vérifier la justesse et la précision du capteur.
La figure 13 illustre ces notions. Le choix se portera sur un système juste et précis pour de la mesure absolue et un
système précis suffira pour de la mesure en relatif.
◆ Une mesure relative correspond au suivi des variations en déplacement de l’ouvrage par rapport au début des
auscultations.
◆ Une mesure en absolu correspond au suivi des déplacements dans l’espace de l’ouvrage.
La plage de mesure – c’est-à-dire le domaine dans lequel la grandeur que l’on veut mesurer peut varier – et le pas de
mesure (résolution) doivent être définis au préalable. Ceci permet de choisir la méthode et le type d’instrument de mesure
à mettre en œuvre ainsi que le mode de représentation des données (relevé manuel, automatique selon le pas de mesure
choisi et les accès). Par exemple, les données pourront être stockées dans la base de données en mètre avec quatre
décimales après la virgule ou en millimètre avec une décimale après la virgule.
L’échelle des graphiques associée devra tenir compte de la résolution et/ou de la plage de mesure demandée.
L’interface de visualisation des données doit être un outil d’aide à l’interprétation des données.
En exemple, la figure 14 montre la corrélation entre les variations de température et les mouvements observés sur
un ouvrage par l’usage d’un axe double en Y. Ces informations sont nécessaires à l’analyse des données.
La figure 14 et la figure 15 montrent des valeurs de même type. L’échelle est différente ce qui donne un effet
zoom. L’influence de la représentation graphique sur l’interprétation rapide des données est donc significative. Une
personne non sensibilisée pourrait être inquiète en voyant ce graphique. Le mouvement observé reste faible sur le
projet en exemple.
Pour illustrer la notion de management et contrôle de la donnée, les figure 16, figure 17 et figure 18 issues de surveil-
lances réelles mettent en évidence des perturbations de données topographiques, perturbations météorologiques
de données topographiques et présence d’une composante thermique sur l’ouvrage pour des données d’inclinaison.
Des variations journalières impliquent un relevé de la température en sus des mesures de déplacement.
Ces graphes mettent en lumière l’intérêt du contrôle et du management des données pour interpréter et traiter les
mesures dans l’objectif de restituer l’information pertinente au client. En effet, ces données doivent être analysées
par des experts au même titre que le choix du système d’auscultation doit être validé par des spécialistes.
➤ Figure 16 : Exemple de données inexploitables car très bruitées ➤ Figure 17 : Données exploitables
➤ Figure 18 :
Variations journalières
Le système d’acquisition désigne l’ensemble « matériel et logiciel » qui transforme la donnée brute issue des
capteurs (partie analogique ou déjà numérisée) en une information traitée (échantillonnée dans le temps et quan-
tifiée en valeur) destinée à être transmise et analysée puis à être exploitée, éventuellement dans un calcul, pour
enfin être restituée.
Le système d’acquisition s’intègre dans une architecture matérielle et logicielle qui regroupe les fonctions d’acqui-
sition, de transmission, de traitement des données, de stockage et de restitution. C’est dans l’architecture que l’on
décrit les aspects filaires ou sans-fil d’une transmission de données, du caractère local ou distant du stockage et
du traitement des données, du moyen de restitution des données attendues, entre autres. La figure 19 donne une
illustration d’armoires d’acquisition filaires déployées sur chantier.
Une partie des caractéristiques d’une donnée attendue est donc aussi affectée par l’architecture de l’instrumen-
tation déployée. Par exemple, une architecture totalement sans-fil admet un déploiement simplifié mais est peu
robuste dans des environnements métalliques ou fortement perturbés électromagnétiquement. Une architecture
locale (i.e. pas de connectivité à Internet) est très souvent sécurisée mais ne permet pas de prise en main à distance
de l’instrumentation pour de potentielles mises à jour ou télémaintenance. Les caractéristiques concernées sont
les caractéristiques dites système : fréquence d’acquisition, temps de restitution, fiabilité, sécurité, etc.
Face à cette responsabilité majeure, ils cherchent à pérenniser leur patrimoine en maintenant la fonctionnalité de
chacune des structures et en assurant la sécurité des usagers et de leur exploitant. À budget constant voire en
diminution, ils sont amenés à devoir prioriser leurs actions d’entretien et de surveillance.
L’instrumentation leur permet de parfaire les connaissances sur leurs structures, tant sur le plan fonctionnel
(confort d’usage, déformabilité de la structure, géométrie…) que sur le plan de la sécurité d’usage (capacité portante
notamment) au travers de diagnostics de leur état ou de la surveillance de leur comportement dégradé (haute
surveillance) ou non.
Dans ce cadre, une approche préventive de surveillance structurale constitue une réponse adaptée aux besoins de
prolonger la durée de vie des infrastructures, afin de maximiser leur utilisation en toute sécurité et d'optimiser les
coûts de maintenance sur le long terme.
La maintenance préventive est, en effet, tout à fait adaptée dans le suivi du patrimoine existant mais doit également
être considérée pour le patrimoine futur dès la pose de la première pierre.
Quels que soient les usages de l’instrumentation à mettre en œuvre, il est très important d’établir un plan de surveil-
lance dans lequel il est identifié les informations recherchées tant en termes de grandeurs physiques, de valeurs
seuils et/ou d’indicateurs afin de déterminer les capteurs qui peuvent y répondre.
A titre d’exemple, quelques usages d’instrumentation sont repris ci-dessous pour illustrer les propos de ce
document :
› Pour analyser les variations thermiques dans un ouvrage (présence de gradients de température) ou de
son environnement, il est possible de mettre en place des sondes de température noyées ou en parement
en apportant les précautions nécessaires pour faire une mesure effective de l’élément (béton, métal…) et
non pas que de l’air ambiant. De manière générale toutes les structures se déforment suite à des variations
thermiques. Chaque ouvrage a sa propre « respiration » qui dépend des matériaux en place, de sa géométrie,
des assemblages des différents éléments, des conditions aux limites, etc. Le but est de connaître la réponse
de l’ouvrage face à ces effets thermiques.
› Pour suivre l’état de contrainte de différents éléments de la structure il est possible de mettre en place des
capteurs de déformation. Par exemple, à partir des mesures de la déformation d’une (ou de plusieurs) fibres
optiques ou jauges extensométriques dans une travée de pont avec enregistrement des évènements dyna-
miques, il est possible de déterminer le taux de travail des sections (traction / compression), déterminer
l’axe neutre réel de la section, étudier un moment de décompression ou remonter au moment fléchissant
dans l’élément. Cela permet également d’analyser la signature dynamique de l’ouvrage sous le passage des
véhicules lourds dans la travée considérée. Pour les structures métalliques, cela permet d’évaluer le risque
que présente un assemblage vis-à-vis de la fatigue au vu de l’intensité et du nombre de cycles de contraintes
qu’il rencontre.
› Pour suivre le comportement de l’ouvrage ou de certaines parties de l’ouvrage en dynamique, il est possible
d’installer des accéléromètres, par exemple, en mettant en place des accéléromètres sur les haubans d’un
pont pour caractériser et suivre leur tension dans le temps, ou plus globalement sur l’ouvrage pour déter-
miner sa signature vibratoire (fréquence, amortissement et modes propres) et, le cas échéant suivre son
endommagement par la réduction de sa raideur notamment.
› Pour suivre les déplacements différentiels de certains éléments de la structure, de fissures, voire de la
structure elle-même, il est possible de mettre en place des extensomètres de base courte à longue. Par
exemple, la mise en place des extensomètres pour mesurer l’ouverture d’un joint de chaussée, l’ouverture
d’une fissure ou étudier la déformation d’un élément de structure soumis à des gonflements de type RGI sur
des bases longues (Voir la fiche référence au 9.10, annexe 3 – Suivi de l’évolution de la fissuration des pylônes
du pont de Seyssel).
› Pour suivre les rotations, il est possible de prévoir des inclinomètres. Par exemple, la mise en place des
inclinomètres sur un mur de soutènement pour anticiper un éventuel mouvement de basculement.
› Pour suivre l’évolution de l’état d’oxydation des armatures dans le béton, il est possible de mettre en place
des capteurs de corrosion.
› Pour analyser la vitesse du vent sur un pont ou un immeuble de grande hauteur il est possible de mettre en
place des anémomètres.
› Etc.
Les informations recherchées sont souvent complémentaires et, dans la plupart des cas, plusieurs capteurs
différents seront mis en place pour répondre à un problème donné. Par exemple, il est indispensable de corréler la
mesure des déformations, des déplacements, des rotations… avec les effets thermiques.
Afin d’avoir un système de surveillance performant, le nombre des capteurs choisi et leur localisation devront être
optimisés et adaptés aux besoins. Le but est d’avoir des informations pertinentes sur l’ouvrage surveillé avec un
nombre minimum de capteurs. Il faudra trouver un compromis entre les deux solutions suivantes :
› Pas assez de capteurs : informations manquantes, non exploitables,
› Trop de capteurs : solution difficilement exploitable et trop coûteuse.
Dans le cadre de la surveillance, on privilégie l’acquisition automatisée des données. On privilégie aussi le choix de
phénomènes physiques les "plus intégrateurs" et les "plus représentatifs" possibles des grandeurs caractéristiques
de la structure à surveiller et de son environnement. A titre d’exemple, dans le cadre d’une dégradation généralisée,
il est plus pertinent de surveiller une zone plutôt que de suivre un phénomène local.
Ainsi, on fait appel à des systèmes d’acquisition automatiques, plus performants et moins couteux que l’acquisition
manuelle, mais aussi plus sécuritaire en limitant l’exposition des personnels sur les structures (interaction avec le
trafic, risque de chute…).
Par exemple, pour bien prendre en compte les cycles jour/nuit, avec les variations thermiques, il est nécessaire de
prendre plusieurs mesures par jour ou, si cela est compatible avec les besoins et les contraintes de surveillance,
de réaliser les mesures dans des conditions de chargement / sollicitation comparables. Dans certains cas, le cycle
saisonnier est également pertinent à considérer. Ainsi, le choix de la fréquence d’acquisition doit être réfléchi. Elle
doit être la plus adaptée et choisie en fonction du paramètre mesuré et de l’information recherchée. La fréquence
d’acquisition peut aller d’une fois par jour (voire moins) à plusieurs milliers de fois par seconde.
A titre d’illustration :
› Pour des mesures de corrosion, phénomène en général à cinématique très lente d’évolution au démarrage de
la vie de l’ouvrage, quelques prises de mesures par an suffisent puis peuvent être amenées à se rapprocher
dès lors qu’un phénomène de corrosion a démarré,
› Pour des mesures de déformation et déplacement/rotation statiques, la fréquence d’acquisition est de
l’ordre de quelques mesures par jour jusqu’à quelques mesures par mois,
› Pour des mesures dynamiques (déformation, accélération) la fréquence d’acquisition est en général entre
10 et 100Hz,
› Pour des mesures à émission acoustique (par exemple détection des ruptures des fils de précontrainte) la
fréquence d’acquisition dépasse les 40kHz.
3.3.2. Le diagnostic
Dans le cadre du recours à une instrumentation en phase d’un diagnostic structural, celle-ci devra être choisie en
fonction :
› d’une analyse des défauts connus et observés,
› d’une hypothèse de fonctionnement actuel de la structure validée, le cas échéant, par une étude éventuel-
lement simplifiée.
Les objectifs recherchés sont en général de conforter ou infirmer les hypothèses émises et de quantifier l’état de
dégradation de la structure ou tout simplement de mieux en comprendre son fonctionnement (fiche référence 9.9,
annexe 3).
Dans le cadre d’une structure pathologique, les défauts peuvent être visibles ou mis en évidence lors des inspec-
tions périodiques ou exceptionnelles de l’ouvrage.
Suite à l’apparition de défauts ou désordres, le gestionnaire va tenter d’appréhender la gravité des défauts observés,
le niveau de risque associé, et déterminer la cause de ces défauts avant d’en traiter les conséquences. Pour cela, il
est nécessaire de comprendre le fonctionnement de la structure et le comparer avec son fonctionnement théorique.
La méthode la plus souvent employée consiste à ausculter l’ouvrage, poser de l’instrumentation sur une durée
définie et faire ensuite un diagnostic de son comportement. Cette démarche ne répond pas tout à fait à la question
de prolonger en sécurité l’exploitation de l’ouvrage à la différence d’une instrumentation mise en place pour de la
surveillance.
L’instrumentation et le calage des modèles numériques à partir des mesures permettent un suivi rapproché de
l'évolution de différentes grandeurs dans l'ouvrage, notamment les contraintes, les déformations, les pressions
interstitielles, les zones de plasticité ou d'endommagement, la déformée de l'ouvrage ou encore les réactions du
sol. Elle peut permettre, par extrapolation des données récoltées sur un temps suffisamment long par rapport aux
phénomènes à suivre, de faire un pronostic de l’état de la structure. Par ailleurs, l’instrumentation peut compléter
un jumeau numérique qui concatène l'ensemble des données disponibles, de conception/construction, d'auscul-
tation/surveillance et de modélisation, pour permettre une analyse fine de l'état de l'ouvrage.
Pour une structure exempte de défaut mais dont la connaissance réelle du fonctionnement doit être recherchée, les
mêmes principes que ceux décrits ci-dessus seront adoptés.
L’instrumentation dans le cadre d’un diagnostic est basée sur un suivi de courte ou longue durée. Le principe de la
surveillance pour le diagnostic est de comprendre le comportement de l’ouvrage voire de regarder son évolution.
Ainsi, le suivi peut s’étaler sur plusieurs années, et au minimum 12 mois afin de bien appréhender l’ouvrage dans
son environnement et avec les cycles environnementaux saisonniers et connaître sa « respiration ». Par contre,
cette surveillance peut également être de courte durée dans le cadre de mesures de flèches sous chargements
connus, de l’étude de la réponse dynamique aux passages de poids lourds, ou encore de la mesure de tension dans
les haubans pour ne citer que quelques exemples.
Cet enrichissement progressif dans la confrontation modèle-mesures doit conduire à une meilleure connaissance
en continu du comportement de l’ouvrage et de l’appréciation de sa sécurité. L'élaboration du modèle numérique de
l'ouvrage et son calage périodique constituent également des éléments très précieux d'aide à la décision.
La surveillance préventive permet d’apporter des éléments de réponse à une question que se posent souvent les
gestionnaires d’ouvrages, à savoir comment maintenir et garantir la bonne santé d’un parc d’ouvrages tout en
minimisant les risques globaux.
Il peut être, par contre, difficile de justifier l’instrumentation d’un ouvrage qui ne présente pas de pathologie visible
ou aisément prévisible. Il semble, par ailleurs, inconcevable d’instrumenter préventivement les 2000 ponts de
tel ou tel département pour en assurer un suivi préventif. Une réflexion préalable visant à définir l’intérêt stra-
tégique, économique (trafic important de poids lourds) ou sociétal (une fermeture du pont Z peut imposer une
déviation conduisant à une augmentation conséquente du trajet nominal des citoyens ou complexifier les secours
qui empruntent régulièrement ce pont) d’un ouvrage est un prérequis avant de programmer cette surveillance
préventive.
De plus, au niveau culturel, le gestionnaire doit intégrer le fait que quelques monuments majeurs de notre patrimoine
ne peuvent pas être fermés au public, ou risquer le moindre problème de réputation, ce qui constitue également un
besoin en maintenance préventive (monuments historiques, lieux de culte, équipements culturels et sportifs, etc.)
Comme spécifié au chapitre 2, plusieurs critères sont considérés dans l’analyse de risque comme les aléas, les
enjeux et les classes de vulnérabilité.
Si la surveillance ne peut pas avoir d’influence sur les enjeux qui sont propres au gestionnaire, elle peut par contre
permettre une meilleure connaissance des aléas et de la robustesse.
Dans ce cadre, la surveillance préventive permet d’avoir une meilleure connaissance de l’ouvrage surveillé, et donc :
◆ de mieux classer sa vulnérabilité : une structure en apparence saine peut être en réalité vulnérable / un ouvrage
qui présente de nombreuses pathologies visibles peut être en état correct de robustesse,
◆ de mieux appréhender les aléas au travers d’analyses statistiques,
◆ de suivre sur le long terme l’évolution de l’ouvrage afin d’anticiper l’apparition des désordres,
La surveillance préventive doit donner des informations précoces et pertinentes sur l’état de santé de l’ouvrage
instrumenté. Afin de détecter des éventuelles évolutions dans le comportement de l’ouvrage suffisamment en
amont, les capteurs mis en place doivent être suffisamment précis.
En conséquence, l’instrumentation préventive est basée sur un suivi de longue durée. En effet, le principe de la
surveillance préventive est de suivre l’ouvrage et de regarder son évolution pendant des périodes très longues.
Ainsi, le suivi s’étale en général sur plusieurs années afin, d’une part de bien appréhender l’ouvrage dans son envi-
ronnement et avec les cycles saisonniers, et d’autre part de surveiller une évolution du comportement au cours du
temps.
La fréquence d’acquisition des mesures doit être en adéquation avec les phénomènes à suivre pour détecter toute
tendance de l’évolution du comportement de l’ouvrage. En fonction de la grandeur à étudier, cette fréquence de
prise de mesure peut aller du 100ème de seconde, à la seconde, au jour, au mois voire à l’année.
Une première phase d’apprentissage permet de connaître la réponse de l’ouvrage face à son environnement, sa
« respiration », son comportement nominal. Cela permet de distinguer un fonctionnement structural anormal d’une
simple « respiration » sous conditions environnementales pour son suivi ultérieur.
Dans le cadre de ce suivi préventif, une organisation doit être mise en œuvre pour veiller au bon fonctionnement
de la surveillance. Cela passe par une organisation de la maintenance des capteurs avec des suivis ad hoc et
rapports d’intervention notamment. Par ailleurs, une attention sur le choix du capteur doit être portée à sa fiabilité
et sa stabilité (absence de dérive) dans le temps. Ces capteurs doivent éventuellement être recalibrés au cours du
temps. La maintenance des systèmes est d’autant plus importante que des erreurs de mesures peuvent aussi avoir
des conséquences dommageables pour les maitres d’ouvrage.
Dans ce cadre, une continuité dans la contractualisation avec le prestataire en charge de la surveillance est préfé-
rable.
De plus, le système de surveillance préventive se doit d’être évolutif. En effet, si l’auscultation montre une
évolution dans le comportement de l’ouvrage, l’instrumentation mise en place peut être optimisée voire renforcée.
A l’inverse si l’auscultation a permis de mieux connaître l’ouvrage et de le classer moins vulnérable, le système de
surveillance peut être allégé.
S'engager dans une démarche de surveillance préventive permettra aux gestionnaires des ouvrages de développer
une véritable stratégie de prévention des risques ou de la renforcer si elle est déjà mise en place.
Enfin, arrêter une instrumentation préventive reste une décision stratégique du gestionnaire qui peut avoir des
conséquences importantes pour le suivi ultérieur de l’ouvrage car il conduit à perdre l’historique du suivi et
complexifier une surveillance future.
Cette surveillance renforcée fait l’objet, généralement, d’un suivi de longue durée sur 1 an au minimum afin de
pouvoir connaître la « respiration » de l’ouvrage et son comportement sous les actions thermiques notamment.
Pour assurer la sécurité des usagers et de l’ouvrage, la haute surveillance nécessite la définition préalable des
actions immédiates à entreprendre, en lien avec l’exploitant, en cas de valeurs dépassant des seuils préalablement
fixés par le maître d’œuvre spécialisé : mesures correctives, ensemble des protocoles d’alertes et actions associées
(astreintes des équipes, restriction d’exploitation, fermeture, etc.).
L’exploitant est acteur de la définition du protocole à mettre en place en cas de dépassement des seuils d’alerte et
chaque intervenant doit être parfaitement informé de ses rôles et responsabilités.
A ce titre, ce type de surveillance conduit à une augmentation des quantités de capteurs, une analyse poussée des
mesures et une fréquence de suivi rapprochée.
La haute surveillance est une solution provisoire dans l’attente de travaux de réparation ou de renforcement.
Ces notions sont détaillées plus précisément dans le fascicule 3 de l’ITSEOA [1].
Lors de la réalisation de travaux à proximité d’une construction ou d’une infrastructure existante, la mise en place
d’une instrumentation dans le cadre d’une haute surveillance est un outil particulièrement utile et efficace pour
limiter les désordres et réduire les risques pour la sécurité des biens et des personnes.
• Mise en œuvre de mesures complémentaires pour réduire les effets des travaux sur la structure exis-
tante ;
• Arrêt du chantier pour modifier les moyens ou les méthodes de réalisation ;
• Actions de réduction des conséquences de la survenance de désordres graves, pouvant aller jusqu’à
l’arrêt de l’exploitation de l’infrastructure ou l’évacuation de la construction.
» Mise en place d’’instrumentation en continu avec système d’alerte ;
» Mise en place d’une organisation capable de réagir 24h/24 et 7j/7 pour valider les dépassements de
seuil et mettre en œuvre les actions chez les différentes parties prenantes (MOA, MOE, entreprise,
gestionnaire et opérateur de l’infrastructure existante).
Dans tous les cas, la mise en œuvre d’une instrumentation nécessite, au préalable, de définir ce qui est recherché et
pour quelles raisons. Il est en effet fréquent de disposer d’une instrumentation dont l’analyse et l’interprétation sont
rendues difficiles, si ce n’est impossible, par une mauvaise définition des indicateurs à évaluer liée à un manque
d’études préalables.
Prenons l’exemple de l’instrumentation d’un ouvrage exceptionnel suspendu pour lequel l’instrumentation a été
mise en œuvre dès la conception pour faciliter le suivi et l’exploitation dans le cadre d’une surveillance renforcée. Le
dimensionnement de cette instrumentation doit prendre en compte le fonctionnement de l’ouvrage tant dans son
comportement local que global. Par exemple, doit-on craindre une vibration excessive de certaines suspentes par
rapport à d’autres (déséquilibre de charges, fatigue…) ? Dans l’affirmative, qu’est-ce qui relève d’un comportement
normal d’un comportement anormal ? Les capteurs choisis, leurs emplacements, leur échantillonnage sont-ils
compatibles avec ce besoin ? Et finalement, quelle est la plage de fonctionnement qui est normale, en dépassement
raisonnable ou à risque (faible, moyen, fort) ?
L'ensemble de ces questions doit être posé et réfléchi lors de la phase de conception du système de surveillance
afin d'extraire les paramètres de fonctionnement normal ou limite et, en complément de la définition de l'instrumen-
tation, de définir une première famille de seuils de fonctionnement. Si ces seuils ne sont pas ou mal définis, l’intérêt
de la surveillance renforcée diminue drastiquement. Dans le cas où les seuils sont trop hauts, il n’y a aucune alerte
qui ne ressorte du système de surveillance et le suivi est inopérant. Si les seuils sont trop bas, le nombre d’alertes
est incohérent (on a vu des ouvrages avec plus de 100.000 alertes par mois) et donc elles sont inexploitables et
inexploitées. Dans ce second cas, ces seuils peuvent être supprimés en attendant une étude a posteriori et, de fait,
on revient au premier cas d’un suivi inopérant.
Bien que la définition définitive des valeurs de seuils demande en général un apprentissage sur un cycle complet
de surveillance (au minimum 1 an si influence des conditions environnementales), la connaissance de ce qui est
attendu est primordial pour une instrumentation réussie. Elle demande une étude préalable lors de la conception
de l’instrumentation.
La nécessité de mettre en place des seuils n’est pas systématique mais doit, dans tous les cas, faire l’objet d’une
analyse préalable pour vérifier la pertinence de la situation à suivre. En général, elle survient dans le cadre de la
surveillance renforcée ou de la haute surveillance.
Dans le cas de la mise en place de seuils d’alerte, leur franchissement doit impérativement conduire à des prises
de mesures clairement définies. En parallèle, une étude du comportement à la ruine de l'ouvrage (ELU), à partir des
données d'auscultation, éventuellement extrapolées, semble nécessaire.
Le choix des grandeurs qui vont rentrer dans le processus d’alerte est un point essentiel. Il nécessite en premier
lieu de bien connaître le processus pouvant conduire, par exemple, à la ruine. Dans ce cadre, pour effectuer cette
analyse, une instrumentation de l’ouvrage doit être conçue et mise en place de façon à détecter les points faibles
de l’ouvrage et les mécanismes pouvant conduire à sa ruine. Dans la conception de cette instrumentation, il est
recommandé d’utiliser si possible des grandeurs globales plutôt que des grandeurs locales.
Par exemple pour une poutre endommagée présentant des fissures, il sera préférable de prendre la flèche comme
indicateur d’alerte, en lieu et place de l’ouverture de fissures. En effet, la poutre étant endommagée, il est difficile de
prévoir quelle fissure sera la plus sollicitée.
En outre, les capteurs qui vont être utilisés dans ce processus d’alerte doivent être fiables et robustes vis-à-vis des
conditions environnementales.
Il est préconisé de mettre en place plusieurs seuils en fonction de la grandeur mesurée. On pourra trouver, selon les
dénominations usuelles, la définition de seuils de pré-alerte, de vigilance, d’alerte, de danger, d’alarme…
La définition d’un seuil de pré-alerte, permet d’attirer l’attention sur la dégradation atteinte par l’ouvrage et de mettre
en place les conditions d’analyse rapprochée en temps réel de l’ouvrage (astreinte par exemple).
Au dépassement de chaque seuil, les actions à mettre en place doivent être clairement définies, de façon à assurer
la sécurité des biens et des personnes.
La définition de la valeur des seuils est la partie délicate. Cette étape demande une étude approfondie sur le compor-
tement de l’ouvrage par un calcul (ou une modélisation par éléments finis) car chaque ouvrage est un cas différent.
On pourra s’appuyer par exemple sur les comportements estimés lors de la conception, des modèles dans lesquels
on a introduit l’endommagement de l’élément, des ouvrages ayant présenté des similitudes de comportement voire
l’avis d’experts.
De plus, les seuils doivent prendre en compte les variations liées aux changements météorologiques (température,
humidité, teneur en l’eau) pendant une période d’apprentissage. Au cours de cette surveillance, Il reste possible
de réinterroger l’organisation mise en place pour ajuster les seuils, en les rendant soit plus exigeants, soit plus
souples.
➤ Figure 20 :
Exemple de valeurs de seuils
Le suivi d’un ouvrage avec seuils d’alerte nécessite un suivi automatique et un traitement des données en ligne.
Il faut porter une attention particulière à la qualité des données et du traitement de façon à ne pas déclencher les
alertes de façon intempestive.
Le premier traitement à apporter est l’identification des effets thermiques qui permet par la suite d’isoler des
comportements décorrélés de ces effets. Cette identification est obtenue par corrélation sur une période incluant
une période où la température est croissante et une période où la température est décroissante. L’optimum est
en général une période égale à 1 an. Il existe d’autres modèles de correction de premier niveau en lien avec des
charges d’exploitation permanentes par exemple.
Le deuxième traitement est le filtrage des données : des pics peuvent apparaître d’origine diverse (orages, problèmes
électriques…), pics qui doivent être éliminés pour ne pas déclencher d’alerte. Une attention particulière doit être
apportée au filtrage pour ne pas entrainer de pertes d’informations.
Le traitement final est le seuil lui-même et son déclenchement. Pour diminuer l’effet de fluctuations plus faibles
que les pics évoqués précédemment, il est préconisé de calculer la valeur actuelle de l’information donnée par un
capteur par une moyenne avec les données précédentes (moyenne glissante).
Le dernier point est l’apparition puis la disparition dans l’acquisition suivante, du dépassement de seuils. Pour
éviter d’émettre des alertes « intempestives », il est recommandé d’émettre l’alerte après un dépassement sur une
période de temps donné (paramètre). Ce paramètre est différent pour la pré alerte et l’alerte (beaucoup plus court
pour l’alerte). Par ailleurs, il convient d’intégrer dans la définition de ces alertes autant le dépassement de seuil
(valeur supérieure à un seuil) que la cinétique d’un phénomène dont les valeurs restent en dessous du seuil.
Un système d’alerte doit faire l’objet d’une phase d’apprentissage afin de faire ressortir des alertes au juste
moment et éviter un nombre trop important de fausses alarmes ayant un impact délétère sur la vigilance
des personnels d’astreinte.
Prenons l’exemple du pipeway présenté dans la fiche 9.9, annexe 3, ouvrage très dégradé dont le maintien de
l’exploitation était impérative y compris pendant les travaux de réparation. Devant les risques humains importants
associés à des risques de pollution chimique en cas de rupture, le suivi des poutres a été mené sur la grandeur
globale : la flèche.
La stratégie de surveillance mise en place est décrite par le logigramme de la figure 21 ci-dessous.
Calcul des flèches corrigées des Dépassement de seuils Analyse des informations
Message
déformations des appuis de préalerte des capteurs
Prise de décision
Les alertes doivent être déclenchées automatiquement et en temps réel. En cas de dépassement du premier seuil
d’alerte, l’acquisition doit notamment s’effectuer à une fréquence plus élevée.
Les destinataires des alertes doivent être clairement définis ainsi que les actions à mener en cas de dépassement,
actions qui peuvent être, par exemple, la mise en place d’astreinte (ou d’une cellule de crise) pour analyser en temps
réel le comportement de l’ouvrage, la définition de dispositions instantanées (différentes mesures de restriction
de circulation par exemple), l’enclenchement de réunions décisionnelles d’un comité d’expert, voire l’arrêt de circu-
lation ou arrêt du chantier ou/et évacuation des personnes avoisinantes.
4
ANALYSE DES
DONNEES
4.1.1. Préambule
Tout gestionnaire de parc d’ouvrages se trouve confronté au vieillissement des structures qui le constituent et, de
fait, au coût de la maintenance associée. Régulièrement, afin d'assurer le maintien fonctionnel de ce patrimoine, il
est réalisé des opérations de suivis et d'audits structuraux.
L’évaluation du comportement d’une structure ou d’un élément de structure peut faire appel à une analyse tempo-
relle des grandeurs physiques mesurées pour détecter une éventuelle dérive de la plage normale de fonctionnement
ou d’un comportement anormal.
Il peut être également envisagé d’élaborer des modélisations numériques pour quantifier et vérifier certaines
grandeurs ou pour juger des écarts pouvant exister entre l'état d'observation et la conception théorique initiale.
Quel que soit le domaine d'activité, un modèle n'est qu'une représentation idéalisée d'un objet réel, et tout l'art du
modélisateur consiste à apprécier et minimiser les incertitudes sur la connaissance de l'objet afin d'obtenir de l'outil
mis à sa disposition, le code de calcul, la meilleure représentation théorique possible de la réalité.
Dans le domaine du génie civil, le fait que l'objet traité ne puisse pas être dissocié de son environnement constitue
une difficulté complémentaire qui rend ce travail particulièrement complexe ; le modèle doit en effet tenir compte
des caractéristiques propres à l'objet, mais aussi des interactions de celui-ci avec son milieu d'implantation (sol,
autres structures proches, etc.).
Ces paramètres ou hypothèses d'entrée complémentaires sont difficilement appréciables et constituent pourtant
la clé d'une modélisation représentative de la réalité ou non.
De fait, la démarche nécessite une approche itérative entre modélisation et instrumentation de l’objet étudié. Ces
deux approches sont complémentaires et se nourrissent / s’améliorent l’une l’autre.
Plusieurs études comparatives récentes (projet ARVISE [7], benchmarks SMART [8] par exemple) ont montré
l'impossibilité de traduire numériquement correctement le comportement d'un ouvrage sans réduction drastique
de ces incertitudes de base et ceci même pour représenter les phases élastiques de comportement.
Le recalage des modèles pendant la vie de l’ouvrage à l’aide de mesures apparaît donc comme une nécessité pour
optimiser la maintenance d'un parc d'ouvrages afin de cibler les besoins en fonction de l’évolution des ouvrages et
de leur criticité.
La bonne connaissance du comportement d'un ouvrage doit passer avant tout par une mesure fiable des défor-
mations globales (mouvements absolus) qu’il subit. En effet, la mesure des déformations locales (capteurs inclus
dans l'ouvrage) ne suffit pas pour connaître l’état de la structure et ceci pour la première raison suivante :
› les déformations locales sont les résultantes des déformations globales de la structure en passant par l’état
actuel de cette structure (état endommagé par exemple).
Si l’on se place maintenant du côté de la modélisation, la résolution du problème passe d’abord par la maîtrise
des conditions aux limites : interaction avec le sol, tassement, conditions d’appuis… Ensuite l’introduction d’un
modèle de comportement de la structure (élasticité, élasto-endommagement...) permet de déterminer le champ de
déformation locale de la structure. Ceci est le chemin de modélisation. Ce constat a pour deuxième conséquence :
› qu’un capteur local peut donner une information non représentative de l’état de la structure simplement
par le fait que le capteur est positionné dans une zone non sollicitée ou non représentative de l’ensemble
(changement de géométrie par exemple, proximité d’une zone singulière, etc.) car les conditions aux limites
ne sont pas celles prévues et qu’il n’y a aucun moyen de vérification/validation.
Bien entendu les deux chemins sont étroitement liés : les déformations globales sont le reflet des conditions aux
limites au moins en termes de champ de déplacement (champ cinématiquement admissible).
La maîtrise des déformations globales va alors avoir des conséquences très bénéfiques :
a) Si l’on suppose que les déformations globales imposent un champ de déplacement (calcul par champ
cinématiquement admissible), alors la modélisation peut prévoir des champs de déformation locale. Les
capteurs locaux sont alors utilisés pour valider le modèle de comportement :
› pas de divergence entre modèle et mesure : ceci signifie que la modélisation est correcte et donc que l’état
de la structure correspond à celui du modèle,
› il y a divergence entre modèle et mesure : ceci signifie alors que le modèle n’est pas correct (par exemple :
loi de comportement du béton) : une amélioration peut être obtenue par inversion des données de mesure.
b) Si l’on suppose que le modèle de comportement de la structure est validé alors on peut affiner les conditions
aux limites en termes de chargement (champ statiquement admissible) par inversion des mesures des
capteurs locaux.
La modélisation d’un ouvrage (ou d’une partie de ses éléments) a différents objectifs en fonction de la phase dans
laquelle se situe l’ouvrage. En phase de conception, l’objectif principal est de réaliser une maquette numérique afin
de valider en simulation (donc via les modèles) les choix de conception pour répondre au cahier des charges du
maître d’ouvrage.
Une fois l’ouvrage en exploitation, la modélisation répond à des besoins de natures diverses :
◆ Surveillance :
› Préventive : dans cette phase, la modélisation permet de déterminer les paramètres à surveiller et évaluer (la
convergence d’un tunnel, la flèche d’un tablier de pont, par exemple) et les seuils associés à partir desquels
une situation est considérée comme critique.
› Suite à la détection d’un défaut : pour ce cas, la modélisation des éléments de structure concernés a pour
objectif de déterminer comment le défaut peut évoluer ainsi que les niveaux de seuils qui caractérisent la
stabilisation ou l’amplification de ce défaut.
◆ Diagnostic : c’est le cas où un défaut est identifié (par l’œil d’un inspecteur ou la mesure d’un capteur par
exemple) et la modélisation va permettre de simuler les sources potentielles de ce défaut afin de comprendre
son origine, sa gravité et ses conséquences sur la capacité portante de la structure et son aptitude au service.
◆ Maintenance prédictive : il s’agit de modéliser le comportement futur de la structure à partir d’une situation
donnée (fournie par des mesures, des auscultations, à la construction par exemple). L’objectif étant d’anticiper
la présence de défauts et optimiser les actes de maintenance (i.e. optimiser le ratio coût/risque).
Une fois l’objectif d’un modèle précisé, il s’agit de déterminer son type en fonction de la nature des paramètres
à suivre et des informations disponibles sur la structure. Il est présenté ci-dessous de manière non exhaustive
quelques exemples de types de modèles :
◆ Modèles mécaniques
› Statiques (exemple : fatigue d’un tablier de pont, convergence d’un tunnel),
› Dynamiques (exemple : analyse modale, identification et localisation de défauts ou de modification structu-
relle, détermination de tension dans les câbles…).
◆ Modèles thermiques
› Modélisation du comportement d’une structure sous un gradient thermique,
› Étude du gonflement d’une structure à risque vis-à-vis des RGI (maturométrie).
◆ Modèles thermo-hydro-mécaniques
› Modélisation de l’effet du séchage des matériaux sur le comportement mécanique,
› Propagation de la pollution à l’intérieur d’un matériau.
Il est important de rappeler que tous les modèles résultent d’un ensemble d’hypothèses formulées sur la structure
et son environnement. Une même structure peut se voir étudiée selon plusieurs modèles de natures différentes en
fonction des objectifs attachés aux modèles (mécanique pour une étude en fatigue et électrique pour un suivi du
risque en corrosion dans un élément, par exemple).
De plus, pour une même loi de comportement, différentes techniques de modélisation coexistent : analytique,
éléments finis, éléments discrets, hybridation entre les trois premiers exemples....
Le choix de la méthode dépend des niveaux de précision et de résolution requis sur la modélisation du phénomène
étudié.
Pour qu’un modèle puisse « délivrer » une information (c’est-à-dire fournir des sorties), il faut instruire les paramètres
qui le constituent (c’est-à-dire ses entrées). Ces paramètres sont très rarement accessibles « par conception » (i.e.
sans avoir à les évaluer) avec une précision suffisante. En cause, l’absence d’informations sur ces paramètres
(c’est le cas de nombreuses structures « anciennes ») ou un écart significatif entre les configurations réelles et
modélisées en conception. C’est sur ce constat que l’instrumentation intervient. Elle va fournir une évaluation de
ces paramètres via des mesures réalisées sur la structure et non pas simulées.
L’interaction entre le modèle et l’instrumentation dépend à nouveau de l’objectif poursuivi sur la structure étudiée :
◆ Utilisation du modèle : c’est le cas où le modèle utilisé pour suivre la structure et/ou un défaut est jugé valide et
correctement paramétré. Dans ce cas, la combinaison de la mesure fournie par l’instrumentation et le modèle
permet :
› de détecter un dépassement de seuil indiquant une transition dans une phase critique pour la structure,
› d’évaluer le comportement (diagnostic structural) de l’ouvrage (fatigue, rupture, zone linéaire, par exemple),
› de prédire l’état de la structure sur un horizon temporel donné (dépendant du modèle prédictif utilisé).
◆ Recalage de modèle : dans ce cas, le modèle utilisé est jugé valide et certains de ses paramètres ont une
incertitude trop forte pour être introduits dans le modèle. La mesure est alors utilisée pour évaluer/apprendre
ces paramètres. Souvent, cette étape s’établit à partir d’une source contrôlée (charge statique de répartition de
masse connue pour un essai en charge sur un tablier de pont par exemple) qui permet de maîtriser une partie
des entrées/sorties du modèle. Cette étape permet donc d’accéder à la phase décrite dans le point précédent
où le modèle ainsi paramétré est utilisé pour le suivi de la structure.
◆ Identification du modèle de comportement : dans des cas plus rares, le modèle de comportement doit être
identifié ou validé avant d’être utilisé pour de la surveillance, du diagnostic ou de la maintenance prédictive.
Cette étape consiste à mesurer, souvent sur de longue période, les sorties (et si possible les entrées) du modèle
pour vérifier l’adéquation entre les comportements prévus et observés. La respiration d’une structure sous les
paramètres environnementaux en est le parfait exemple.
La mise en œuvre d’une instrumentation nécessite, au préalable, de définir ce qui est recherché et pour quelles
raisons. Il est en effet fréquent de disposer d’une instrumentation dont l’analyse et l’interprétation est rendue
difficile, si ce n’est impossible, par une mauvaise définition des indicateurs à évaluer liée à un manque d’études
préalables.
Comme rappelé ci-avant, le recalage de modèle (ou le calage de paramètres) s’appuie sur un modèle jugé valide et
pertinent. Ce modèle dépend de paramètres dont certains sont jugés :
◆ Connus (certains). Ce sont des paramètres accessibles par une mesure simple, par dimensionnement ou par
des tests de laboratoire ou in situ (modules limites élastiques des matériaux, raideur globale, coefficient de
fluage…). Dans le cas du laboratoire, il faut prêter une attention particulière à la validité de l’effet d’échelle
(par exemple entre une carotte et un ouvrage : hétérogénéité ? taille des granulats ? …). À titre d’exemple, le
module de déformation d’une structure rivetée de type pont Eiffel évolue en fonction de l’état des assemblages,
notamment la présence de jeux / déconsolidations au niveau des rivets. Dans ce cadre, le module global de
l’ouvrage peut baisser drastiquement par rapport au module du matériau employé.
◆ et d’autres avec une incertitude trop élevée ou inconnue. Ce peut être par exemple des paramètres difficilement
ou non accessibles (effet de l’historique de construction voire de l’histoire du pont, effet du fluage sur les
réactions d’appuis, charges ayant sollicité l’ouvrage…). En l’absence de certitudes, faire des hypothèses est
souvent nécessaire.
Pour expliciter davantage la méthodologie, le cas d’un modèle élastique est utilisé pour illustrer de manière
classique deux types de méthodes de calage : directe et inverse.
Dans les modèles élastiques, les paramètres d’entrée des modèles sont par exemple le Module d’Young et le coeffi-
cient de Poisson, le coefficient de dilatation thermique…. D’autres paramètres peuvent intervenir dans des modèles
plus complexes : viscosité pour les modèles viscoélastiques, paramètres de résistance pour les modèles de béton…
Méthode inverse
La stratégie est différente pour cette méthode. Dans ce cas, les paramètres des modèles peuvent être obtenus
par inversion totale des données. On postule un modèle avec en général plusieurs paramètres (module d’Young,
coefficient de dilatation thermique, vitesse de déformation rémanente...). Ce jeu de paramètres forme un « vecteur »
inconnu. D’un autre côté, la réponse de l’ouvrage est disponible, réponse qui constitue un jeu de données qui peut
être très important.
L’inversion totale consiste à rechercher, dans un processus d’optimisation, le meilleur vecteur de paramètres
donnant la réponse la plus proche au jeu de données provenant de l’ouvrage.
Cette méthode ne fait aucune autre hypothèse dans le calage des paramètres. Les paramètres ainsi obtenus
peuvent avoir des valeurs légèrement différentes des valeurs physiques standards, cette différence pouvant être
interprétée comme un effet d’échelle ou de structures.
Prenons un exemple simple illustré par les figure 22 et figure 23 : détermination de la vitesse de déformation
rémanente pour un ouvrage béton atteint de réaction sulfatique. L’ouvrage est soumis à une évolution thermique
(points rouges) provoquant des déformations importantes (points bleus) masquant les déformations rémanentes
liées à la réaction de gonflement. Une première approche (méthode directe) est d’injecter le coefficient de dilatation
du béton, puis d’enlever la partie thermique pour caractériser la déformation rémanente.
Une seconde approche classique (semi-directe ou semi-inverse) est de rechercher l’impact thermique (coefficient
de dilatation) équivalent par régression linéaire entre la déformation et la température et de corriger la déformation
de cet impact (figure 22 - points verts). Dans ce processus, on obtient :
» Un coefficient thermique équivalent de 4.94 µm/m /°C, avec une corrélation R2 = 0.79
» Une vitesse de gonflement de 32 µm/m /an avec une corrélation R2 =0.33
La troisième approche, basée sur l’inversion totale, consiste à considérer un modèle avec un comportement linéaire
avec la température (1 paramètre : coefficient de dilatation) et gonflement linéaire avec le temps (1 paramètre :
vitesse), hypothèse jugée acceptable sur une période de temps « courte ». Par cette méthode, la recherche de
l’optimum donne :
» un coefficient thermique équivalent de 6.84 µm/m /°C avec une corrélation R2 = 0.92
» une vitesse de gonflement de 59µm/m /an avec une corrélation R2 = 0.72
Remarquons que la vitesse de gonflement obtenue par inversion totale est ici plus importante.
De façon générale, le calage des paramètres par inversion totale est plus fin que les autres calages car on intègre
le comportement global de la structure sans hypothèse, hormis l’optimisation du comportement réel vis-à-vis d’un
modèle donné.
Cette méthode par inversion totale nécessite d’élaborer le modèle sans le rendre trop complexe, et de mettre en
place un algorithme d’optimisation intégrant ce modèle, pour calculer les paramètres.
La réussite d’un recalage de modèle dépend donc d’une étude amont robuste qui valide le modèle et les données
d’entrées/sorties qui vont permettre d’évaluer les paramètres manquants du modèle.
➤ Figure 22 : Correction thermique des déformations mesurées sur une année par méthode directe
➤ Figure 23 : C
orrection des mesures par méthode inverse basée sur la température et une déformation rémanente
considérée comme linéaire sur la période
La limite de validité du modèle est une connaissance importante (limite élastique/élasto-plastique par exemple)
afin de maîtriser les marges d’incertitudes sur l’utilisation d’un recalage de modèle. Enfin, les critères dits de
« convergence » qui valident que le bon recalage du modèle peuvent être une exigence d’entrée invalidant tout
recalage ne dépassant pas une erreur donnée.
Le niveau de l’instrumentation à mettre en œuvre est directement lié à la qualité attendue pour le recalage du
modèle.
La distribution de déformations dans un ouvrage dépend des conditions aux limites, des sollicitations externes
et de leur maîtrise. Dans le cas de l’exemple du pont de Cubzac (figure 24 – fiche référence n°9.9, annexe 3), ces
conditions sont :
» Appuis : maîtrise de la charge, déplacements, rotations,
» Fondations profondes : maîtrise des charges (et des déplacements),
» Fondations superficielles : maîtrise des déplacements/tassements (et éventuellement des charges),
érosion, affouillement…
» Pression interstitielle,
» Hauteur d’eau dans le cas d’un chargement par eau (Barrage, réservoir…),
» Sollicitations externes : connaissance des efforts et direction des vents, du poids de neige, des
surcharges routières…
➤ Figure 24 : E
xemple d’application – travée d’accès du pont de Cubzac
De manière à suivre le comportement d’une structure en fonction de ses conditions aux limites, il convient de suivre
différents « points de contrôle » pouvant être chacun caractérisés par un type d’information (effort axial, flexion…).
La maîtrise des points de contrôle, y compris les sollicitations externes, est obtenue par différents capteurs et/ou
ensemble de mesures.
Le tableau ci-après détaille les interactions entre les besoins et les moyens.
A noter que les capteurs et systèmes de mesure ne sont donnés ici qu'à titre d'exemple et que d'autres technologies
de mesure sont envisageables.
Capteur ou ensemble
Point de contrôle Type d'information Exemple d'utilisation
de mesure
Niveau d'eau Niveau d'eau Cellules de pression Digues, barrages, parois de protection
L’utilisation de matériaux nouveaux ou non standards ou de nouvelles conceptions nécessite un suivi de l’ouvrage
dans le temps. Dans ce cas, on placera par exemple des capteurs de déformation afin de comparer les prédictions
du calcul à la réalité de déformation de l’ouvrage.
Cette approche nécessite un niveau d’instrumentation élevé afin de suivre dans le temps le comportement pouvant
conduire à un coût important. En outre, certains paramètres ne sont pas toujours aisés à suivre en continu pendant
l’exploitation de l’ouvrage, par exemple la flèche d’une poutre.
Lorsqu’un ouvrage présente des défauts (fissures par exemple), l’objet de l’instrumentation est principalement la
recherche des causes ayant provoqué ces défauts. Il peut s’agir, par exemple, de tassements de fondations ou de
conditions environnementales (vent, neige…).
Dans ce cas, on cherchera à suivre non pas l’ouverture de la fissure mais le mouvement conduisant à l’ouverture de
cette fissure. Globalement, on essaiera de maîtriser :
» soit les causes des désordres observés,
» soit les mouvements conduisant aux désordres observés.
Cette maîtrise est soit dictée par la notion de risque, soit par un objectif de réparation pertinente.
Par exemple, pour une poutre, cette approche privilégie le suivi de la flèche plutôt que l’ouverture des fissures. En
effet, les mouvements de la poutre peuvent ne pas être traduits par le contrôle d’une fissure, mais c’est bien le
mouvement donnant l’accroissement de la flèche qui conduira à l’ouverture statistique de fissures.
c) Maîtrise de la sécurité
Lorsque l’ouvrage est fortement dégradé, il est impératif d’assurer une sécurité avant un remplacement ou une
réparation lourde. Dans cette approche, il est nécessaire de faire une analyse de la cinématique pouvant conduire à
la rupture (exemple : plasticité / calcul à la rupture dans les ossatures métalliques) et l’instrumentation sera placée
pour contrôler l’ensemble des scénarios possibles pouvant conduire à la ruine.
Dans cette analyse se dégagent les mouvements et en conséquence les grandeurs caractérisant ces mouvements,
comme par exemple : la flèche d’une poutre, la rotation d’un poteau, le déplacement de terrain près d’une paroi, le
taux de contraintes….
Ce suivi peut être réalisé en relatif ou en absolu, temporel et/ou spatial. En fonction du choix, la technologie à
mettre en œuvre diffère ainsi que le coût associé. Il est en effet plus complexe de réaliser des suivis en absolu.
Le tableau ci-après détaille les interactions entre les besoins et les moyens.
Déplacement vertical
par fil tendu vertical
Extensomètre à fil Mesure de flèche ponctuelle ou répartie
Déplacements Fil tendu horizontal
absolus (référence)
Déplacement par
rapport à un niveau Niveau hydrostatique Nivellement automatique
d'eau (référence)
Télémètre laser
Interférométrie
Déplacements Variation mouvement Moyens topométriques Déplacement relatif de murs (exemple églises…),
relatifs dans le temps Extensomètre à câble de deux points de structures
Palpeurs
Electronivelle
➤ Tableau 2 : C
apteurs envisageables pour suivre un comportement global
Dans cette approche, les défauts sont clairement apparus dans la structure. L’objet est :
» soit sécuritaire,
» soit un contrôle de l’évolution dans le temps.
Dans le cas de structures maçonnées, on utilisera de préférence des mesures intégrant plusieurs éléments consti-
tuant cette structure.
Ces paramètres sont, en général, très sensibles aux conditions environnementales (température, humidité, vent). Il
est toujours nécessaire de connaître à tout instant l’impact de ces paramètres sur la mesure des capteurs, de façon
à appréhender précisément l’évolution de la structure ou de l’élément de structure.
La figure 25 montre un suivi en déformation selon 3 orientations D1, D2, D3. Ce graphique montre que :
» une hystérésis existe entre la déformation et la température P1S_BetonTC,
» les déformations dans les directions D2 et D3 sont « stables » avec le temps, donc purement dépen-
dantes de la température,
» la déformation selon D1 possède une « dérive », dévoilant un phénomène qui dépend du temps.
➤ Figure 25 :
Sensibilité des mesures
aux conditions
environnementales
Cette approche demande donc un traitement (obligatoire dans un objectif sécuritaire) des données pour s’affranchir
des conditions environnementales. Ceci passe donc par une phase d’apprentissage qui permettra d’établir les
corrélations nécessaires et d’en déduire les corrections à apporter sur les mesures « instantanées ».
On notera cependant que l’affranchissement des conditions environnementales n’est pas toujours aisé. Donnons un
exemple de suivi de la rotation de gauchissement d’une poutre en fonction du temps (figure 26). Cette rotation n’est
pas synchrone de la température, donc n’est pas « corrélée » à la température, et l’affranchissement de la tempé-
rature sur la rotation n’est pas possible. Cette situation indique clairement que la réponse locale est dépendante
d’un comportement plus global de la structure. La structure peut en effet avoir une réponse différée de plusieurs
heures, voire plusieurs jours, entre les conditions environnementales (paramètre environnemental : température,
hauteur d’eau, précipitations…) et l’évolution de son comportement (paramètre mesuré).
➤ Figure 26 :
Gauchissement d’une
poutre en fonction de
la température
Le tableau ci-dessous donne les capteurs spécifiques (liste non exhaustive). On utilise évidemment aussi des
capteurs listés dans le chapitre 4.2.2 relatifs au suivi du comportement global.
Capteur ou ensemble
Point de contrôle Type de mesure Exemple d'utilisation
de mesure
Evolution Ouverture 1D, 2D, 3D, Capteurs de déplacement linéaires
Surveillance de l'évolution de fissures, multi-fissures, maçonneries
de Fissures intégrée (Fissuromètres)
Température 1 point,
Sonde de température Mesure de température à l'intérieur d'un ouvrage en béton
multipoints
Conditions
Humidité, teneur en eau Capteur d'humidité Mesure de l’humidité à l'intérieur d'un ouvrage en béton
physico-chimiques
Mesure de l’activité de corrosion dans un élément
Corrosion Capteur de corrosion
Les sollicitations dynamiques nécessitent des systèmes d’acquisition de données particuliers (haute fréquence
d’acquisition). On peut dissocier deux cadres principaux qui nécessitent une acquisition de données rapide :
» Impact des vibrations sur le bâti avoisinant et structure enterrée…
» Contrôle de la fréquence propre et de l’amplitude du déplacement par exemple (stades, lieux de manifes-
tation publique, tablier de ponts, câbles de suspension / haubanage…).
Capteur ou ensemble
Point de contrôle Type de mesure Exemple d'utilisation
de mesure
Comportement Géophones
Contrôle de fréquence et amplitude de vibration de
vibratoire de Dynamique
Accéléromètres stade, tablier de ponts à haubans…
l'ouvrage
Le rapport d’ingénierie est rédigé par le prestataire compétent pour l’étude considérée. Par essence, l’analyse des
données explicitée dans le rapport s’appuie sur des données de qualité et fiables au regard des risques suivis. Ce
rapport doit, en outre, préciser les incertitudes / doutes sur tout ou partie des données qui ont été extraites des
valeurs brutes mesurées, afin de permettre une réutilisation / réingénierie ultérieure de ces données par l’ensemble
des acteurs du projet.
Quel que soit l’acteur référent de la mission d’instrumentation, un rapport d’ingénierie doit comporter un tronc
commun :
◆ Introduction et rappel du contexte : description rapide de l’ouvrage, des risques associés et des études lancées,
rappel des normes/textes qui font référence,
◆ Description détaillée des risques, grandeurs mesurées, et des solutions d’instrumentation mises en œuvre
pour la surveillance et/ou le diagnostic,
◆ Politique de définition des seuils et actions associées le cas échéant (astreintes, fermeture, balise d’alertes),
◆ Description des protocoles d’instrumentation et de traitements : installation, paramétrage de l’acquisition,
durée d’enregistrement, types de pré-traitements et traitements des données pour évaluer les indicateurs de
suivi,
◆ Description des traitements mathématiques effectués sur la donnée pour déterminer la valeur exploitable,
◆ Précision des éventuelles plages de données non utilisées car présentant des doutes sur leur fiabilité,
◆ Analyse des données sur la période d’acquisition : identification de dérive ou de stabilisation, identification
d’évènements anormaux, inversion de modèle pour une évaluation de l’état de santé (diagnostic), rappel des
actes de maintenance (dans le cas où il y en a eu),
◆ Taux de disponibilité du système de surveillance (panne totale ou partielle, défaut d’alimentation électrique,
communication…),
◆ Conclusions sur le niveau des risques et les préconisations : stabilisation des défauts, dérive à suivre davantage,
rénovation imminente des parties critiques.
Le rapport contient donc les conclusions et préconisations de l’instrumentation. C’est la base d’échange entre les
acteurs de l’écosystème lié à l’ouvrage (MOA, AMO, contrôle extérieur, MOE, entreprises générales, sous-traitants.)
pour la prise de décision.
Le niveau de détail sera fonction de l’acteur référent de la mission, qu’il soit sachant ou non, dans le respect des
responsabilités de chacun (bureau d’études, entreprises, société spécialisée, AMO…) définies au titre de l’opération.
5
CCTP : POINTS
DE VIGILANCE
5.1 PREAMBULE
L’instrumentation est un outil puissant mais qui présente des limites qui peuvent le rendre inadapté voire risqué.
La première question à se poser est de savoir pourquoi on prévoit de mettre en place une instrumentation. Avoir un
objectif est une condition indispensable, mais il convient également de définir le processus nécessaire pour avoir
une instrumentation pertinente et réussie, processus qui sera décrit dans la partie technique du CCTP. En ce sens,
pour bien prescrire il convient donc de bien connaître les limites de l’instrumentation, les écueils à éviter, l’impact
des choix techniques et stratégiques, la robustesse de la solution nécessaire pour répondre au besoin, le besoin
d’ingénierie associée, etc.
Un cahier des charges de suivi par instrumentation d’un ouvrage doit donc être abordé par un maître d’ouvrage
comme il aborderait la rédaction d’un DCE de travaux. La rédaction du CCTP doit faire l’objet d’une attention
particulière avec une description précise des enjeux et des objectifs à atteindre. A cet effet, le MOA peut choisir
de missionner un AMO ou contrôle extérieur spécialisé en instrumentation qui peut l’assister dès les phases de
rédaction du CCTP et de l’analyse des offres, puis lors des phases d’exécution et d’analyse.
Le MOA peut notamment s’interroger sur l’acceptabilité d’une défaillance de la surveillance pendant une période
plus ou moins longue, en fonction du niveau de risque associé à cette surveillance.
Le CCTP doit notamment définir les exigences et attendus en termes de traitement des données (qui fait quoi ?),
de maintenance des systèmes voire de leur adaptabilité. Il précise le fonctionnement de ce suivi, qu’il soit avec un
prestataire unique ou qu’il se fasse assister par une AMO spécifique prenant en charge tout ou partie de l’analyse
technique des données récoltées, etc.
Les points (données à communiquer, points de vigilance, questionnements) cités ci-après se veulent être une aide
à l’élaboration du cahier des charges. La définition d’une instrumentation constitue en général une étude à part
entière nécessitant l’intervention de spécialistes pour la définition du besoin et de sa formalisation.
Dans le cas où la durée de la surveillance est supérieure à la durée du marché, il est utile de s’interroger sur la
pertinence d’acheter l’instrumentation ou de mettre en place une location avec option d’achat. Dans le cas d’une
mise à disposition, il est utile de prévoir une période de recouvrement entre les prestataires.
Dans tous les cas, une attention particulière sera portée à ne pas exiger, dans le cahier des charges, des techno-
logies propriétaires.
Le maître d’ouvrage doit être alerté sur le fait que la pertinence des résultats de l’instrumentation mise en œuvre est
directement liée à l’expression de son besoin et des contraintes associées. A défaut, le prestataire peut, de bonne
foi, avoir une prestation conforme à la demande bien qu’elle ne permette pas de conclure à la question posée.
En ce sens, à défaut d’en avoir les compétences en interne, il semble important que le maître d’ouvrage s’adjoigne
une AMO de spécialité, ne serait-ce que pour la relecture critique de son cahier des charges et pour le jugement des
offres (technologie proposée, temps prévus, rapport qualité / prix, etc.).
Le maître d’ouvrage définit précisément l’objectif de l'instrumentation en stipulant notamment s’il souhaite
uniquement la partie monitoring (pose de capteurs selon un schéma prédéfini et mise à disposition des données
brutes et/ou prétraitées), la surveillance et l’interprétation des mesures avec, de fait, la production des rapports, ou
toute la conception de l’instrumentation jusqu’à la livraison des résultats.
Dans ce dernier cas, il devra borner a minima ses attentes en termes de quantités au risque d’avoir des disparités
énormes entre les différentes réponses des prestataires.
Il est indispensable de prêter une attention particulière à la définition des grandeurs à mesurer (incluant les éven-
tuelles corrélations nécessaires à l’analyse) et des grands principes de l’instrumentation en s’appuyant sur une
AMO de spécialité pour la définition des points de mesures (valeurs attendues, quantité, implantation…etc), et ce,
avant de demander à un prestataire de réaliser la conception du système d’instrumentation.
Ce chapitre décrit de la manière la plus précise possible la structure de l'ouvrage si elle est connue.
Les raisons de la mise en place de l’instrumentation (désordres affectant l'ouvrage, suspicion de mauvais compor-
tement dynamique…) sont à spécifier clairement ainsi que l’historique de cet ouvrage et des diagnostics préalables
réalisés.
A ce titre, la liste des études précédemment réalisées (inspection, modélisation, surveillance précédente…) est à
fournir et les documents sont à mettre à disposition du prestataire dès la consultation. Par ailleurs, il convient de
fournir également les éléments du dossier d’ouvrage tels que plans de ferraillage, résultats d’investigations radars…
afin de préparer les implantations des installations des capteurs.
Si la structure de l’ouvrage est inconnue, des investigations préalables peuvent être nécessaires et doivent être
décorrélées du cahier des charges d’instrumentation.
Le CCTP doit, par ailleurs, définir l’ensemble des contraintes associées au choix de ces zones à instrumenter, que
ce soit en termes d’avoisinants (proximité de lignes haute tension, ouvrage surplombant une voie ferrée…) que de
moyens d’accès (recours à des moyens d’accès spécifiques ou des travaux acrobatiques). Le choix des capteurs
voire la technologie des capteurs peut dépendre de ces contraintes.
Il convient également de préciser dès le stade de la consultation la disponibilité d’un réseau télécom au niveau de
l’ouvrage et la disponibilité ou non d’une alimentation électrique.
La conception du système, voire la faisabilité, dépendent des points cités précédemment. A titre d’exemple, il est
possible de citer les problématiques liées à :
◆ la protection aux champs magnétiques des capteurs et câbles associés,
◆ l’interrogeabilité des capteurs et/ou leur capacité à remonter des alertes en l’absence de réseau de télécom,
◆ la nécessité de prévoir des systèmes autonomes en énergie (solaire ou batterie),
◆ etc.
Il convient enfin de prendre en considération la compatibilité des capteurs à l’environnement associé. Le vieillis-
sement des matériels peut en effet être plus ou moins rapide en fonction de leur environnement (gradient thermique
en montagne, agressivité du milieu marin…).
Souvent, les zones suivies sont intimement liées aux grandeurs physiques à mesurer.
Dans le cadre d’un suivi préventif, le choix des éléments de structure à instrumenter est plus libre car il n’y a pas
de désordre apparent ou défaillance identifiée, d’où le besoin de définir les zones à instrumenter dans le cahier des
charges. Le choix des zones à traiter pour un suivi préventif peut, de fait, requérir plus de réflexions que dans le cas
de suivis pathologiques.
Dans d’autres cas, le grand nombre possible des zones à instrumenter impose un échantillonnage afin de limiter la
quantité de données à traiter. Un optimum technico-économique est, dans ce cas, à rechercher. Par exemple, il est
courant de procéder à un échantillonnage pour le suivi de l’effort normal sur les poteaux d’un parking, le suivi des
vibrations des câbles d’un pont à haubans, etc. Il est, en général, préférable que le concepteur du cahier des charges
prenne cette tache sous sa responsabilité. A noter que le retour d’expérience sur des ouvrages comparables, voire
un calcul préalable peut permettre de définir précisément les zones d'intérêt.
Si le choix des zones à instrumenter est laissé aux prestataires, le cahier des charges devra bien définir la presta-
tion globale (nombre des capteurs à poser, grandeurs physiques à mesurer, etc.), notamment pour s’assurer d’une
réponse à périmètre équivalent de l’ensemble des prestataires.
Grandeurs à mesurer (ouverture fissure, basculement, mouvement global, ...) et précision attendue :
Après avoir défini les zones à instrumenter, le cahier des charges doit bien définir les grandeurs physiques à mesurer.
Afin de calibrer le type de matériel à mettre en place, pour chaque grandeur physique, le cahier de charges précise :
» l’échelle de la prise de mesure par rapport à l’ouvrage (exemple : mesure de la déformation sur quelques
millimètres, centimètres, ou mètres)
» l’amplitude de la prise de mesure (par exemple l’amplitude maximum de rotation pour un clinomètre,
l’amplitude d’un capteur de déplacement pour suivre l’ouverture d’un joint de dilatation)
» la précision attendue, qui sera liée à la taille et au type de l’élément surveillé.
Par exemple, les matériels pour mesurer un déplacement centimétrique qui évolue de manière importante ou un
déplacement micrométrique sont très différents tant au niveau technologie, qu’au niveau coût.
Pour rappel, il est nécessaire de prendre un facteur de 10 a minima entre la résolution et la sensibilité des capteurs
employés.
Fiabilité de l’instrumentation :
La fiabilité des capteurs et, plus globalement, de l’ensemble de la chaîne d’acquisition est d’autant plus nécessaire
que le niveau de risque associé à l’instrumentation est grand. Par exemple, le taux de panne acceptable doit être
défini, tout comme l’acceptabilité d’une période sans valeurs mesurées.
La précision (fidélité) des capteurs et la fiabilité du système sont cruciaux pour la réussite du projet. Si les mesures
sont de mauvaise qualité, le temps et l’argent dépensés en instrumentation seront inutiles voire contre-productifs.
Il est recommandé de définir des pénalités sur ces éléments, en expliquant précisément le moyen de mesure de ces
pénalités, et en s’assurant de faire comprendre aux prestataires que les pénalités seront appliquées.
En variante, en imposant une réponse à la solution de base, il est recommandé de laisser la possibilité aux presta-
taires de proposer une augmentation / diminution du programme d’instrumentation à partir de sa propre analyse
de l’opération.
Durée de la surveillance :
La durée et la cinétique du phénomène à suivre vont conditionner le système de surveillance à mettre en œuvre
car elles ont un impact fort sur la chaîne de mesure à concevoir, que ce soit en termes de temporalité (suivi sur
quelques semaines à quelques années) et de fréquence d’acquisition (statique ou dynamique).
Le cahier des charges doit donc préciser le type de suivi en ce qui concerne l’acquisition des mesures. Pour chaque
grandeur physique, celui-ci doit mentionner le type d’acquisition (acquisition manuelle ou automatique) ainsi que
sa fréquence (une mesure par jour, une mesure par seconde, etc.).
Dans le cadre d’une surveillance de longue durée, des exigences de durabilité et/ou de maintenance sur la chaîne
d’acquisition doivent être spécifiées.
A titre d’exemple, si le stockage se fait dans le Cloud de façon sécurisée, le CCTP définit dans quelle mesure le
système doit être en capacité à sauvegarder localement les données et, le cas échéant pendant combien de temps,
en s’assurant également de la protection de la donnée vis-à-vis d’un éventuel piratage. Ce point est dépendant de
la maintenance mise en place et de la capacité du prestataire à se rendre compte d’une défaillance dans la chaîne
d’acquisition et de sa réactivité à remédier au problème. Ces critères peuvent être directement pris en compte dans
le jugement des offres des prestataires.
Cela revient à se poser la question du risque d’avoir une absence de données de surveillance pendant une période
plus ou moins longue.
En fonction du besoin ou de la faisabilité, le système peut être conçu pour un stockage et une visualisation des
données sur une plateforme à distance sécurisée et disponible 24/24. Dans ce cadre, et en fonction du niveau
de risque associé à l’instrumentation, il est utile de préciser le délai sous lequel la donnée visualisable doit être
accessible après l’acquisition.
Il est conseillé que le MOA définisse ses exigences en termes de fonctionnalité de récupération des données par
ses soins (accès aux serveurs, capacité de télécharger des données brutes ou prétraitées, définition de rapport de
synthèse, etc.). Les fonctionnalités suivantes sont généralement utiles pour le MOA ou son AMO :
» Imposer le format de la donnée de sauvegarde souhaité (csv, txt, xls),
» Télécharger rapidement des données prétraitées, prétriées,
» Regrouper les sauvegardes par famille de capteurs ou de mesures,
» Préciser les données à sauvegarder, notamment en cas de haute surveillance pour laquelle seule la
sauvegarde des évènements liés aux indicateurs pourrait être suffisante.
Les points suivants sont directement corrélés à l’autonomie du système en énergie et/ou au raccordement possible
au réseau électrique et télécom :
Certaines de ces opérations peuvent être anticipées, et ainsi planifiées durant toute la durée de la surveillance.
Ces opérations constituent la maintenance préventive appelées également le maintien en condition opérationnelle
(MCO). Elles peuvent comporter :
◆ des alertes système (interrogation journalière du système ou mise en place d’alerte SMS),
◆ des inspections visuelles des différents éléments du système et de l'environnement du capteur pour s'assurer
qu'il est toujours en capacité de mesurer la grandeur physique recherchée,
◆ l’étalonnage et contrôle de certains capteurs (absence de dérive),
◆ des mesures croisées sur le terrain, au titre de l’auto-contrôle, pour s’assurer de la pertinence des mesures
enregistrées par le système d’acquisition,
◆ le nettoyage de certains éléments notamment lors de l’utilisation de mesure optique,
◆ le remplacement de certains composants tels que les batteries.
La fréquence de ces opérations de maintenance est fonction de la surveillance mise en place et des systèmes
associés. A contrario, les opérations qui n’ont pas été anticipées constituent les opérations de maintenance correc-
tives.
Les coûts qu’elles engendrent doivent être compris dans le montant global. Elles peuvent en effet nécessiter la mise
en place de moyens d’accès couteux ou d’interfaces complexes avec les gestionnaires des structures avoisinantes.
Ces différents niveaux de maintenance peuvent être nécessaires et imposés au marché en fonction du caractère
décisionnel ou non que revêt l’instrumentation. Dans ce cas, le cahier des charges définit la périodicité pour la
maintenance préventive et les délais d’intervention pour la maintenance corrective. Il peut être demandé de prévoir,
dès le début de l’opération, des capteurs de secours, éventuellement stockés physiquement sur site, chez le pres-
tataire voire chez le MOA, en prévision d’actions de maintenance.
Au même titre, dans les suivis de longue durée, le MOA prévoit, dans le cadre de la maintenance préventive, l’éventuel
changement de tout ou partie des composants avant le terme du marché. Dans ce cadre, il est conseillé de prévoir
un ou des prix spécifiques dans le DQE.
En fonction du niveau de risque associé, des pénalités peuvent être définies dans le cahier des charges.
Le cahier des charges doit prévoir que le prestataire en charge de la mise en œuvre du système d’instrumentation
fournisse un programme de maintenance décrivant ces opérations.
A titre d’exemple, si l’on veut suivre l’évolution de ruptures de fils dans des câbles porteurs d’un ouvrage dont
le maintien en circulation de l’ouvrage est conditionné par les observations effectuées, le système ne peut pas
se permettre d’être en défaut et les exigences de maintenance préventive et corrective doivent être clairement
stipulées au CCTP.
Il convient par ailleurs de définir le « type » de mesure entre de la mesure statique, pseudo-statique ou dynamique
et, le cas échéant, la fréquence d’échantillonnage pour répondre au besoin (1 Hz, 100 Hz, 10 kHz…).
Il convient néanmoins d’être vigilant sur le choix de la fréquence d’acquisition qui doit être adaptée à la grandeur
physique à mesurer. Trop faible, elle risque de ne pas permettre de suivre le comportement de l’ouvrage. Trop élevée,
elle risque d’augmenter de manière exponentielle les données rendant le traitement complexe, voire inefficace.
Dans le cadre de cette surveillance, et en fonction des objectifs premiers de l’instrumentation, le MOA doit spécifier
si des seuils sont imposés (étude amont nécessaire) ou s’il est demandé au prestataire de les définir à partir d’une
phase d’apprentissage, voire d’une réflexion structurelle préalable avec modélisation ou non de l’ouvrage.
En accompagnement de ces seuils, il doit préciser les actions à assurer / assumer et le circuit d’informations
à suivre. Notamment, il doit spécifier si le prestataire doit prévoir des astreintes, quel est son délai de réaction
en cas de dépassement d’un seuil haut, le besoin de renforcer ponctuellement le suivi (augmenter la fréquence
d’acquisition par exemple), etc.
A noter que la plupart des instrumentations nécessite une période d’apprentissage visant à connaître et comprendre
la réponse de la structure instrumentée au système en place, à son environnement (cycle thermique par exemple) ou
autre afin de pouvoir discriminer des évolutions normales des grandeurs mesurées à des évolutions présentant un
caractère anormal voire pathologique. De ce fait, il est nécessaire que le système intègre des capteurs permettant
la qualification des paramètres pouvant influence la grandeur suivie.
Dans certains cas extrêmes où la sécurité des biens et des personnes peut être mise en cause, il peut être pertinent
de prévoir, au stade de la consultation, la mise en place d’une instrumentation redondante sur certains paramètres
afin de fiabiliser / confirmer / sécuriser la surveillance. Dans ces cas, l’instrumentation redondante doit être basée,
dans la mesure du possible, sur une technologie différente pour un maximum d’efficacité.
Le cahier des charges précise les formats des données produites par l’instrumentation afin de s’assurer de sa
capacité à les ouvrir par les différents acteurs du projet. Un des formats les plus courants est le csv (Comma-Sepa-
rated Values) qui peut s’ouvrir directement à l’aide d’un tableur ou de tout type de logiciel de traitement de données.
En premier lieu, il est important de prévoir, un premier livrable : le rapport initial d’installation retraçant de manière
précise et exhaustive :
» un rappel des objectifs de l’instrumentation en question,
» un rappel sur la date d’installation, les conditions météorologiques, le nom des opérateurs…
» les capteurs utilisés (définition commerciale et technique, fiche technique, certificat d’étalonnage, etc.)
et leur dénomination dans le système de surveillance,
» le détail de la chaîne d’acquisition (centrale d’acquisition, connectique et plan de câblage, mode de
communication / interrogation…),
» le positionnement exact de chaque capteur au niveau de l’ouvrage (plans et rapport photographique),
» dans la plupart des cas de figure, les valeurs de point 0 de l’instrumentation pour chaque capteur et les
valeurs de référence associées (ouverture d’une fissure au moment de la pose de l’instrumentation par
exemple),
» la fourniture des formules de conversion permettant de passer de la donnée brute à la donnée d’ingé-
nieur afin de permettre un transfert d’instrumentation entre deux prestataires,
» dans le cadre de l’auto-contrôle des analyses, la vérification de la fiabilité des mesures par la fourniture,
par exemple, des valeurs moyennes, écart-type et sigma-carré, etc.
Le cahier des charges doit définir la fréquence du rendu des livrables en fonction du niveau de risque auquel doit
répondre cette instrumentation. Il s’agit en effet de définir dès ce stade s’il convient au spécialiste d’éditer un
rapport mensuel, trimestriel, semestriel ou simplement annuel. Cette fréquence peut être constante sur la durée
du marché ou varier dans le temps. Le cas échéant, il convient de préciser dans quelles conditions elle peut varier.
La question de la gestion des éventuelles alertes et, le cas échéant, de la nécessité d’éditer des rapports et/ou
notes spécifiques est clairement exposée.
En cas de surveillance renforcée, des délais de transmission d’un rapport post évènement peuvent également être
précisés pour éviter les discussions ultérieures.
Par ailleurs, le cahier des charges spécifie si le marché exige un pré-traitement des données à destination d’un
bureau d’études tiers, ou d’un traitement complet avec les analyses techniques associées et les préconisations
afférentes, ce dernier cas étant recommandé dans la mesure du possible.
En effet, il est parfois difficile pour un bureau d’études tiers de traiter des données dont il n’a pas forcément la
maîtrise du choix des zones à instrumenter et des capteurs associés ou de la récupération des dites données. Par
ailleurs, le fait de scinder la mission d’instrumentation et d’analyse technique des données peut déresponsabiliser
les deux entités et augmente le risque pour le MOA. Il peut être alors judicieux de prévoir, pour les 2 marchés, des
réunions tripartites pour minimiser ce risque.
Ce document doit, par ailleurs, synthétiser les valeurs de référence (point zéro) ainsi que l’ensemble des formules
de traitement de la donnée brute mise en place au cours de la surveillance de la structure (loi de correction en
température, prise en compte des gradients, hygrométrie…).
Il semble important d’exiger, dès la période de préparation de l’opération, le cadre de ce dossier d’instrumentation
pour validation par le MOA, assisté ou non de son AMO.
Par ailleurs, que le MOA se fasse assister ou pas d’une AMO, il convient de prévoir un temps suffisant d’appropriation
de l’objet du marché pour concevoir une instrumentation pertinente permettant de répondre aux besoins exprimés.
Dans le cadre de la consultation, il est conseillé au MOA de fournir en pièces annexes les principaux documents
ayant conduit à la présente consultation et notamment les plans de l’ouvrage et les diagnostics préalables d’ores
et déjà réalisés.
Dans le cadre d’une instrumentation de longue à très longue durée (à 10 ans et au-delà), le MOA s’interrogera sur
le fait d’imposer une technologie libre de droit en prévision d’un éventuel transfert de responsabilité à un autre
prestataire, ou de prévoir, dès le départ, une consultation sur la durée totale de la surveillance. Dans ce seul cas, il
peut alors faire appel à des technologies propriétaires.
Dans le cadre d’un appel d’offre de renouvellement d’une instrumentation en place, le MOA détaillera l’entièreté de
la définition du système en place et notamment se mettre en capacité de fournir toutes les formules de traitement
des données brutes au nouveau prestataire en charge de la reprise de l’instrumentation.
Il fera au préalable une analyse critique des résultats obtenus pendant son premier marché et adapter à son appel
d’offre en conséquence comme la suppression ou l’ajout de point de mesure par exemple.
6
Conclusion
Cet important travail rédactionnel réalisé par le groupe de travail IMGC et relu par les experts de la profession a
permis de poser clairement les bases de toute la démarche d’une maîtrise des risques par l’instrumentation en
décrivant l’ensemble des phénomènes et processus à appréhender.
Il a pour objectif d’aider les différents acteurs à mettre en œuvre dans les meilleures conditions tout le processus
itératif devant conduire à la réalisation d’une surveillance efficace. Les Maitres d’Ouvrage y retrouveront jusqu’à
une aide à la rédaction de leurs cahiers des charges.
Les risques encourus, la démarche d’instrumentation et ses usages avec les indicateurs d’alerte y sont décrits
précisément et parachèvent un travail d’envergure destiné à guider au mieux les parties prenantes pour une main-
tenance plus sûre et plus durable de notre patrimoine.
Ce guide de recommandations, au service des différents acteurs de l'ingénierie, ne saurait se suffire à lui-même. Il
doit être utilisé et exploité par des équipes maîtrisant avant tout l’ingénierie de la maintenance des structures de
Génie-Civil.
7
ANNEXE 1
7.1 TERMINOLOGIE
Afin de permettre une lecture précise de ce guide et surtout de le rendre cohérent avec toutes les publications
pouvant exister sur le sujet, il est important de respecter les termes et usages en vigueur pour les activités
concernées et lorsque des manques existent, de les définir.
La maîtrise des risques par l'instrumentation recouvre de fait la notion de maintenance des biens. L'appropriation
du vocabulaire ayant cours dans ce domaine, largement documenté et normalisé depuis plusieurs années, apparaît
donc naturel et nécessaire.
Pour l'Europe, le texte de référence en la matière est la norme EN 13306 et sa déclinaison nationale la norme NF EN
13306 [14]. Ce document traite de la terminologie en usage dans le cadre de la gestion de la maintenance pour la
plupart des domaines d'activités visés, comme le rappelle son préambule :
"…Le présent document présente les termes généraux et leurs définitions pour les domaines techniques, administratifs et
de gestion de la maintenance. Il ne s'applique pas aux termes utilisés pour la maintenance des logiciels."
Son usage est donc parfaitement légitime dans le cadre de ce guide. Toutefois, il apparaît que certains termes,
propres aux domaines du génie civil, méritent d'être définis ou précisés.
Les principaux sont rappelés dans la liste non exhaustive ci-après. Les définitions proposées sont généralement
issues de guides ou documents existants (CEREMA, UGE (ex-LCPC) par exemple) et largement employés.
7.2 GLOSSAIRE
Sensibilité – En:Sensitivity
C’est la variation donnée par un instrument divisé par la variation du signal d’entrée. La capacité à déceler des
petites variations est donc intéressante à prendre en compte selon la finesse de la mesure requise pour surveiller
un ouvrage. Mais attention, une bonne sensibilité est inutile sans une bonne fidélité. Voir le commentaire sur la
résolution ci-dessous.
Résolution – En:Resolution
C’est la plus petite division de l’échelle d’un instrument. On trouve cette valeur sur les fiches de calibration. Ce
paramètre est assez peu utile en réalité, il permet surtout aux constructeurs d’annoncer des chiffres attractifs sur
les fiches de calibration.
Etat défectueux :
L'état d'un ouvrage est qualifié de défectueux lorsque des désordres majeurs structuraux ont été mis en évidence,
que leur gravité a pu être appréciée au moins sommairement, et que ces désordres sont susceptibles, soit tels
quels, soit après évolution, de mettre en cause la sécurité ou la pérennité de l'ouvrage.
Etat douteux :
L'état d'un ouvrage est qualifié de douteux lorsque l'analyse effectuée à la suite d'une action de surveillance ne
permet pas de conclure :
» soit parce que les désordres ont été constatés, mais que l'analyse n'a pas permis d'apprécier leur gravité
réelle ou potentielle.
» soit parce que les désordres n'ont pas été mis en évidence, mais des indices qui permettent d'en soup-
çonner l'existence ont été reconnus. Cette situation doit être transitoire et les investigations requises et
effectuées doivent permettre de lever les doutes afin de reclasser l'ouvrage dans les catégories d'états
normaux, quasi normaux ou défectueux.
Maintenance prédictive :
Ce type de stratégie englobe simultanément les notions de maintenance préventive conditionnelle et de mainte-
nance prévisionnelle de la norme EN 13306 [14].
Extrait de la norme :
Maintenance préventive. Maintenance exécutée à des intervalles prédéterminés ou selon des critères prescrits et destinée
à réduire la probabilité de défaillance ou la dégradation du fonctionnement d'un bien.
› Maintenance préventive conditionnelle : maintenance préventive basée sur une surveillance du fonctionne-
ment du bien et/ou des paramètres significatifs de ce fonctionnement intégrant les actions qui en découlent.
Instrumentation ou auscultations :
Mise en place d'un équipement instrumental dans une structure de génie civil, géotechnique ou géologique, en vue
d'en connaître le comportement
Une instrumentation peut être temporaire ou permanente (de longue durée).
Inspection :
Contrôle de conformité réalisé en mesurant, observant, testant ou calibrant les caractéristiques significatives d'un
bien (d'une structure).
Surveillance de fonctionnement :
Activité exécutée manuellement ou automatiquement ayant pour objet d'observer l'état réel d'un bien.
La surveillance de fonctionnement se distingue de l'inspection en ce qu'elle est utilisée pour évaluer l'évolution des
paramètres du bien avec le temps.
La surveillance de fonctionnement peut être continue sur un intervalle de temps ou après un nombre d'opérations.
La surveillance de fonctionnement est généralement conduite sur un bien en état de disponibilité.
La surveillance de fonctionnement peut faire appel à l'instrumentation du bien analysé, et notamment le SHM
(Structural Health Monitoring – contrôle de la santé des structures) qui a pour objectif de maintenir et prolonger la
durée de vie des infrastructures, de détecter et prédire leurs défaillances.
8
ANNEXE 2 : FAMILLES
PRINCIPALES DE
MESURES
On pourra largement se référer aux fiches du cahier interactif IFSTTAR / CEREMA pour de plus amples informa-
tions relatives à la présentation des principales familles de capteurs [6] ou dans le rapport de synthèse du Projet
National S3 [9].
Les précisions annoncées ci-dessous (fidélité en métrologie) correspondent aux ordres de grandeur typiques
obtenus en respectant l’état de l’art pour la sélection du matériel, sa mise en place et sa maintenance, par une
équipe spécialisée. Les valeurs annoncées par les fiches techniques des capteurs sont souvent meilleures (car
obtenues en laboratoire). Et à l’inverse, une mauvaise qualité de fabrication, de mise en place ou de maintenance
peut amener à des valeurs nettement dégradées.
Principe : Des prismes d’auscultation sont fixés sur la structure à suivre. La position X, Y et Z de ces prismes est relevée de
manière automatique à l’aide d’un tachéomètre robotisé asservi. La position des prismes est calculée dans un référen-
tiel local défini par des prismes de référence fixés sur des supports réputés stables.
Les mesures peuvent être réalisées dans un référentiel externe à la structure ce qui permet d’apprécier des mouve-
ments d’ensemble. Un seul tachéomètre peut être utilisé pour suivre plusieurs structures pouvant être éloignées de
plus d’une cinquantaine de mètres. Au-delà, il peut être fait appel à plusieurs tachéomètres maillés en réseau pour
suivre finement le comportement global d’une structure.
Les mesures sont réalisées sans contact ce qui permet de maintenir la circulation des véhicules entre le tachéomètre
et les points de mesure. Néanmoins la présence de masques (poussière, végétation, véhicules, forte pluie) lors de la
mesure peut gêner le relevé de la position de prismes.
La fréquence d’un cycle de mesure est dépendante du nombre de prismes à suivre et est relativement élevé (>Hz).
Précision : Millimétrique
Récepteur GNSS
Principe : La position absolue X, Y et Z en un point de l’ouvrage peut être mesurée à l’aide d’un récepteur GNSS. Ce dispositif
d’instrumentation s’appuie sur des constellations de satellites GNSS (GPS, Galileo, Glonass, Beidu). Chaque satellite
transmet en continu sa position et l’heure d’émission. Ce signal est capté par le récepteur qui calcule le temps de par-
cours de l’onde et estime la distance à ce satellite. En connaissant les distances d’un récepteur vis-à-vis de plusieurs
satellites (a minima 4 satellites), il est possible d’établir sa position dans le réseau de satellites.
L’estimation de la distance satellite-récepteur est affectée par des erreurs internes (erreurs d’horloges ou d’orbites) et
des perturbations externes (perturbations atmosphériques). Afin de s’affranchir de ces erreurs de mesure, un récep-
teur GNSS peut être placé à proximité de l’ouvrage sur une structure réputée stable. Les fluctuations de mesure de la
position de ce récepteur de référence ne sont théoriquement liées qu’aux perturbations du signal. Il est ainsi possible
de corriger la position du récepteur sur l’ouvrage en se basant sur celle de la station de référence
Principe : L’interférométrie satellite radar (InSAR) permet de mesurer des mouvements de surface.
Les satellites radar enregistrent avec une grande précision la distance parcourue par le signal entre l’émission et la
réception de l’onde. En comparant l’évolution de cette distance au cours du temps, la technologie InSAR fournit des
informations sur les déformations du sol.
L’analyse de ces images va permettre d’identifier de bons réflecteurs du signal radar qui retournent un signal fort. Ces
cibles correspondent à du bâti, des infrastructures, du sol nu ou des affleurements rocheux.
Le cycle des images disponibles à l’ESA et autres opérateurs peut être au mieux hebdomadaire et souvent mensuel.
Précision : Millimétrique
Distancemètre laser
Principe : Un réseau de capteurs est fixé sur l’ouvrage à une altitude identique. Les capteurs sont reliés entre eux via une
tubulure permettant de faire circuler un fluide. L’ensemble est relié à un réservoir de référence placé sur un support
jugé stable et non solidaire de la structure instrumentée. Le déplacement vertical d’un capteur induit une variation de
niveau d’eau qui est mesurée et comparée à celle du réservoir de référence.
Ce type de dispositif est complexe à mettre en œuvre (alignement des tubulures, isolation thermique, etc.). Néan-
moins contrairement aux mesures topométriques, ce type de dispositif ne présente pas de risque d’absence de
mesure en raison de la présence de masques. En outre la fréquence de mesure peut être rapide (de l’ordre du Hz).
Précision : Millimétrique
Electronivelle
Principe : Une barre de 1 à 3 mètres est fixée entre 2 rotules au parement de la structure à suivre. La barre comporte en son sein
un tiltmètre permettant d’apprécier son inclinaison et d’en déduire la variation d’altimétrie entre les 2 ancrages. Les
électronivelles peuvent être chainées afin de suivre le tassement différentiel d’ouvrage de grandes dimensions. Outre
le déplacement relatif entre ancrages, le tiltmètre, s‘il est biaxial, permet de suivre le basculement de la structure.
Ce type de mesures offre une alternative aux mesures topographiques pour réaliser le suivi altimétrique d’une struc-
ture. Ce type de capteur permet également des mesures à fréquences élevées (>Hz). Néanmoins, la mise en œuvre
est complexe et il est très complexe de placer un ancrage hors de l’ouvrage afin de mesurer le tassement absolu
d’une structure.
Palpeur
Principe : Ce capteur est constitué d’un cylindre se déplaçant dans un tube suivant une unique direction. Chacun des éléments
du capteur est fixé de part et d’autre de la discontinuité structurelle à suivre. Divers principes physiques peuvent
être utilisés afin d’identifier le déplacement relatif entre le tube et le cylindre (exemples : variation de résistance ou
d’inductance).
Une attention particulière doit être portée quant à l’orientation du capteur et la méthodologie de fixation du capteur
(rotule, contact ponctuel). Certaines technologies de palpeur (exemple : LVDT) permettent de réaliser des mesures
dynamiques (>>Hz).
Jauge extensomètrique
Principe : Ces capteurs permettent de mesurer la déformation suivant une direction. Divers éléments sensibles sont employés
dans le domaine du génie civil : résistance, corde vibrante, fibre optique (Bragg, Brillouin, Micro-courbures). Le choix
de la technologie est dépendant de multiples facteurs (intrusivité du système, fréquence de mesure, environnement,
proximité du système d’acquisition, etc.).
En raison de leur robustesse, les capteurs à corde vibrante sont couramment installés. Ces capteurs sont constitués
d’une corde maintenue tendue entre 2 joues solidaires de la structure à suivre. Cette corde est excitée et sa fréquence
de vibration est mesurée. La variation de cette fréquence est dépendante de la distance entre les 2 joues et donc de la
déformation locale de la structure. Ce type de capteur peut être noyé dans le béton, ancré sur un parement béton ou
maçonné, ou soudé sur une surface métallique. Le corps du capteur peut être conservé et l’élément sensible être rem-
placé pour obtenir des capteurs similaires (substitution corde vibrante par jauge résistive ou capteurs fibre optique).
Les jauges résistives et capteurs à fibre optique peuvent également être directement collés au parement de la struc-
ture à suivre. Cela nécessite un nettoyage soigné de la surface à instrumenter.
La jauge extensométrique, en fonction de la technologie employée, peut répondre à des problématiques de mesures
locales et/ou globales.
Extensomètre de forage
Principe : Des ancrages sont placés à différentes profondeurs d’un forage et sont maintenus solidaires du terrain encaissant
par scellement, packer, etc. Le nombre d’ancrage par forage est compris entre 1 et 12.
Ces ancrages sont reliés à la tête de forage à l’aide de fibres rigides pouvant librement se déplacer suivant l’axe
principal du forage.
La mesure du déplacement de la fibre permet d’identifier le déplacement de l’ancrage par rapport à la tête de forage.
Cette mesure peut être réalisée manuellement à l’aide d’un comparateur ou être automatisée via la mise en place de
palpeurs.
Tiltmètre
Principe : Le tiltmètre ou clinomètre ou inclinomètre de surface est un capteur permettant de mesurer en un point l’inclinaison
d’une paroi par rapport à un plan de référence (généralement vertical). Diverses techniques sont employées pour
construire ce type de capteur notamment le suivi de la déformation induite par l’inclinaison d’une masselotte se
déplaçant sous l’influence de la gravité. Le suivi de l’inclinaison peut être réalisé par rapport aux plans parallèle et
perpendiculaire au parement via l’emploi de capteurs biaxiaux. Une plaque d’ajustement est nécessaire à l’interface
avec le parement afin de régler précisément le plan d’équilibre du capteur.
La mesure est ponctuelle. En raison du risque de création de ventre lors de phénomène de basculement d’une struc-
ture, il peut être nécessaire de mettre en place ce type de dispositif à plusieurs hauteurs du parement.
Chaîne inclinomètrique
Principe : Des segments de 0,5 à 3 mètres sont placés dans un forage équipé d’un tube déformable et reliés entre eux à l’aide de
rotule. L’inclinaison peut être mesurée suivant 2 directions en chaque segment.
L’intégration des inclinaisons mesurées sur toute la profondeur permet d’identifier les déplacements perpendiculaires
à l’axe du tube sur toute sa longueur.
Dans le cas de suivi sur le long terme, des contrôles manuels sont recommandés afin de s’assurer de l’absence de
dérive des capteurs
Principe : Ce type de capteurs est employé sur les structures de grande hauteur (barrage, pile de pont) afin de suivre les
déplacements horizontaux relatifs entre un point haut et un point bas. Un câble métallique est tendu gravitairement
entre ces deux points. Dans le cas des pendules directs, le point haut est ancré dans la structure et le câble est tendu
à l’aide d’une masse immergée dans un liquide d’amortissement. Dans le cas des pendules inversées, le point bas est
ancré dans la structure ou sa fondation et le câble est tendu à l’aide d’un flotteur placé dans un liquide d’amortisse-
ment. La mesure du déplacement est réalisée à proximité de l’extrémité mobile du câble. La position X, Y du câble est
relevé à l’aide d’une table de visée manuelle ou à l’aide d’un télé-pendule. Dans le cas des télémesures, la position du
câble est relevée via des mesures optiques.
Dans le cas de l’utilisation d’un câble en Invar, possédant un coefficient de dilatation très faible, le déplacement relatif
vertical entre les points haut et bas peut être mesuré.
La variation de position Z peut être mesurée manuellement ou à l’aide d’une table de visée automatique.
Précision : Dixième de mm
Vélocimètre (géophone)
Principe : Les vélocimètres sont couramment employés pour mesurer les vitesses de déplacement sous une excitation naturelle
(trafic, vent, foule, séisme, etc.) ou sous une excitation provoquée (balourd, marteau, explosif, etc.). Ils sont plus
sensibles que les accéléromètres mais possèdent une plage de fréquence plus réduite.
Ces vélocimètres peuvent mesurer les vitesses selon 1, 2 ou 3 directions.
Étendue de mesure courante : De 0 à 350 Hz avec une étendue de mesure de ± 100 mm/s
Accéléromètre
Principe : Les accéléromètres, de type capacitif ou piézoélectrique, sont couramment employés pour mesurer les vibrations
sous une excitation naturelle (trafic, vent, foule, séisme, etc.) ou sous une excitation provoquée (balourd, marteau,
explosif, etc.).
Ces accéléromètres peuvent mesurer les accélérations selon 1, 2 ou 3 directions.
Principe : Les capteurs de type capacitif sont couramment employés afin d’identifier l’humidité relative à laquelle est soumise
une structure.
Le capteur est constitué d’une couche de polymère enserré entre deux couches métalliques poreuses.
Une variation d’humidité conduit à une modification de la constante diélectrique de la couche de polymère et par voie
de conséquence la capacité.
En raison du risque de dérive de la mesure, des réétalonnages réguliers sont nécessaires.
L’humidité relative dans le béton peut être mesurée en plaçant le capteur dans un trou (ASTM F2170-11)
Précision : ± 2 % H.R.
Teneur en eau
Principe : La teneur en eau dans un élément en béton peut être mesurée en noyant en son sein une sonde TDR. Cette sonde est
constituée d’une à plusieurs tiges dans lesquelles une impulsion électromagnétique est envoyée. Le temps de vol de
l’onde dans les tiges est fonction de la permittivité relative du béton et donc de sa teneur en eau.
Pour chaque composition de béton, une campagne d’essais préalables est nécessaire afin de relier la teneur en eau à
la mesure de temps de vol.
Capteur de corrosion
Principe : Diverses stratégies d’instrumentation peuvent être employées afin d’évaluer le risque de corrosion d’une structure en
béton armé. Des sondes sont ainsi noyées dans les structures afin :
- d ’identifier les conditions favorisant l’initiation d’une corrosion : mesure de la résistivité électrique de l’enrobage,
mesure du potentiel électrochimique entre l’armature et une électrode de référence,
- d ’évaluer l’état de corrosion de témoins placés dans l’épaisseur d’enrobage : mesure du courant de corrosion entre
une électrode de référence et les anodes réparties à plusieurs profondeurs.
Cellule de charge
Principe : Ce type de capteur permet d’identifier les efforts de compression appliqués entre 2 « éléments » structuraux. Deux
grands types de capteurs sont couramment utilisés : cellule hydraulique ou cellule électrique. Pour les cellules élec-
triques, leur corps, en métal, est équipé de capteurs extensométriques (éléments sensibles : corde vibrante, réseau
de Bragg, etc.). La déformation du corps de la cellule induit par une variation de charge est mesurée à l’aide de ces
capteurs. La connaissance du comportement de ce corps métallique permet de déterminer la sollicitation appliquée.
Ces capteurs doivent être installés lors de la construction. Les efforts doivent être uniformément répartis sur les
surfaces du capteur. A cette fin, des plaques métalliques peuvent être aux interfaces du capteur.
Étendue de mesure courante : D’une centaine de kN jusqu'à 15 000 kN pour les cellules équipant les câbles de précontrainte des Enceintes EPR
Précision : Évaluation complexe car les défauts d’alignement induisent rapidement de fortes disparités. Les fiches techniques
des capteurs peuvent annoncer de l’ordre 0,5% de l’étendue de mesure, mais dans la réalité il faut compter sur 1% à
10% de l’étendue de mesure.
Principe : Placé dans ou à l’interface avec une couche de sol, ce capteur permet d’identifier la pression appliquée perpendiculai-
rement à son plan. Un liquide est enclos dans le corps de la cellule. La pression du liquide est fonction de la pression
appliquée à la cellule. Cette pression est mesurée via un capteur de pression.
Le capteur doit être placé entre des couches de matériaux permettant de s’assurer une bonne répartition des pres-
sions sur la cellule.
Précision : Les experts se disputent à ce sujet. En effet il est complexe de ne pas modifier l’état de contraintes aux alentours du
capteur, par la seule présence du capteur. Les fiches techniques des capteurs peuvent annoncer 0.1% de l’étendue de
mesure, mais dans la réalité on est sans doute plutôt aux alentours de 10% au moins.
Thermistance
Principe : La résistance de certain matériau (alliage, semi-conducteur) varie en fonction de la variation de la température. La
mesure de la résistance d’une sonde dont le comportement du matériau est connu permet la mesure de la tempéra-
ture. Les sondes Pt100 constituées de platine sont couramment employées.
Afin de s’affranchir de la résistance des câbles de connexion sur la mesure, un montage 3 fils doit être réalisé.
Thermocouple
Principe : Les thermocouples sont constitués de 2 câbles constitués de matériaux conducteurs distincts, reliés par une
soudure. Si la température au niveau du point de mesure reste constante, la variation de température au niveau de la
soudure induit une variation de tension entre les conducteurs.
Les caractéristiques de ces sondes est fonction de la combinaison de matériaux utilisés (type E, J, K, R, S ou T)
Anémomètre
Principe : L’anémomètre est un capteur utilisé pour apprécier les effets du vent sur les ouvrages de génie civil. Il mesure soit la
vitesse soit la pression du vent à un emplacement donné.
Pyranomètre
Principe : Un pyranomètre est un capteur de flux thermique utilisé pour la mesure de la quantité d‘énergie solaire en lumière
naturelle. Il est constitué d’une cellule photoélectrique en silicium qui convertit directement le flux thermique en volt.
Il s’agit d’une mesure locale et statique.
Précision : 10 W/m²
Pluviomètre
Principe : Le pluviomètre est un capteur destiné à mesurer la quantité d’eau de pluie pendant un intervalle de temps donné en
un endroit (1h, 24h, un jour, une semaine, un mois). Il est souvent intégré dans une station météo
Précision : 0,5 mm
9
ANNEXE 3 : EXEMPLES
DE MAITRISE DES
RISQUES PAR
L’INSTRUMENTATION
Au travers de quelques exemples, certains principes de la surveillance ont été explicités pour différents types de
risques comme pour différentes structures.
De la compréhension des phénomènes pour réduire le risque de rupture d’un ouvrage, la détermination de la durée
de vie résiduelle d’un assemblage métallique ou la mise en place d’alertes pour sécuriser le travail des ouvriers
dans le but de renforcer une structure défaillante, ces exemples décrivent le contexte de chaque opération, l’instru-
mentation mise en place, les résultats associés et les conclusions sur la maîtrise du risque identifié.
Ces exemples permettront au lecteur de toucher du doigt des cas réels de surveillance afin d’illustrer les notions
développées dans ce guide de recommandations.
Risques Chute de pierres de l’édifice du fait d’une mise en résonnance lors de la volée de la cloche de la Mutte.
Objectif de l'étude compréhension de phénomènes de résonnance avec couplage structure / cloche ayant conduit à l’arrêt du tintement de la
Mutte.
Contexte :
Les vibrations induites par les mouvements et les sonneries des cloches peuvent constituer un danger pour la
stabilité de certaines églises ou cathédrales. Un exemple est fourni par la cathédrale de Metz dont la tour principale
supporte une cloche de 11 tonnes à plus 50 m de hauteur. Cette cloche, dite la Mutte, produit des effets acoustiques
et vibratoires conséquents qui, selon des témoignages historiques, ont eu des répercussions sur la structure de
la cathédrale. Ces effets vibratoires ont vraisemblablement entraîné l’effondrement de certains éléments en pierre
et en maçonnerie de l’édifice, conduisant à arrêter le fonctionnement de cette cloche depuis de très nombreuses
décennies. La communauté locale et nationale souhaitait la remettre en usage, mais les exigences de sécurité
nécessitaient de mener des études précises avant d’autoriser la cloche à sonner de nouveau. C’est dans ce cadre
que la Direction Régionale des Affaires Culturelles de Lorraine (DRAC) s’est rapprochée du LCPC et du CETE de
Lyon pour mettre en œuvre une instrumentation et une modélisation de la tour de la Mutte et du beffroi support de
la cloche, de manière à déterminer sous quelles conditions la cloche « la Mutte » pouvait être remise en service en
sécurité.
Instrumentation :
Réalisation de deux campagnes distinctes mettant l’accent sur l’étude du comportement de la tour (13 capteurs
fixés à la maçonnerie de la tour et 3 fixés au beffroi) et le comportement du beffroi (9 capteurs fixés au beffroi et 7
à la maçonnerie de la tour) avec des points de mesures conjoints d’une campagne à l’autre.
Un ordinateur de chantier auquel sont connectés deux boîtiers d’acquisition multivoies SPIDER® 8 de chez HBM©
recevant les informations des accéléromètres KISTLER© par le biais de deux boîtiers d’interface (coupleurs d’impé-
dance) qui permettent de faire varier le gain et d’introduire un filtre anti-repliement de spectre.
Afin d’avoir un bon compromis entre fréquence d’acquisition et plage de fréquence observable, le choix s’est porté
sur une fréquence d’échantillonnage de 100 Hz, ce qui permet de mettre en œuvre un filtre numérique passe-bas
Butterworth à 15 Hz, ce dernier étant le plus adapté pour obtenir la meilleure réponse en fréquence. Les acquisitions
sont faites sur 5 minutes.
Excitation :
Excitation générée par l’ambiant (vent, bruit de la rue), ou par la mise en balancement de la cloche. Mise en
mouvement de la cloche par l’intermédiaire de deux moteurs électriques et de chaînes fixées au palonnier de la
cloche. Plage d’angles balayée assez large (α variant de 10° à 60°) jusqu’à ce que le battant frappe la cloche. Mise
en balancement manuelle à l’aide de cordes jusqu’à un balancement de 70°.
Capteur sur le mouton pour enregistrer directement les effets de l’excitateur du système tour et beffroi. Les courbes
ci-dessous permettent d’observer la mise en balancement de la cloche, la stabilisation de l’amplitude (excitation
constante) puis la visualisation des chocs du battant sur la cloche, la géométrie du pic traduisant l’intensité de la
frappe.
Stabilisation
Balancement cloche Choc de la Cloche
Amplitude
Résultats :
Comparaison de la fréquence théorique de l’excita-
teur avec les valeurs expérimentales permettant de
valider la modélisation numérique de la cloche de
la tour de la Mutte et, par conséquent, les résultats
théoriques qui mettent en évidence que les forces
horizontales induites par l’oscillation de la cloche
augmentent lorsque l’angle d’oscillation augmente.
Une simulation des périodes d’oscillation de la cloche et des effets induits a pu être conduite et réinjectée dans le
modèle CESAR-LCPC de la cathédrale. Le comportement et les interactions tour/beffroi/cloche ont pu être étudiés
pour des angles de balancement variables permettant d’estimer les effets sous oscillations importantes.
Elles ont permis de pointer la faible mise en vibration de la structure maçonnerie, notamment la flèche, sous le
balancement de la cloche pour des amplitudes limitées et donc d’établir les conclusions suivantes :
› Balancement des cloches à très grande amplitude (> 90°), a pu engendrer les pathologies constatées,
› Réponse vibratoire de la tour de la Mutte très faible, pour des amplitudes d’oscillation moyennes (± 45°)
› La cloche de la Mutte peut être sonnée sans occasionner des risques pour la tenue de l’édifice, en limitant
l’amplitude maximale des oscillations de la cloche de la Mutte à ±45°, afin de limiter les contraintes dans la
maçonnerie. Cet angle correspond à l’angle minimal nécessaire pour la réalisation d’une sonnerie correcte
de la cloche d’un point de vue "acoustique",
› Rôle fondamental joué par le beffroi dans la dissipation de l’énergie induite par le mouvement de la cloche
(et par conséquent dans la diminution des sollicitations dans la maçonnerie des tours). Son entretien doit
être considéré comme prioritaire pour assurer le fonctionnement des cloches.
Risques Fissuration de la charpente pouvant aller à la rupture du fait d’une durée de vie en fatigue insuffisante des assemblages
soudés
Objectif de l'étude Vérification de la durée de vie résiduelle de la charpente à partir d’une instrumentation d’une section
Contexte :
Réflexion conduite sur l'aptitude au service des ponts mixtes, construits avant l'application des règles de calcul à
la fatigue de 1995.
Etude, dans la zone d'action du CETE de Lyon, du pont de Saint Vallier, construit en 1971, qui présente au calcul à
la fatigue un important dépassement d'étendue de contraintes par rapport à l'étendue des contraintes admissibles.
Ce constat est issu de l'application du règlement de calcul à la fatigue [5]. Cet ouvrage permet au RD 86c, assurant
la liaison entre la Drôme et l'Ardèche, de franchir le Rhône.
Instrumentation :
La zone retenue pour l’instrumentation correspond à un changement de section dû à la présence d'une semelle
additionnelle en partie inférieure des deux poutres amont et aval. La section étudiée regroupe trois types de jonction
avec une semelle inférieure de poutre. Chacun de ces types correspond à une catégorie de détail différente vis-à-vis
de la fatigue
Pour connaître les variations de contraintes dues au passage de véhicules au droit de l'assemblage étudié, la
structure est équipée de jauges de déformation à fil résistant tant sur les poutres principales que sur les profilés
constituant l'entretoise.
L'instrumentation consiste à implanter des jauges sur la semelle inférieure des 2 poutres principales (en faces
supérieure et inférieure) ainsi que sur les parties horizontales des profilés constituant l'entretoise.
Sur la culée rive droite et hors de l'ouvrage, la chaussée a été équipée de boucles de comptage et de capteurs
d'analyse de trafic permettant d’estimer la durée de vie de l’assemblage sur la base d’un trafic réel. Dans chaque
voie de circulation, noyée dans la chaussée, on installe une boucle magnétique de comptage de véhicules, associée
à un capteur piézoélectrique permettant, de peser la charge de chaque essieu qui vient le comprimer. Associé à cet
ensemble de capteurs un système informatique analyse les différents signaux pour identifier le type de véhicule,
son poids par essieu et sa vitesse au droit de la station de mesure. On obtient ainsi les informations sur le trafic
directement exploitables par le programme CASTOR-LCPC [4].
Excitation :
Les mesures au droit de la section instrumentée sont réalisées sous l'action d'une surcharge routière constituée de
camions de type 6 x 4 de 27 tonnes théoriques. Cette surcharge se déplace sur l'ouvrage, centrée dans l'axe de la
voie de circulation, et s'immobilise de pas en pas pour la détermination des lignes d'influence.
Afin d’éliminer les perturbations dues à la circulation, l’ensemble des essais de chargements de l’ouvrage est réalisé
de nuit, après interruption du trafic.
Trois essais statiques sont réalisés avec 1 camion circulant seul dans la voie de circulation amont puis aval et enfin
2 camions de front, les véhicules se déplaçant de la rive droite vers la rive gauche.
En complément, une série de mesures sous charge dynamique est réalisée en utilisant un des deux camions, qui se
déplace à vitesse constante (50 km/h) sur le tablier afin de vérifier le coefficient de majoration dynamique.
Résultats :
Une chaînette a été mise en place pour étudier une éventuelle variation des contraintes à l’approche des raidisseurs.
Elle n’a pas mis pas en évidence d'évolution de contraintes sous la chaînette et valide donc la contrainte mesurée
au plus près du cordon de soudure qui ne subit pas d’effets parasites.
La précision des mesures de déformation entraîne une incertitude de ± 0,5 MPa sur les valeurs de contraintes.
A l’issue de l’instrumentation, des graphiques de variations de contraintes fournies par les jauges placées sur les
semelles inférieures des poutres principales sont fournis pour les trois configurations de chargement.
Des essais dynamiques ont été conduits avec un camion roulant à vitesse constante sur la voie de circulation aval.
Il a été constaté une grande similitude des valeurs dynamiques avec les valeurs statiques, issues du chargement
de la voie aval, aussi bien pour les poutres que pour l’entretoise, la surcharge mise en œuvre pour l’essai n’étant pas
suffisante pour entraîner une majoration dynamique des contraintes.
Pour effectuer une comparaison entre les mesures et le calcul, les charges utilisées pour les mesures statiques
ont été appliquées au modèle. Les coefficients de pondération des charges ont été supprimés conformément aux
résultats expérimentaux. Enfin, vu les calculs de dimensionnement d’origine du pont de Saint-Vallier, la connexion
de la dalle béton n'a pas été prise en compte dans le calcul.
Les calculs de la charpente donnent une valeur supérieure de 14% par rapport à la moyenne des valeurs ci-dessus.
Cet écart peut être considéré comme faible. Il est peut-être représentatif (au moins partiellement) d'une participa-
tion bien plus importante de la dalle béton que celle prise en compte dans le calcul.
Si l’on connaît la catégorie de détail de l’assemblage, qui caractérise sa résistance à la fatigue, les histogrammes
issus de CASTOR-LCPC permettent de calculer l’endommagement unitaire dû à une classe de variation de
contraintes et par sommation des endommagements unitaires l’endommagement global. En supposant que le
trafic mesuré n’évolue pas dans le temps, il est possible d’estimer l’espérance de vie de l’assemblage considéré et,
par conséquent, l’espérance de vie de l’ouvrage.
Cette étude nécessite de connaître les variations de contraintes et leur fréquence d’apparition. Ce calcul est réalisé
par le logiciel CASTOR-LCPC qui fait un calcul de probabilité sur un trafic en tenant compte des lignes d’influence
et des résultats de l’étude de trafic.
Les résultats fournis par le programme CASTOR-LCPC se présentent sous la forme d’un histogramme permettant
de visualiser le nombre de cycles associé à chaque étendue de variation de contraintes. Les étendues de variation
de contraintes sont classées avec un pas de 1 MPa.
Par référence aux catégories ou classes de détail des principaux assemblages dans les ponts métalliques et les ponts [5],
dans la section étudiée, nous trouvons la catégorie de détail la plus pénalisante soit la classe 45. La classe de détail est
l’étendue de contrainte à laquelle l’assemblage résiste à 2 millions de cycles, avec une probabilité de non-ruine de 95%.
Pour calculer l’endommagement, on utilise les courbes de Wöhler. Ces courbes permettent de connaître le nombre
de cycles chargement/déchargement nécessaires pour rompre un assemblage en fonction de la classe de détail et
de l’importance des variations de contraintes subies lors de ces cycles.
L’endommagement total de l’assemblage considéré est calculé en additionnant les endommagements unitaires
pour chaque étendue de contraintes issues de l'histogramme précédent.
L’endommagement est obtenu par rapport au nombre d'occurrence déterminé pour chaque étendue de contraintes
pendant la période de mesure de trafic. Il est procédé de même pour toutes les classes d'étendues de contrainte
(∆σi), et par sommation pour 100 ans, l'endommagement total de l’assemblage atteint 1,24%, soit une espérance
de vie de 80 ans.
La route portée par ce pont a un faible trafic et s’il est envisagé une évolution du trafic de 3% pendant une vingtaine
d'années (ce qui correspond à un doublement du trafic) la durée de vie de la section instrumentée sera très
fortement diminuée.
Cette étude n'a porté que sur une section de l'ouvrage, aussi il convient de ne pas extrapoler la conclusion à
l'ensemble de la structure.
Le dépouillement des mesures et les calculs d'endommagement ont permis de mettre en évidence que l’instrumen-
tation réalisée a permis de contrôler le fonctionnement de la structure et le calcul de dimensionnement. Il montre
également une bonne qualité des mesures de déformation, aussi bien dans leur précision que dans leur répétabilité.
Cette étude a permis de déployer l’ensemble de la démarche nécessaire à l’estimation de la durée de vie d’un
assemblage soudé jugé critique vis-à-vis du risque de fatigue.
Sous réserve d’une estimation plus fine du trafic passé et futur et de l’étude de l’ensemble des sections critiques,
il est possible pour un gestionnaire de connaître la sécurité résiduelle de ses structures métalliques et mixtes
construites avant 1995 vis-à-vis du risque de fatigue et d’adapter, si de besoin, sa stratégie de gestion.
Risques Rupture du système de tirant de freinage et de suspentes du fait d’un mauvais fonctionnement de l’ouvrage.
Objectif de l'étude Qualifier et quantifier le fonctionnement de l’ouvrage réel pour déterminer les travaux à réaliser
Contexte :
L’objectif de l’instrumentation mise en place sur le viaduc d’Austerlitz sur la ligne 5 du métro à Paris, était d’évaluer
le comportement de l’ouvrage pour aider à définir les réparations à effectuer.
Le viaduc d’Austerlitz permettant à la ligne 5 du métro de franchir la Seine à Paris, a été construit en 1903-1904. Il
est constitué par un tablier métallique suspendu à deux arcs à trois articulations. L’ouvrage est en acier assemblé
par rivets. Il a été largement renforcé par soudure dans les années trente pour accepter des convois plus lourds.
Instrumentation :
L’instrumentation a été mise en place 2 ans avant la date prévisionnelle des travaux et portait sur :
› Les nœuds de contreventement supérieurs de l’ouvrage afin d’évaluer et de quantifier les efforts pouvant
être à l’origine d’une fissuration en tête de plusieurs suspentes du viaduc.
› Le système permettant la dilatation du tablier. Ce système constitué de tirants avec deux bielles centrales
et de liaisons mâles-femelles était corrodé et fonctionnait de manière imparfaite.
› Le fonctionnement global de l’ouvrage : déformations/contraintes dans les arcs, au niveau du tablier et dans
certaines suspentes.
ROBOT
Instrumentation OSMOS (MF67 50% voyageurs voie 2 puis voie 1=)
➤ 2
011 - Modélisation des éléments pathogènes du viaduc d'Austerlitz BLACHET Diane
Métro ligne 5 à la traversée de la Seine entre Gare d'Austerlitz et Quai de la Rapée
Risques Endommagement de la station de métro pendant la réalisation des travaux de prolongement de la ligne E.
Contexte :
Dans le cadre du prolongement de la ligne E du RER vers la Défense, le projet a prévu la construction d’une gare
profonde à proximité immédiate de la double voûte de la station Porte Maillot de la ligne 1 du métro à Paris.
Construite en maçonnerie en 1937, la stabilité de la voûte est assurée par la butée du sol présente au niveau des
piédroits.
On peut voir ci-après, sur la coupe schématique d’avant-projet, la future gare à gauche avec la représentation de
la station Porte Maillot de la ligne 1 en rouge à droite. La nouvelle gare est réalisée en parois moulées à une
distance parfois inférieure à deux mètres de la station existante du métro. La ligne 1 du métro est fréquentée par
plusieurs centaines de milliers de voyageurs par jour. Il était donc essentiel que les travaux n’engendrent ni d’arrêts
d’exploitation sur cette ligne automatique, ni de désordre sur la structure maçonnée de la station.
Instrumentation :
Afin de limiter l’endommagement de la double voûte de la station Porte Maillot de la ligne 1 du métro, des seuils de
déplacements et de déformations ont été définis sur la base du retour d’expérience d’autres opérations, ainsi que
sur des modélisations. Une instrumentation en continu de l’ouvrage par théodolite et cibles a été mise en place
pour suivre ces déplacements. Cette instrumentation a été mise en place plus d’un an avant le début des travaux
afin de pouvoir suivre et quantifier les effets thermiques liés aux variations saisonnières.
Différents seuils ont été fixés, seuil de vigilance, seuil d’arrêt de chantier et seuil d’arrêt d’exploitation de la ligne 1.
Pour permettre de réagir avec la diligence nécessaire en cas de dépassement d’un de ces seuils, des astreintes
24h/24 et 7j/7 ont été mises en place aussi bien du côté projet que du côté RATP.
La figure suivante montre la coupe de la station du métro avec les sens de déplacements suivis (dans les trois
directions).
Secteur GPM - station double voûte
Arrêt Arrêt de
Déplacement Vigilance
exploitation chantier
Ua, Ub, Uc 15 mm 12 mm
20 mm
déplacement total
Uza, Uzb, Uzc 12 mm 10 mm
16 mm
déplacement vertical
Uxa, Uxb, Uxc 12 mm 10 mm
16 mm
déplacement horizontal
|Uza-Uzb|, | Uzb-Uzc| 0,5‰ 0,4‰
0,6‰
différentiel vertical
➤ Figure 2 : Vecteurs déplacement pour une station double voûte (GPM) |Uxa-Uxb|, | Uxb-Uxc|
0,6‰ 0,5‰ 0,4‰
différentiel horizontal
On peut voir sur la coupe transversale suivante le positionnement des cibles de mesures (triangles bleus) qui
permettent de suivre les déplacements et les déformations de l’ouvrage.
Risques Renforcement excessif / surabondant de la structure pour des vents extra-réglementaires nécessitant une analyse spécifique
du comportement structurel réel sous les phénomènes venteux
Objectif de l'étude Vérification de la capacité de la tour à reprendre les sollicitations à partir d’une définition des renforcements éventuels.
Contexte :
La société Télédiffusion de France (TDF) possède une tour antenne relais située à proximité du Mont Pilat, dans
le département de la Loire (42). Cette antenne se compose d’une structure de béton armé de 50 m de haut coiffée
d’un pylône métallique.
A l’issue de la tempête de 1999 dont les vents enregistrés ont été parti-
culièrement importants et ont dépassé les valeurs théoriques de calculs
règlementaires, des études structurelles du fût en béton armé ont été
lancées et ont montré une faiblesse de la structure nécessitant des renfor-
cements structurels importants de l’ouvrage.
Cette mission a été réalisée par Setec diadès pour les études structurales en partenariat avec ARGOTECH pour
l’instrumentation de la tour.
Elle comprenait :
› l’inspection de la tour en béton armé et l’instrumentation spécifique adaptée aux contraintes du site et aux
contraintes d’exploitation de la tour,
› la définition des seuils d’alerte et d’avertissement en fonction des vitesses de vent enregistrées,
› la modélisation de la tour aux éléments finis pour analyse du comportement théorique de la tour,
› l’analyse des déformations enregistrées en fonction des vents pour valider le modèle théorique et notamment
les coefficients aérodynamiques retenus pour la structure,
› les vérifications structurelles règlementaires de la structure afin de déterminer le renforcement règlemen-
tairement nécessaire,
Instrumentation :
Couplé à ce déclenchement de seuil, une alerte SMS était envoyée aux bureaux d’études en charge de ce suivi.
Résultats :
Les données ont été traitées de manière à définir les valeurs de vent mesurées, les directions des vents dominants
par périodes de temps (jour, semaine, mois…), ainsi que d’étudier les corrélations entre les déformations en peau de
béton observées et les températures et gradients par temps froid et par temps printanier et sous vent conséquent
(environ 80 km/h). Les valeurs étant, dans un 2nd temps, utilisées pour la calibration du modèle de calculs.
Les analyses ont montré que le modèle sophistiqué corrélait bien l’instrumentation mise en œuvre destinée à
mesurer le comportement réel de la tour, afin notamment de mettre en évidence les effets du gradient thermique et
du vent et, en définitive, de rechercher à alléger le programme de renforcement.
Date de l'étude
Contexte :
La caserne de pompier d’Epinay-sous-Sénart a été agrandie. Les travaux de remblaiement et de terrassement avec
compactage ainsi que la réalisation de colonnes ballastées étaient susceptibles d’occasionner des désordres au
viaduc d’Epinay limitrophe.
La surveillance topographique automatique effectuée à l’aide d’un Cyclops® a permis de garantir la précision de
0.5 mm demandée en X, Y et Z. Le seuil de tassement était fixé à 2,5 mm. L’appareil était installé sur la tour d’entrai-
nement de la caserne de pompier.
Pour le suivi vibratoire, les seuils applicables aux ouvrages classées très sensibles ont été préconisés par la SNCF
conformément aux préconisations de la circulaire du 23 juillet 1986.
Les géophones installés sur les piles d’ouvrage et pilotés par la Gorgone® mesurait une vitesse particulaire sur 3
axes.
Les alertes étaient émises via une sirène localisée sur site et le système était programmé pour l’envoi de SMS et
email aux personnes désignées.
Objectif de l'étude Surveillance de la stabilité des murs pendant les travaux de réhabilitation
Date de l'étude
Contexte :
Situé dans le 10ième arrondissement de Paris, le cinéma Le Louxor est l’un des rares cinémas rescapés d’avant-
guerre et constitue un exemple d’architecture antique des années 20, doté d’une façade néo-égyptienne.
Dans ce contexte, un réseau de tassomètres hydrostatiques de hautes précisions a été mis en œuvre.
➤ Réseau de tassomètres
Les mesures effectuées sur site étaient transmises automatiquement sur les serveurs de Sixense Monitoring pour
consultation via l’interface Geoscope®. Des alertes étaient envoyées en cas de dépassement de seuils.
➤ P
rincipe de
fonctionnement
des tassomètres
hydrostatiques
Le système de mesure mis en place était constitué de capteurs à cellules de pression. Le principe de mesure
est basé sur celui des vases communicants permettant de mesurer en temps réel des tassements différentiels.
Chaque capteur mesure la pression exercée par la colonne de fluide qui la sépare du réservoir de référence. Les
cellules peuvent être placées à différentes altitudes dans la plage de fonctionnement des capteurs.
Les cellules ainsi que le point de référence sont équipées de capteurs de pression de haute précision. Les diffé-
rentes pressions mesurées sont traduites en hauteur d’eau. Tout déplacement de l’un de ces points entraîne une
variation de pression correspondant à l’amplitude du mouvement de tassement ou de soulèvement. Le capteur
de référence est placé sur un point réputé stable, la mesure de pression à son niveau sert de référence aux autres
capteurs. L’ensemble des capteurs était relié à une centrale d’acquisition.
La mise en place de capteurs de ce type sur un tel projet de rénovation a nécessité la prise en compte de disposi-
tions spécifiques dès la conception de la chaîne de mesure :
1) Implantation des capteurs dans le faisceau de la gamme de mesure. La différence de hauteur entre le capteur
le plus bas et le capteur le plus haut ne devait pas excéder à 500 mm,
2) Protection des capteurs ➞ coffrage + marquage,
3) Protection des câbles et des tubulures pour les fluides ➞ gaine + marquage.
Risques Rupture de l’ouvrage du fait d’une structure très dégradée pouvant engendrer des risques pour les ouvriers travaillant à son
renforcement et créer une pollution maritime du fait des canalisations de gaz supportées
Contexte :
L’ouvrage présenté ici est un ouvrage très sensible. Il s’agit d’un pipeway permettant le déchargement de produits
chimiques de bateaux pour alimenter une importante usine de transformation.
Le pipeway est un ouvrage à 3 travées constitué d’un tablier reposant sur 2 poutres. Cet ouvrage était fortement
dégradé : poutres corrodées par le sel avec armatures inférieures complètement dégagées, appuis dégradés.
Ce pipeway nécessitait une réparation urgente mais assurer son exploitation avant travaux était vital pour l’usine.
Les contraintes imposées étaient importantes :
» déchargements des bateaux en sécurité afin d’éviter de graves pollutions des milieux marins,
» assurer une sécurité des personnels (sous l’ouvrage) lors de la réparation et notamment des purges des
poutres.
L’ouvrage est situé dans une région soumise à de grandes et rapides variations thermiques.
Instrumentation :
ARGOTECH a mis en place des fissuromètres sur les fissures principales, cependant cette instrumentation n’était
pas assez globale pour assurer un suivi sécuritaire. Il a donc été décidé une mesure directe de la flèche de la
structure.
Stratégie de surveillance :
Compte tenu de l’obligation de sécurité, et des conditions environnementales rapidement variables (vent, tempéra-
ture) la fréquence d’acquisition a été paramétrée à 1 acquisition toutes les 10 minutes.
La centrale d’acquisition envoie les données instantanément sur un serveur et l’ensemble des traitements est
effectué en ligne par le logiciel STRUMA développé par ARGOTECH.
Une première période (période d’apprentissage) a permis de définir le comportement de la poutre en fonction de la
température et d’établir ainsi les corrections thermiques à appliquer aux données brutes.
Des seuils de pré-alerte et d’alerte ont été définis ainsi que la durée de dépassement continu avant envoi de
messages – durée définie à 2 heures – ce qui a permis de s’affranchir des secousses liées à l’accostage des
bateaux.
➤ L
ogigramme définissant
Calcul des flèches la stratégie de surveillance
corrigées thermiquement
Analyse des
Dépassement de seuils de préalerte Message infos capteur
Risques Fissuration excessive des voutes en cas de dépassement des hypothèses de tassements
Objectif de l'étude Caractérisation du comportement de la culée Rive droite avant travaux. Suivi décennal des tassements des 2 viaducs d’accès
après travaux.
Contexte :
Les 2 culées du pont Eiffel de Saint-André-de-Cubzac, notamment en Rive Droite, montrent des tassements
importants induisant une importante fissuration de la maçonnerie. Le marché en Conception-Réalisation des
renforcements des viaducs d’accès de l’ouvrage incluait l’étude des confortements des fondations et leur réalisa-
tion avec une limitation dans le temps (10 ans) des tassements.
Le pont Eiffel est un pont métallique s’appuyant sur 2 viaducs d’accès construits en pierre au 19ème siècle, compor-
tant une culée à 4 piles, et 27 piles pour l’accès.
La difficulté majeure, pour cette phase était de suivre les tassements avec une précision de l’ordre du 1/100mm.
Malgré les conditions environnementales très difficiles (Inondations par débordement de la Dordogne), il a été
décidé d’installer des capteurs de nivellement de haute précision (de l’ordre du micromètre). Ces capteurs (HLS)
nécessitent une installation très précise et un maintien dans un environnement « propre », à l’opposé des conditions
d’un chantier de travaux de Génie Civil.
De nombreuses difficultés ont été surmontées et les résultats de suivi ont été excellents montrant la faisabilité
d’utilisation de tels capteurs, en conditions « extrêmes ». La figure ci-dessous montre un exemple de suivi des
tassements de la pile culée en fonction de la variation de hauteur de la Dordogne.
Pour la phase 2, les capteurs de nivellements ont dû être démontés afin de pouvoir réaliser les travaux de confor-
tement des fondations de la pile culée (micro pieux). Le suivi était alors uniquement assuré par les fissuromètres.
Après travaux sur les fondations, les capteurs HLS ont été réinstallés pour effectuer un suivi précis de l’impact des
travaux (Mise en charge des micro pieux) sur le comportement de la pile culée.
Le suivi du rejet et de l’ouverture amont/aval de la fissure transversale a permis de sécuriser le chantier durant les
travaux.
Les figures ci-dessous montrent le suivi pendant cette phase, et la stabilisation progressive des tassements et des
mouvements de la fissure par mise en charge progressive des micro pieux.
Le cahier des charges prévoyait un suivi décennal des tassements de l’ensemble des viaducs Rive Droite et Rive
Gauche. Pour ce suivi, une chaîne de mesure très originale a été conçue, à partir d’une référence de niveau d’eau,
avec de nombreuses innovations :
» Maîtrise de la hauteur du niveau d’eau par capteur de nivellement de précision (HLS). Ces capteurs sont
installés dans la culée creuse (En début de viaduc), sur micro pieu
» En Rive Gauche, une chaîne de mesure avec capteur de pression haute précision a été conçue et
installée
» En rive Droite, une chaîne mixant des capteurs de pression haute précision et des capteurs de nivelle-
ment de précision (HLS) a été conçue sur la même ligne de niveau d’eau. L’installation a nécessité un
repérage très précis de la position de l’ensemble des capteurs (erreur maxi inférieure à 1 cm).
» L’évaporation ou fuites de l’eau du circuit est maitrisée par un remplissage automatique par l’ouverture/
fermeture d’une électro vanne pilotée par les mesures du capteur sur la référence.
» La longueur du viaduc étant de l’ordre de 300 m, une attention a été portée sur les câbles de liaison
capteurs-centrales d’acquisition. Pour restreindre les longueurs de câbles, une instrumentation en mode
bus a été développée par l’introduction d’un convertisseur au niveau des capteurs.
» Les capteurs HLS dérivant peu, la dérive des capteurs de pression est identifiée et maitrisée par :
• Un doublement de mesure capteur de pression / capteur HLS sur la référence en Rive Gauche,
• Un capteur de pression sur le micro pieu de référence près de la culée, en Rive Droite.
» La dérive éventuelle est minimisée, en alimentant la chaîne de mesure uniquement le temps de la
mesure.
Les photos ci-dessous résument l’installation de ce chantier original pour la mesure précise des tassements.
Objet Suivi du pylône en béton armé du Pont de Seyssel présentant une fissuration importante
Risques Rupture du pylône du fait d’une présence de RGI par le suivi de l’évolution des désordres visibles observés.
Objectif de l'étude Qualifier à tout moment l’évolution du pylône et détecter tout phénomène préjudiciable, en particulier les conséquences d’un
accroissement de la fissuration conduisant à une souplesse trop grande de la structure.
Contexte :
Le pont à haubans de Seyssel permet le franchissement du Rhône par la RD 992.
La structure mixte du tablier est constituée de deux poutres métalliques supportant une dalle en béton armé.
Ce tablier est soutenu par 18 paires de haubans accrochés à un pylône central en forme de Y renversé dont les
fondations reposent sur une île naturelle présente au milieu du fleuve.
Le pylône en béton armé présente des signes de vieillissement, en particulier une fissuration verticale des jambes.
Afin de maîtriser le risque constitué par cette fissuration du pylône, le département de l’Ain a souhaité mettre
en œuvre un suivi continu des déformations de ce dernier. La solution retenue est basée sur une surveillance
concentrée sur les points critiques du pylône, et permettant d’estimer la déformation complète de celui-ci.
Instrumentation :
Pour ce projet, OSMOS a mis en œuvre une surveillance dynamique avec 8 extensomètres à fibre optique en base
longue avec une longueur des capteurs de 2 m (Cordes Optiques). La température est également mesurée afin
d’intégrer les effets thermiques.
➤ D
ispositif représenté pour une face
du pylône, identique sur l’autre face
Le modèle inverse : Les mesures des déformations sont ensuite utilisées par un modèle inverse afin d’estimer
toute information structurale liée au pylône qui ne peut pas être mesurée directement : la déformée en tout point,
la flexion, les efforts tranchants. Les informations sont obtenues en faisant des hypothèses sur le comportement
élastique et linéaire du pylône – faibles déformations, à l’ELS.
L’application du modèle inverse au Pont de Seyssel donne une image complète du comportement de la structure
du pylône sous les charges du trafic (la déformée est estimée 50 fois par seconde en tout point du pylône), ainsi
que les forces internes et la descente des charges des câbles. Ci-dessous un exemple de la déformée et des
diagrammes des efforts et moments obtenus à tout moment lors d’un passage d’une charge roulante :
L’identification des passages des camions les plus lourds permet une étude statistique des évènements dyna-
miques. Ici, chaque point gris du nuage des points est un passage dynamique.
Analyse vibratoire :
Cette instrumentation permet également l’analyse des modes de vibration de la structure qualifiés par leur
fréquence et forme.
Pesage :
Suite à une calibration réalisée sur site avec des passages des camions de poids et vitesse connus, le système
permet également de calculer le poids total des charges roulantes, l’analyse statistique étant ainsi enrichie. Le
Maître d’Ouvrage connait non seulement le flux du trafic mais aussi l’évolution du poids des charges en corrélation
avec le comportement structural à long terme. Cela permet au gestionnaire de l’ouvrage d’anticiper toute évolution
du comportement de sa structure.
Conclusion :
Le système de monitoring basé sur seulement 8 capteurs de déformation donne une très grande quantité d’infor-
mation, qui offre au Conseil Départemental une bien meilleure connaissance de son ouvrage.
L’exemple du Pont de Seyssel montre comment la mesure de la déformation en continu à des endroits clés de
l’ouvrage peut être convertie en une multitude d’informations sur le comportement mécanique de la structure. Le
modèle inverse et les outils statistiques sont utilisés pour obtenir des informations à des endroits où il n’y a pas de
prise de mesure directe. Cela donne une image des charges réelles subies par la structure, et permet au gestion-
naire de prévoir les opérations de maintenance adéquates et de maîtriser ainsi les risques par l’instrumentation.
Objet Suivi du pont en maçonnerie sur la Vière présentant des désordres (fissures)
Risques Rupture de l’ouvrage du fait d’un mauvais fonctionnement et de la présence de nombreux désordres structuraux
Objectif de l'étude Qualifier à tout moment l’évolution de la voûte du pont et détecter tout phénomène préjudiciable, en particulier les consé-
quences d’un accroissement de la fissuration conduisant à une diminution de la capacité portante de la structure. L’ouvrage
est instrumenté depuis trois ans.
Contexte :
Le pont sur la Vière à Glandage (Drôme) est un pont en maçonnerie construit au XIXème siècle. Il permet le fran-
chissement de la Vière par la RD 539. Il est constitué d’une voûte ogivale unique directement appuyée sur des
culées à flanc de falaise.
Les Inspections Détaillées Périodiques successives du pont, en 1994, 2000, 2008 et 2014, montrent des désordres
significatifs qui semblent évoluer : importantes fissures horizontales en partie supérieure des tympans, joints creux
sous la douelle.
Les relevés topographiques montrent une évolution générale de l’ouvrage sous l’effet de la poussée des falaises,
qui se rapprochent, avec une remontée de la clé associée à une mise en flexion de la voûte.
Instrumentation :
Pour ce projet OSMOS a mis en œuvre une surveillance dynamique avec 8 extensomètres à fibre optique en base
longue avec une longueur des capteurs de 2 m (Cordes Optiques). La température est également mesurée afin
d’intégrer les effets thermiques. Le site n’étant pas doté d’une alimentation électrique, des capteurs autonomes
sans fil ont été choisis.
La mesure de la flexion à la clé est complétée par une mesure de l’évolution de la compression de l’arc à proximité
de ses appuis, au moyen de capteurs de déformation également.
Des sondes de température complètent le dispositif afin de distinguer les déformations normales dues aux varia-
tions thermiques de celles dues au rapprochement des culées.
L’enregistrement en continu permet d’identifier les évènements dynamiques sollicitant l’ouvrage (passages de
poids-lourds) et de mesurer leurs effets avec une fréquence d’acquisition élevée (50 Hz) : on étudiera ainsi le retour
à l’état initial de l’ouvrage après chaque sollicitation dynamique et l’amplitude de ces dernières.
Résultats :
Les mesures statiques montrent les cycles annuels – on distingue bien les trois années de suivi :
La représentation de ces déformées permet d'identifier une mise en parallélogramme de l'ouvrage sur les vues en
plan, correspondant au cumul du mouvement latéral des deux rives l'une par rapport à l'autre et de leur rappro-
chement. Cette mise en parallélogramme s'accentue d'une année à l'autre, avec un déplacement latéral maximal
de 9 mm.
On retrouve également le déplacement vertical de la clé de voûte, lui aussi croissant d'une année à l'autre et qui
atteint un maximum de 70 mm côté aval et de 39 mm côté amont depuis le début du suivi.
Conclusion :
L’analyse des mesures obtenues en continu sur le pont sur la Vière permet de tirer les conclusions ci-dessous.
La clé de voûte fléchit progressivement vers le haut sous l’effet du rapprochement des rives et du bridage de la
voûte en saison estivale. Cette flexion se traduit par une déformation significative des fibres extrêmes de la voûte
correspondant à la formation d'une rotule. Cette évolution est à surveiller attentivement, elle présente un cycle
saisonnier qui se superpose avec une évolution de long terme plus lente.
Le comportement des pieds d’arcs montre une mise en parallélogramme de l’ouvrage : compression plus impor-
tante sur les pieds d’arcs amont rive gauche et aval rive droite que sur les pieds d’arc amont rive droite et aval rive
gauche. Cette tendance est plus légère que celle de la formation de la rotule en clé de voute, avec un maximum de
déformations durant l’été.
Le système de monitoring basé sur seulement 8 capteurs de déformation donne une très grande quantité d’infor-
mation, qui offre au Conseil Départemental une bien meilleure connaissance de son ouvrage.
L’exemple du Pont sur la Vière montre comment la mesure de la déformation en continu à des endroits clés de
l’ouvrage peut être convertie en une multitude d’informations sur le comportement mécanique de la structure.
La modélisation a été utilisée pour obtenir des informations à des endroits où il n’y a pas de prise de mesure
directe. Cela donne une image des charges réelles subies par la structure, et permet au gestionnaire de prévoir les
opérations de maintenance adéquates et de maîtriser ainsi les risques par l’instrumentation.
10
BIBLIOGRAPHIE
[1] Instruction Technique pour la Surveillance et l’Entretien des Ouvrages d’Art – Fascicule 3 – Auscultation, surveil-
lance renforcée, haute surveillance, mesures de sécurité immédiate ou de sauvegarde – SETRA – 2010
[2] ISO 13824 :2020 « Bases du calcul des constructions – Principes généraux sur l’évaluation du risque pour les
systèmes comprenant des structures »
[3] JCGM 200 :2012 - Vocabulaire international de métrologie – Concepts fondamentaux et généraux et termes
associés (VIM) – 3ème édition – Version 2008 avec corrections mineures
[4] Eymard R, Jacob B. « Le logiciel CASTOR pour le Calcul des Actions et des Sollicitations du Trafic sur les
Ouvrages Routiers ». Bulletin des LPC 1989 ;164 :64-77
[5] « Guide de conception et de justification – PONTS METALLIQUES ET MIXTES – Résistance à la fatigue ». Rédigé
en collaboration par le SETRA, la SNCF et le CTICM.
[7] Projet ARVISE – Programme national ANR, RGCU, 2006 - « Analyse et réduction de la vulnérabilité sismique du
bâti existant » - 2007-2010
[8] Benchmark SMART 2013 – « Enseignement sur les indicateurs d’endommagement pour les bâtiments en béton
armé au-delà du niveau de dimensionnement »
[10] LCPC OA61 - Evaluation structurale des ponts – Rapport de synthèse de l’opération de recherche (2004 – 2007)
sous la direction de Christian CREMONA
[11] Guide technique LCPC :2009 – Investigations et évaluations dynamiques des ponts
[12] Maîtrise des risques associés aux ouvrages d’art – SETRA – Janvier 2013
[13] Analyse des risques appliquée aux viaducs à travées indépendantes en poutres précontraintes (VIPP) – SETRA
– Novembre 2010
11
LISTE DES FIGURES
Figure 2 : Principe général de l’analyse des risques - tableaux issus des guides [12] et [13]....................................10
Figure 3 : Pont de la Concorde - détail du ferraillage de l’appui cantilever mal conçu puis mal exécuté..................12
Figure 4 : L
es inspections visuelles ne peuvent pas toujours détecter les indices précurseurs
d'une telle rupture...........................................................................................................................................12
Figure 6 : Passage en crabe d’un convoi exceptionnel de 560 t sur ouvrage d’art.....................................................15
Figure 10 : E
xemple de suivi des avoisinants dans la zone influence géotechnique
avec théodolite automatisé (suivi de surface) et section renforcée (suivi du sous-sol)
dans le cadre du creusement d’un tunnel...................................................................................................20
Figure 22 : Correction thermique des déformations mesurées sur une année par méthode directe........................42
Figure 23 : C
orrection des mesures par méthode inverse basée sur la température
et une déformation rémanente considérée comme linéaire sur la période..............................................42
Nota : Les illustrations de ce document proviennent des membres du groupe de travail. Les sources ne sont pas détaillées
pour ne pas alourdir sa lecture.
http://www.imgc.fr/