Estimer les dommages d’un séisme à partir des informations existantes
Publié par Farouk Abdou, le 11 avril 2014 3.6k
Prédire les dégâts qu’entraînerait un séisme comme celui du 7 avril dernier à Grenoble ? Grâce au laboratoire IS Terre, c’est désormais possible.
Une équipe de scientifiques de l’Institut des Sciences de la Terre de Grenoble (IS Terre) a mis au point un modèle statistique innovant permettant d’estimer les dommages matériels que pourrait provoquer un séisme. Ce modèle constitue une perspective intéressante pour l’étude de vulnérabilité aux séismes, comme nous l’explique Philippe Guéguen, docteur en sismologie et membre de l’équipe.
Dans quel contexte avez-vous été amené à travailler sur le modèle ?
De nombreuses études de vulnérabilité "usuelles" conçues pour identifier des zones urbaines particulièrement exposées en cas de séisme ont été menées en France au cours des dernières années. C’est dans le cadre du programme Européen Risk-UE (qui date de 2006) que ce type d’étude avait été mené à Nice. Nous avons constaté que ces méthodes nécessitent des informations sur les bâtiments (structure, taille, matériaux de construction, etc.) dont l’accès implique des ressources conséquentes. Déployer des ressources dans un pays où le risque sismique est grand tel que les Etats-Unis ne présente pas de problème, mais dans un pays comme la France où le niveau d’aléa est moindre, c’est plus difficile.
L’objectif était donc d’imaginer un modèle qui permette d’avoir une estimation des dégâts matériels provoqués par un séisme à partir des informations existantes et facilement accessibles. En couplant ce modèle - s’il fonctionne - à nos systèmes de surveillance de la sismicité nous serons capables, dés qu’un séisme est enregistré, de fournir des informations et une estimation des dommages rapidement. C’est là tout le défi auquel le monde de la sismologie est confronté avec l’évolution technologique : on dispose d’un volume de données statistiques très conséquent, et il faut extraire une information pertinente de ces données dans les plus brefs délais après un évènement.
Quel est le principe de ce modèle et comment a-t’il été testé à Grenoble ?
Nous avons utilisé le concept de règle d’association (association rule learning) un procédé d’exploration de données permettant d’extrapoler des informations à partir d’une grande quantité de données disponibles. Pour faire simple : avec la règle d’association, il est possible, à partir de données sur deux ou plusieurs variables, d’obtenir des informations sur un paramètre précis. L’exemple le plus classique c’est la règle extraite des données de vente dans un supermarché qui indique qu’un consommateur qui achète des steaks hachés et des oignons est fortement susceptible d’acheter des pains à hamburger.
Pour notre étude, les deux paramètres de départ pour les bâtiments sont l’époque de construction et le nombre d’étages. Nous avons construit un modèle sur Grenoble où ces deux informations plus un indicateur de vulnérabilité ont été collectés sur le terrain et nous avons défini notre relation grâce à la règle d’association. Les deux paramètres sont aussi disponibles dans la base de données de l’INSEE et nous pouvons ainsi appliquer notre relation à ces données.
Est-il possible d’obtenir des résultats intéressants avec d’autres paramètres de départ ?
Oui, et cela a fait l’objet d’un travail en parallèle sur le terrain. Nous avons collecté des données sur d’autres paramètres de ces bâtiments. Pour voir si l’utilisation d’autres paramètres de départ n’apporte pas une meilleure estimation en réduisant les incertitudes. Une douzaine de variables a donc été étudiée, parmi lesquelles la forme du toit, la position du bâtiment, les matériaux de construction, et la densité urbaine (à partir d’images satellite).
Quels paramètres ont apporté le plus d’enseignements ?
Il a fallu assez vite écarter les matériaux de construction. La recherche d’information, en plus d’être fastidieuse, était inutile puisqu’on peut la conjecturer à partir de l’époque de construction du bâtiment. En revanche, l’utilisation de trois paramètres en particulier apporte une meilleure estimation et réduit les incertitudes pour nos résultats. Il y a la distance moyenne entre deux bâtiments, la mitoyenneté et le rapport de forme des bâtiments (rapport entre la largeur du bâtiment et sa longueur). Ces trois grandeurs varient suivant la zone urbaine, qu’on se trouve dans le centre-ville, en périphérie ou dans les quartiers à profil urbain "intermédiaire" c’est-à-dire les quartiers au sud de la patinoire (Abbaye, La Capuche, les Eaux-Claires, etc.).
Comment s’est articulée la suite du projet après les expérimentations à Grenoble ?
La première étude ayant été concluante, la priorité était de s’orienter sur des régions à plus forte sismicité. Dans le cadre du projet Urbasis de l’Agence Nationale pour la Recherche (ANR) soutenu par la fondation MAIF, nous avons testé le modèle à Nice sur d’anciens séismes. Tout en comparant nos résultats aux données récoltées par le programme Risk-UE 8 ans plus tôt. Les deux estimations sont sensiblement proches, mais la nôtre a exigé nettement moins de ressources que pour Risk-UE. Nous prévoyons des tests à Strasbourg, et l’idée sur un plus long terme serait de perfectionner notre modèle dans un contexte international. L’Amérique du Sud est notre destination préférentielle, sous réserve d’obtention de données précises (aussi bien sur les dommages des séismes que sur les bâtiments).
Envisagez-vous des tests sur le séisme du 7 avril dernier (de magnitude 4,8 sur l’échelle de Richter) qui a été ressenti sur tout le quart sud-est de la France ?
Il est prévu qu’on fasse des tests effectivement, en particulier près de l’épicentre, là ou les quelques rares dommages matériels ont eu lieu, à Barcelonnette par exemple. Cette zone (limitrophe des départements des Alpes-de-Haute-Provence et des Hautes-Alpes) suscite notre attention depuis longtemps, et avec les répliques éventuelles, cela sera encore le cas.
>> Illustrations : Nicolas (Flickr, licence cc), Philippe Guéguen