Intervention de Michel Broniatowski

Office parlementaire d'évaluation des choix scientifiques et technologiques — Réunion du 19 mai 2011 : 1ère réunion
Les installations nucléaires françaises face aux risques naturels

Michel Broniatowski, professeur au laboratoire de statistique théorique et appliquée de l'Université Paris VI Pierre et Marie Curie :

Une variable de risque est une variable que l'on va probabiliser ; cependant, modéliser le risque extrême est un exercice complexe, car, comme nous nous disposons de peu d'observations, le modèle n'a plus grand rôle. Typiquement, celui-ci est plus difficile à obtenir, faute de données, de sorte que l'on doit l'informer avec des lois physiques. Or on maîtrise moins la physique des phénomènes extrêmes, par manque de retour d'expérience. En outre, les valeurs extrêmes, en raison de leur grande dispersion, ne peuvent pas être modélisées de manière globale ; elles doivent être étudiées en tant que telles. Contrairement à un assureur établissant une tarification, on ne doit pas raisonner à partir de la cloche d'une courbe de Gauss. Partir de l'ensemble des données est souvent une erreur profonde.

Prenons la modélisation de la magnitude d'un séisme dans une approche probabiliste. Des modèles standards existent depuis les années cinquante sous le nom de la loi de Gutenberg-Richter. Leur but est d'obtenir une représentation locale de la répartition de la magnitude pour, entre autres, dimensionner les ouvrages. Sont-ils plausibles ? Non, car les récents travaux montrent qu'il faut travailler sur la notion de séisme maximal annuel, fondés sur le relevé des séismes maximaux enregistrés année après année, pour établir une courbe de fréquence des maxima. L'intérêt de cette méthode est sa stabilité. Attention, cependant, à l'interprétation de la période de retour : une probabilité d'un millième ne signifie pas que le risque se reproduira dans mille ans. A titre d'exemple, il serait aussi dangereux d'affirmer, au jeu de pile ou face, qu'on aura pile dans deux coups parce que la probabilité est de un sur deux. Résultat, si l'on s'intéresse à un événement dont la récurrence est de l'ordre de 1 000 ans, il faut considérer 6 000 ans... D'où un problème majeur sur l'utilisation de ces calculs. Néanmoins, leurs résultats sont intéressants à condition d'avoir une bonne estimation de la valeur maximale du séisme potentiel théorique, ce qui est le cas des Alpes.

D'autres modèles, développés en finances, permettent de prendre en compte des données extrêmes à plusieurs variables - ce sont, par exemple, en hydrologie la pointe, le volume et la durée. Ils sont importants pour le dimensionnement des ouvrages.

Pour conclure, un peu de bon sens statistique. La notion de période de retour est dangereuse - j'y ai insisté, et nous laissons les décideurs arbitrer. En revanche, il faut s'intéresser au séisme record à venir, c'est-à-dire celui qui dépassera le maximum observé. Une telle approche, développée depuis les années 1980, est possible pour les événements marqués par une certaine stabilité, de la récurrence. En bref, on travaille, non sur la durée qui sépare deux records successifs, mais sur le niveau du record. Certes, cette méthode reste tributaire de grandeurs (typiquement, le séisme maximal théorique dans la zone), mais c'est une piste à explorer. En tout état de cause, la modélisation probabiliste est la seule qui permette d'aller au-delà des données observées.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion