É«¶à¶àÊÓÆµ

¸éé²¹²õ²õ³Ü°ù²¹²Ô³¦±ð
Explore our offerings
Explore our offerings
Ressources et outils :

Ecrit par

Directrice générale, É«¶à¶àÊÓÆµRisk Consulting

La ville de San Francisco a récemment annoncé un partenariat avec le Lawrence Berkeley National Laboratory en vue de modéliser les tempêtes du Pacifique. Selon le San Francisco Chronicle, l’initiative serait « une première nationale visant à aider les autorités municipales à orienter leurs investissements en infrastructure, de la fortification de l’aéroport de San Francisco à la modernisation du système de drainage de l’autoroute en passant par la restructuration des digues ».

Le journal ajoute que « les simulations vont permettre de rendre plus précise l’estimation de l’impact probable du réchauffement climatique et permettre aux autorités de comprendre comment le climat diffèrera à San Francisco du reste de la région ».

Ce degré de précision et de granularité représente une amélioration considérable par rapport aux précédentes générations de modèles informatiques simulant des systèmes naturels et en quantifiant les répercussions potentielles.

Les leçons de l’ouragan Andrew

L’ouragan Andrew, qui a dévasté le sud de la Floride en 1992, a engendré 27,3 milliards de dollars de dommages, dont 15,5 milliards de pertes assurées -entraînant la faillite de neuf assureurs. Il s’agissait à l’époque, pour les États-Unis, de l’ouragan atlantique le plus destructeur à date. (Il est désormais considéré comme le huitième ouragan atlantique en termes de pertes financières).

Andrew, ainsi que plusieurs désastres majeurs survenus à la même période, ont démontré les limites d’une approche purement actuarielle pour évaluer les risques associés aux catastrophes naturelles.

Incidemment, le début des années 1990 est également une période au cours de laquelle la capacité de traitement des ordinateurs s’est considérablement développée, tout comme notre compréhension de l’atmosphère, des océans et de la géologie -grâce à l’accès à de nouvelles données satellitaires.

Ces nouvelles données, ces capacités technologiques et les leçons tirées d’Andrew ont donné une impulsion qui a favorisé la création de nouveaux modèles informatiques visant à quantifier les effets potentiels des catastrophes naturelles.

Un outil vital pour les ré/assureurs

Revenons maintenant à aujourd’hui. Plusieurs entreprises proposent des modèles couvrant une variété de périls, parmi lesquels les inondations, les tempêtes, la chaleur, les feux de forêt et les tsunamis. L’étendue géographique de ces modèles s’est également considérablement élargie. Il existe certes toujours quelques lacunes et certains périls ont été davantage modélisés que d’autres, mais la plupart des régions du globe où les catastrophes naturelles représentent une menace substantielle sont couvertes par un, voire plusieurs modèles.

Ces modèles sont principalement utilisés par les ré/assureurs pour prendre des décisions quant à la souscription ou la tarification de certains risques, et les aider à gérer leurs accumulations dans les zones à risques. Ils sont également utilisés par certains gouvernements et des organisations humanitaires pour anticiper et se préparer à certains évènements.

Jusqu’à présent, cependant, ces modèles et ces capabilités n’étaient pas utilisées de manière individuelle par nos clients, pour -par exemple- analyser leurs expositions à différents évènements naturels.

Des applications spécifiques à chaque client

Comme l’indique l’initiative de San Francisco, cela est en train à changer. Aujourd’hui, les experts de la data, les scientifiques, les actuaires, les consultants en gestion de risque et les modélisateurs bénéficient :

  • D’une profusion de données provenant de plus de sources et de sources plus variées, y compris des flux d’images satellitaires enregistrant des évènements de manière plus précise et granulaire ;
  • Une meilleure compréhension -certes relative- des causes, des dynamiques et des effets de différents évènements naturels ;
  • De réseaux d’ordinateurs toujours plus puissants permettant d’analyser ces données et de simuler différents systèmes naturels, ainsi que des techniques de plus en plus sophistiquées de mapping et de visualisation.

En tant qu’assureur, nous indemnisons un grand volume de sinistres liés aux catastrophes naturelles. Notre historique de sinistres, recouvrant plus de 30 pays, est une ressource extrêmement utile pour comprendre les effets de différents types d’évènements, dans différentes régions du monde. Cela nous permet d’apprécier où, quand et pourquoi le bât blesse. En analysant les pertes de nos clients liées aux inondations, nous pouvons par exemple prédire de manière précise l’étendue d’inondations dans un bassin donné.

Nos ressources et notre expertise sont par ailleurs complétées par des partenariats avec plus de dix institutions académiques en Europe, aux États-Unis et en Asie, qui sont impliquées dans des travaux de recherche de pointe sur des périls tels que les ouragans et les cyclones, les tremblements de terre et les feux de forêt.

É«¶à¶àÊÓÆµRisk Consulting a développé des services d’analyse du risque, basés sur nos propres modèles, afin d’aider nos clients à mieux comprendre où et comment leurs opérations à travers le monde pourraient être affectées par différents évènements naturels.

Effets et conséquences

Développer un service de modélisation des risques liés aux catastrophes naturelles, spécifique à chaque client, n’est qu’un point de départ. Adopter une compréhension en profondeur de la fréquence, de l’intensité et de l’étendue d’un assortiment d’évènements naturels est critique mais n’est pas suffisant dans le contexte d’un programme de gestion du risque d’une entreprise qui vise à gérer et minimiser la variété de risques auxquels elle est confrontée.

Pour les clients exposés à ces évènements, plusieurs questions se posent : Quel est l’impact sur les ressources de l’entreprise, pour chacun de nos sites ? Pouvons-nous identifier où nous sommes vulnérables et notre degré de vulnérabilité pour différents scenarii ? Quelles sont les conséquences potentielles, notamment financières, auxquelles l’entreprise doit se préparer ?

Les simulations stochastiques spécifiques à nos clients nous permettent d’émettre des hypothèses quant à la probabilité d’occurrence de certains évènements, comme des ondes de tempête ou des forces sismiques. Nous pouvons ensuite incorporer ces données à celles de leurs sites situés dans des zones à risques pour identifier leurs vulnérabilités, ainsi que les effets potentiels de différents évènements naturels.

Pour ce dernier composant de l’analyse -à savoir les données concernant les sites de nos clients- nous prenons en compte des facteurs standards comme la localisation, la taille, l’occupation et le type de construction d’un immeuble. Nos modélisateurs et nos ingénieurs incorporent ensuite d’autres éléments à leur analyse :

  • Pour les structures sensibles aux vents forts, la qualité de la construction et le type de revêtement ;
  • Pour les sites sujets au risque sismique, des informations détaillées concernant les fondations ;
  • Pour les bâtiments exposés au vent, des détails sur la toiture, comme la géométrie, l’âge, le type et la condition de la couverture.

Note catalogue de données liées aux sinistres, qui couvrent à la fois des évènements catastrophiques et non-catastrophiques, est essentiel pour calibrer les conclusions de ces analyses.

Armés de ces évaluations détaillées permettant d’identifier et de souligner leur exposition aux catastrophes naturelles, les risk managers et les directeurs financiers sont en mesure de déterminer de manière plus fiable la probabilité que leur entreprise subisse des pertes financières et assurantielles, pour chaque site. En d’autres termes, ces analyses peuvent faire ressortir des éléments de réponses aux questions suivantes :

  • Quelle est la probabilité relative que mon entreprise soit confrontée à des pertes excédant XX millions d’euros au cours des trois prochaines années ?
  • Quels sites sont les plus exposés aux catastrophes naturelles et, en conséquence, où l’entreprise doit-elle concentrer ses efforts et ses ressources, et pourquoi ?
  • Les limites des couvertures de l’entreprise sont-elles trop basses ? Ou au contraire trop élevées ?

Je voudrais également souligner que ces questions -et d’autres- doivent être approchées de manière interactive et itérative. Nos modélisateurs, nos ingénieurs, et les scientifiques avec lesquels nous collaborons travaillent étroitement avec nos clients pour les aider à comprendre les probabilités associées à une simulation et à analyser les scenarii résultant de différentes hypothèses ou de différentes variables.

Selon le responsable de la nouvelle initiative de la ville de San Francisco : « Pour prendre des décisions quant aux stratégies d’adaptation que nous devons mettre en place et aux ressources financières à solliciter, nous devons avoir des points de données ».

Bien que cela ait toujours été le cas, les outils de modélisation et d’analyse sophistiqués dont nous disposons aujourd’hui permettent à différents types d’organisations -sociétés privées, gouvernements et collectivités territoriales, organisations non gouvernementales et humanitaires- de développer une vision plus complète des risques associés aux évènements naturels auxquels ils doivent se préparer.

Corinne Vitrac dirige É«¶à¶àÊÓÆµRisk Consulting, le pôle d’É«¶à¶àÊÓÆµdédié à l’ingénierie du risque. Elle est basée à Paris et peut être contactée à corinne.vitrac@axaxl.com.

Pour contacter l’auteur de cet article, merci de compléter le formulaire ci-dessous.

±Ê°ùé²Ô´Ç³¾ (champ obligatoire)
Nom (champ obligatoire)
Sélectionnez votre pays
adresse email incorrecte Adresse email (champ obligatoire)
 
Invalid Captcha
S'abonner

Plus d’articles

S'abonner à Fast Fast Forward