Actualité

Vue 121 fois
10 avril 2019

À propos du rôle de la gestion quantitative des risques

Le PIB de la France se situe à environ 2 300 milliards d’euros, soit environ 34 000 euros par habitant. Outre l'immobilier, les placements financiers notamment l'assurance vie représentent une part importante du patrimoine des ménages (plus de 1 600 milliards d’euros). Si la finance a une réputation sulfureuse en raison des passions qu’elle suscite, il faut garder à l'esprit que l'épargne en général représente un investissement important pour les ménages modestes. La santé financière des secteurs de la banque et de l’assurance est un facteur important de santé d’un pays, comme nous le rappelle la crise financière argentine en 2001 ainsi que le crise grecque en 2009.

Les dispositifs prudentiels Bâle 3 et Solvabilité 2 qui obligent les compagnies à mettre en place une gestion professionnelle de leurs risques reposent sur trois piliers. Le premier est quantitatif et correspond à une exigence de fonds propres. Il s'accompagne d'un deuxième pilier relatif aux processus de surveillance de la gestion de ces fonds propres. Enfin, le troisième pilier concerne le reporting et les informations publiées par les établissements.

Dans Solvabilité 2 on va s'assurer que la probabilité de défaut sur une année d’une compagnie est inférieure à 0,5 %. Ainsi, du point de vue du régulateur, sur mille compagnies, il y en aurait 5 à sauver « au pire » pour éviter un risque systémique. Le premier piler est ainsi très technique et quantitatif et s'appuie sur la capacité des compagnies à modéliser fidèlement leurs risques de manière à pouvoir décider des réserves à mettre en place. Le pilier part du postulat qu'avec des données fiables et de qualité on peut construire de beaux modèles pour analyser les risques.

L’une des premières préoccupations du gestionnaire de risques consiste à comprendre et formuler les hypothèses de travail avec le même soin que le ferait le maître d’ouvrage d’un système d’information. Il en profite pour analyser et spécifier la pertinence et la qualité des données dont il dispose.

Il est alors utile de rappeler ici, qu’en statistique, un modèle n’est jamais vrai. Il est acceptable au vu des données de bases et des résultats qui en sont déduits ou refusé ! Le domaine qui permet le mieux de s’en rendre compte est le médical. Une nouvelle molécule demande de longues années de tests avant sa mise sur le marché. Un fois utilisée lors des traitements, elle fait encore l'objet d'une surveillance attentive. Parallèlement, la modélisation des effets de la molécule va s’affiner dans le temps et être confirmée par l’expérimentation. En cas d’effet indésirable inacceptable, elle est retirée du marché.

Un modèle, pour être exploitable, se doit d'être robuste. Il passe par une « réduction » de la réalité afin de se concentrer sur l’essentiel. Par exemple, la modélisation employée pour comprendre le comportement global d'un risque n'est pas le même que celui employé pour modéliser des « cas extrêmes » (ex : pertes entraînant des ruines, catastrophes, accidents corporels entrainant des incapacités lourdes). Pour modéliser ces cas extrêmes, une compagnie devra s'appuyer sur des modèles spécifiques. De plus, pour justifier ses conclusions, elle devra prendre comme référentiel les théories statistiques spécifiques dédiées aux risques extrêmes.

Lorsqu'il s’agit d’actifs financiers, les modèles « standards » couramment employés reposent sur des théories faisant intervenir des lois normales (la fameuse courbe en cloche de Gauss). Et, justement, c'est là que ça cloche : suivant ce modèle une société cotée en bourse depuis l'époque des mammouths de la dernière glaciation n'a pratiquement aucune chance d'avoir vu son cours de bourse chuter de plus de 15%, ne serait-ce qu’une fois. Là encore, pour être capable d'anticiper des « chocs » des modèles mathématiques spécifiques doivent être envisagés.

Enfin, l’un des risques les plus difficiles à modéliser est celui mettant en œuvre des interdépendances entre phénomènes. Il ne s’agit pas ici des « corrélations » bien connues de tous ceux ayant une culture scientifique, mais bien de la possibilité (désagréable) que plusieurs événements puissent être liés au point que leur survenance simultanée dépasse la simple logique des corrélations. Que l’on pense aux dégâts posés par un séisme, ou toute autre catastrophe, avec les impacts sur les destructions d’habitation, les incendies, les accidents automobiles. Dans cet exemple, ce sont des valeurs extrêmes qui se révèlent simultanément sur plusieurs familles de dommages.

La gestion des risques dans les secteurs de la banque et de l’assurance est désormais bien documentée. Comme on vient de le voir, il en demeurera toujours un « risque de modèle » dont la maîtrise demande un bon « mix » entre compétence scientifique et expérience humaine.

Du point de vue du régulateur, les dispositifs prudentiels prévoient explicitement des simulations de « chocs » dans un ensemble de situations spécifiques (ex : chute brutale d'un cours de bourse, catastrophe, pic épidémique, …). Les compagnies doivent pouvoir y faire face sans dommage, même si ces chocs sont réputés « rarissimes ».

Du point de vue du consultant, ces modèles ont le mérite d’exister et de proposer des réserves prudentielles sur des bases solides et robustes. Face à des comportements mercantiles, parfaitement compréhensibles dans toute société commerciale, se manifestant par des guerres de prix lors de conquêtes de marchés nouveaux, ces modèles ont le mérite de fournir au consultant une ligne rouge au-delà de laquelle il dira non !

Herbert Groscot
LinkedIn : https://www.linkedin.com/in/herbert-groscot-5690761/

Consulter les autres articles parus dans la Lettre XMP-CONSULT n°3 (avril 2019)

Télécharger le PDF

Vous devez être connecté pour laisser un commentaire.