Application de la théorie des valeurs extrêmes en finance de marchés

Gabriel FILJA

Dans cet article, Gabriel FILJA (ESSEC Business School, Executive Master in Senior Bank Management, 2022-2023 & Head of Hedging à Convera) présente des applications de la théorie des valeurs extrêmes en finance de marchés et notamment en gestion des risques de marchés.

Principe

La théorie des valeurs extrêmes (TVE), appelé théorème de Fisher-Tippet-Gnedenko tente de fournir une caractérisation complète du comportement de la queue pour tous les types de distributions de probabilités.

La théorie des valeurs extrêmes montre que la loi asymptotique des rentabilités minimale et maximale a une forme bien déterminée qui est largement indépendante du processus de rentabilités lui-même (le lien entre les deux distributions apparaît en particulier dans la valeur de l’indice de queue qui reflète le poids des queues de distribution). L’intérêt de la TVE dans la gestion du risque c’est de pouvoir calculer le quantile au-delà de 99% du seuil de confiance dans le cadre des stress tests ou de la publication des exigences réglementaires.

Gnedenko a démontré en 1943 par la Théorie des valeurs extrêmes la propriété qui s’applique à des nombreuses distributions de probabilités. Soit F(x) la fonction de répartition d’une variable x. u est une valeur de x située dans la partie droite de la queue de distribution.

La probabilité que x soit compris entre u et u+y est de F(y+u) – F(u) et la probabilité que x soit supérieur à u est 1-F(u). Soit Fu(y) la probabilité conditionnelle que x soit compris entre u et u+y sachant que x>u∶

Probabilité conditionnelle

Estimation des paramètres

Selon les résultats de Gnedenko, pour un grand nombre de distribution, cela converge vers une distribution généralisée de Pareto au fur et à mesure que u augmente :

Distribution_généralisée_Pareto

β est le paramètre d’échelle représente la dispersion de la loi des extrêmes
ξ est l’indice de queue qui mesure l’épaisseur de la queue et la forme

Selon la valeur de l’indice de queue, on distingue trois formes dedistribiution d’extrêmes :

  • Frechet ξ > 0
  • Weibull ξ < 0
  • Gumbel ξ = 0

L’indice de queue ξ reflète le poids des extrêmes dans la distribution des rentabilités. Une valeur positive de l’indice de queue signifie que les extrêmes n’ont pas de rôle important puisque la variable est bornée. Une valeur nulle donne relativement peu d’extrêmes alors qu’une valeur négative implique un grand nombre d’extrêmes (c’est le cas de la loi normale).

Figure 1 : Densité des lois des valeurs extrêmes
 Densité des lois des valeurs extrêmes
Source : auteur.

Tableau 1 : Fonctions de distribution des valeurs extrêmes pour un ξ > 0, loi de Frechet, ξ < 0 loi de Weibull et ξ = 0, loi de Gumbel. Fonctions de distribution des valeurs extrêmes
Source : auteur.

Les paramètres β et ξ sont estimés par la méthode de maximum de vraisemblance. D’abord il faut définir u (valeur proche du 95e centile par exemple). Une des méthodes pour déterminer ce seuil, c’est la technique appelée Peak Over Threshold (POT), ou méthode des excès au-delà d’un seuil qui se focalise sur les observations qui dépassent un certain seuil donné. Au lieu de considérer les valeurs maximales ou les plus grandes valeurs, cette méthode consiste à examiner toutes les observations qui franchissent un seuil élevé préalablement fixé.
L’objectif est de sélectionner un seuil adéquat et d’analyser les excès qui en découlent. Ensuite nous trions les résultats par ordre décroissant pour obtenir les observations telles que x>u et leur nombre total.

Nous étudions maintenant les rentabilités extrêmes pour l’action Société Générale sur la période 2011-2021. La Figure 2 représentes rentabilités journalières de l’action et les rentabilités extrêmes négatives obtenues avec l’approche des dépassements de seuil (Peak Over Threshold ou POT). Avec le seuil retenu de -7%, on obtient 33 dépassements sur 2 595 rentabilités journalières de la période 2011 à 2021.

Figure 2 : Sélection des rentabilités extrêmes négatives pour l’action Société Générale selon l’approche Peak Over Threshold (POT)
Sélection des rentabilités extrêmes pour le titre Société Genérale
Source : auteur.

Méthode d’estimation statistique

Nous allons maintenant voir comment déterminer les β et ξ en utilisant la fonction de maximum de vraisemblance qui s’écrit :

Fonction de vraisemblance

Pour un échantillon de n observations, l’estimation de 1-F(u) est nu/n. Dans ce cas, la probabilité inconditionnelle de x>u+y vaut :

Fonction de vraisemblance

Et l’estimateur de la queue de distribution de probabilité cumulée de x (pour un grand) est :

Estimateur queue distribution

Mon travail personnel a consisté à estimer le paramètre d’échelle β et le paramètre de queue ξ à partir de la formule par le maximum de vraisemblance en utilisant le solveur Excel. Nous avons précédemment déterminé n=0,07 par la méthode de POT en Figure 2, et n_u= 2595

Ainsi nous obtenons β=0,0378 et ξ=0,0393 ce qui maximise par la méthode du maximum de vraisemblance la somme du logarithme des valeurs extrêmes à un total de 73,77.

Estimation de la VaR TVE

Pour calculer le VaR au seuil q, nous obtenons F(VaR) = q

VaR TVE

Mon travail personnel a consisté à estimer la VaR du titre de la Société Générale de la période de 2011 à 2021 sur un total de 2595 cotations avec 33 dépassements de seuil (-7%). En appliquant les données obtenues à la formule nous obtenons :

VaR 99% Société Générale

Puis nous estimons la VaR à 99,90% et 99,95% :

VaR 99,90% Société Générale

Il n’est pas surprenant que l’extrapolation à la queue d’une distribution de probabilité soit difficile, pas parce qu’il est difficile d’identifier des distributions de probabilité possibles qui pourraient correspondre aux données observées (il est relativement facile de trouver de nombreuses distributions possibles différentes), mais parce que l’éventail des réponses qui peuvent vraisemblablement être obtenues peut être très large, en particulier si nous voulons extrapoler dans la queue lointaine où il peut y avoir peu ou pas de points d’observation directement applicables.

La théorie des valeurs extrêmes, si elle est utilisée pour modéliser le comportement de la queue au-delà de la portée de l’ensemble de données observées, est une forme d’extrapolation. Une partie de la cause du comportement à queue épaisse (fat tail) est l’impact que le comportement humain (y compris le sentiment des investisseurs) a sur le comportement du marché.

En quoi ça peut m’intéresser ?

Nous pouvons ainsi mener des stress tests en utilisant la théorie des valeurs extrêmes et évaluer les impacts sur le bilan de la banque ou encore déterminer les limites de risques pour le trading et obtenir ainsi une meilleure estimation du worst case scenario.

Autres articles sur le blog SimTrade

▶ Shengyu ZHENG Catégories de mesures de risques

▶ Shengyu ZHENG Moments de la distribution

▶ Shengyu ZHENG Extreme Value Theory: the Block-Maxima approach and the Peak-Over-Threshold approach

Ressources

Articles académiques

Falk M., J. Hüsler, et R.-D. Reiss, Laws of Small Numbers: Extremes and Rare Events. Basel: Springer Basel, 2011. doi: 10.1007/978-3-0348-0009-9.

Gilli M. et E. Këllezi, « An Application of Extreme Value Theory for Measuring Financial Risk », Comput Econ, vol. 27, no 2, p. 207‑228, mai 2006, doi: 10.1007/s10614-006-9025-7.

Gkillas K. and F. Longin (2018) Financial market activity under capital controls: lessons from extreme events Economics Letters, 171, 10-13.

Gnedenko B., « Sur La Distribution Limite Du Terme Maximum D’Une Serie Aleatoire », Annals of Mathematics, vol. 44, no 3, p. 423‑453, 1943, doi: 10.2307/1968974.

Hull J.et A. White, « Optimal delta hedging for options », Journal of Banking & Finance, vol. 82, p. 180‑190, sept. 2017, doi: 10.1016/j.jbankfin.2017.05.006.

Longin F. (1996) The asymptotic distribution of extreme stock market returns Journal of Business, 63, 383-408.

Longin F. (2000) From VaR to stress testing : the extreme value approach Journal of Banking and Finance, 24, 1097-1130.

Longin F. (2016) Extreme events in finance: a handbook of extreme value theory and its applications Wiley Editions.

Longin F. and B. Solnik (2001) Extreme Correlation of International Equity Markets, The Journal of Finance, 56, 649-676.

Roncalli T. et G. Riboulet, « Stress testing et théorie des valeurs extrêmes : une vision quantitée du risque extrême ».

Sites internet

Extreme Events in Finance

A propos de l’auteur

Cet article a été écrit en juillet 2023 par Gabriel FILJA (ESSEC Business School, Executive Master in Senior Bank Management, 2022-2023 & Head of Hedging à Convera).

Value at Risk

Value at Risk

Jayati WALIA

In this article, Jayati WALIA (ESSEC Business School, Grande Ecole Program – Master in Management, 2019-2022) presents value at risk.

Introduction

Risk Management is a fundamental pillar of any financial institution to safeguard the investments and hedge against potential losses. The key factor that forms the backbone for any risk management strategy is the measure of those potential losses that an institution is exposed to for any investment. Various risk measures are used for this purpose and Value at Risk (VaR) is the most commonly used risk measure to quantify the level of risk and implement risk management.

VaR is typically defined as the maximum loss which should not be exceeded during a specific time period with a given probability level (or ‘confidence level’). Investments banks, commercial banks and other financial institutions extensively use VaR to determine the level of risk exposure of their investment and calculate the extent of potential losses. Thus, VaR attempts to measure the risk of unexpected changes in prices (or return rates) within a given period.

Mathematically, the VaR corresponds to the quantile of the distribution of returns on the investment.

VaR was not widely used prior to the mid 1990s, although its origin lies further back in time. In the aftermath of events involving the use of derivatives and leverage resulting in disastrous losses in the 1990s (like the failure of Barings bank), financial institutions looked for better comprehensive risk measures that could be implemented. In the last decade, VaR has become the standard measure of risk exposure in financial service firms and has even begun to find acceptance in non-financial service firms.

Computational methods

The three key elements of VaR are the specified level of loss, a fixed period of time over which risk is assessed, and a confidence interval which is essentially the probability of the occurrence of loss-causing event. The VaR can be computed for an individual asset, a portfolio of assets or for the entire financial institution. We detail below the methods used to compute the VaR.

Parametric methods

The most usual parametric method is the variance-covariance method based on the normal distribution.

In this method it is assumed that the price returns for any given asset in the position (and then the position itself) follow a normal distribution. Using the variance-covariance matrix of asset returns and the weights of the assets in the position, we can compute the standard deviation of the position returns denoted as σ. The VaR of the position can then simply computed as a function of the standard deviation and the desired probability level.

VaR Formula

Wherein, p represents the probability used to compute the VaR. For instance, if p is equal to 95%, then the VaR corresponds to the 5% quantile of the distribution of returns. We interpret the VaR as a measure of the loss we observe in 5 out of every 100 trading periods. N-1(x) is the inverse of the cumulative normal distribution function of the confidence level x.

Figure 1. VaR computed with the normal distribution.

VaR computed with the normal distribution

For a portfolio with several assets, the standard deviation is computed using the variance-covariance matrix. The expected return on a portfolio of assets is the market-weighted average of the expected returns on the individual assets in the portfolio. For instance, if a portfolio P contains assets A and B with weights wA and wB respectively, the variance of portfolio P’s returns would be:

Variance of portfolio

In the variance-covariance method, the volatility can be computed as the unconditional standard deviation of returns or can be calculated using more sophisticated models to consider the time-varying properties of volatility (like a simple moving average (SMA) or an exponentially weighted moving average (EWMA)).

The historical distribution

In this method, the historical data of past returns (for say 1,000 daily returns or 4 years of data) are used to build an historical distribution. VaR corresponds to the (1-p) quantile of the historical distribution of returns.
This methodology is based on the approach that the pattern of historical returns is indicative of future returns. VaR is estimated directly from data without estimating any other parameters hence, it is a non-parametric method.

Figure 2. VaR computed with the historical distribution.

VaR computed with the historical distribution

Monte Carlo Simulations

This method involves developing a model for generating future price returns and running multiple hypothetical trials through the model. The Monte Carlo simulation is the algorithm through which trials are generated randomly. The computation of VaR is similar to that in historical simulations. The difference only lies in the generation of future return which in case of the historical method is based on empirical data while it is based on simulated data in case of the Monte Carlo method.

The Monte Carlo simulation method is used for complex positions like derivatives where different risk factors (price, volatility, interest rate, dividends, etc.) must be considered.

Limitations of VaR

VaR doesn’t measure worst-case loss

VaR gives a percentage of loss that can be faced in a given confidence level, but it does not tell us about the amount of loss that can be incurred beyond the confidence level.

VaR is not additive

The combined VaR of two different portfolios may be higher than the sum of their individual VaRs.

VaR is only as good as its assumptions and input parameters

In VaR calculations especially parametric methods, unrealistic or inaccurate inputs can give misleading results for VaR. For instance, using the variance-covariance VaR method by assuming normal distribution of returns for assets and portfolios with non-normal skewness.

Different methods give different results

There are many approaches that have been defined over the years to estimate VaR. However, it essential to be careful in choosing the methodology keeping in mind the situation and characteristics of the portfolio or asset into consideration as different methods may be more accurate for specific scenarios.

Related posts on the SimTrade blog

   ▶ Jayati WALIA The variance-covariance method for VaR calculation

   ▶ Jayati WALIA The historical method for VaR calculation

   ▶ Jayati WALIA The Monte Carlo simulation method for VaR calculation

Useful Resources

Academic research articles

Artzner, P., F. Delbaen, J.-M. Eber, and D. Heath, (1999) Coherent Measures of Risk, Mathematical Finance, 9, 203-228.

Jorion P. (1997) “Value at Risk: The New Benchmark for Controlling Market Risk,” Chicago: The McGraw-Hill Company.

Longin F. (2000) From VaR to stress testing: the extreme value approach Journal of Banking and Finance, N°24, pp 1097-1130.

Longin F. (2016) Extreme events in finance: a handbook of extreme value theory and its applications Wiley Editions.

Longin F. (2001) Beyond the VaR Journal of Derivatives, 8, 36-48.

About the author

The article was written in September 2021 by Jayati WALIA (ESSEC Business School, Grande Ecole Program – Master in Management, 2019-2022).