Pauline REQUENA GM5
Rapport de PFE
Etude des méthodes d’estimation
de la Value-at-Risk
A l’attention de M. Bruno PORTIER
2009 2010
2
SOMMAIRE
CHAPITRE 1 PRESENTATION DE LA VALUE-AT-RISK 5
I. INTRODUCTION 5
II. PRESENTATION GENERALE 5
2.1 DEFINITION GENERALE 5
2.2 UTILISATION DE LA VAR 6
2.3 TYPES DE RISQUES MESURES PAR LA VAR 7
2.4 COMMENT ADAPTER LA VAR EN ASSURANCE ? 9
2.4.1. Résumé du principe de fonctionnement d’une société d’assurance 9
2.4.2. Adaptation de la VaR en assurance 11
2.4.3. Utilisation de la VaR dans dans le calcul du besoin en fonds propres 12
III. DEFINITION PROBABILISTE DE LA VALUE-AT-RISK 14
3.1 DEFINITION DE LA VAR 14
3.1.1. Distribution des profits et pertes (P&L) 16
3.1.2. Définition probabiliste de la VaR 17
3.2 COMMENT ESTIMER LA VALUE-AT-RISK ? 17
CHAPITRE 2 ESTIMATION DE LA VALUE-AT-RISK 18
I. INTRODUCTION 18
II. ESTIMATION PARAMETRIQUE 18
2.1 PRELIMINAIRES : APPROCHE UNIVARIEE 19
2.2 APPROCHE VARIANCE COVARIANCE 21
2.3 METHODE RISKMETRICS 23
2.4 AVANTAGES ET LIMITES DES METHODES D’ESTIMATION PARAMETRIQUES 24
III. ESTIMATION NON PARAMETRIQUE 25
3.1 SIMULATION HISTORIQUE (HS HISTORICAL SIMULATION) 25
3.1.1. Principe et définition 25
3.1.2. Exemple d’utilisation : Cours de clôture AXA du 25/10/2007 au 23/10/2009 27
3.1.3. Limites de la Simulation Historique 33
3.1.4. Prévision de la VaR selon la méthode de Simulation Historique 33
3.1.5. Exemple de prévision de la VaR HS 35
3.2 METHODE BOOTSTRAP DE SIMULATION HISTORIQUE 36
3.3 WEIGHED HISTORICAL SIMULATION (WHS) 38
3.3.1. Les différentes pondérations possibles 38
3.3.2. Aged-weighted HS ou Méthode Hybride 39
3.4 SIMULATION HISTORIQUE ET SIMULATION PARAMETRIQUE DE LA DENSITE 40
3.4.1. Principe et définition 40
3.4.2. Exemple d’application sous R 42
IV. ESTIMATION SEMI-PARAMETRIQUE 45
3
4.1 THEORIE DES VALEURS EXTREMES 45
4.1.1. Cadre d’analyse 45
4.1.2. Théorème limite de Fisher-Tippett 46
4.1.3. Méthode des excès et distribution de Pareto généralisée 48
CHAPITRE 3 LIMITES DE LA VALUE-AT-RISK 51
I. INTRODUCTION 51
II. LA VALUE-AT-RISK, UNE MESURE DE RISQUE COHERENTE ? 52
2.1 DEFINITION D’UNE MESURE DE RISQUE COHERENTE 52
2.2 NON SOUS-ADDITIVITE DE LA VALUE-AT-RISK 54
CHAPITRE 4 ETUDE D’UN ARTICLE DE RECHERCHE 55
I. INTRODUCTION 55
II. DESCRIPTION DES ESTIMATEURS ETUDIES 57
2.1 QUANTILE EMPIRIQUE (R) 57
2.2 ESTIMATEUR DE QUANTILE EPANECHNIKOV (E) 57
2.3 ESTIMATEUR D’HARREL-DAVIS (HD) 57
2.4 ESTIMATEUR DE PADGETT (PDG) 58
2.5 ESTIMATEUR DE PARK (PRK) 59
2.6 ESTIMATEUR UTILISANT LE NOYAU BETA1 (B1) 60
2.7 ESTIMATEUR UTILISANT LE NOYAU MODIFIE BETA2 (B2) 61
2.8 ESTIMATEUR MACRO-BETA DE GOURIEROUX ET MONTFORT (2006) UTILISANT LES NOYAUX
BETA1 ET BETA2 (MACRO B1 ET MACRO B2) 61
III. ETUDE DES 5 DISTRIBUTIONS UTILISEES POUR LA SIMULATION 62
3.1 ETUDE LA DISTRIBUTION NORMALE 63
3.2 ETUDE LA DISTRIBUTION DE WEIBULL 64
3.3 ETUDE DE LA DISTRIBUTION LOGNORMALE 65
3.4 ETUDE DE LA DISTRIBUTION 30% PARETO ET 70% LOGNORMALE 66
3.5 ETUDE DE LA DISTRIBUTION 70% PARETO ET 30% LOGNORMALE 67
3.6 FONCTIONS DE DENSITE ET DE REPARTITION DES 5 DISTRIBUTIONS 68
IV. SIMULATIONS 69
4.1 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION NORMALE 70
4.2 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION LOGNORMALE 72
4.3 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION DE WEIBULL 74
4.4 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION 30% PARETO 70% LOGNORMALE 76
4.5 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION 70% PARETO 30% LOG NORMALE 78
4.6 CONCLUSION FINALE 80
V. ANNEXES DU CHAPITRE 4 81
5.1 DESCRIPTION DES 5 DISTRIBUTIONS : EXPLICATION DU CODE R 81
4
5.2 SIMULATIONS : EXPLICATION DU CODE R 84
Distribution de Champernowne 86
Largeur de fenêtre 𝒃 86
CHAPITRE 5 ESTIMATION DE LA VAR SUR DES DONNEES REELLES 90
I. ETUDE DESCRIPTIVE DES DONNEES 90
1.1 ETUDE DE LA VARIABLE MONTANT 90
1.2 ETUDE DE LA VARIABLE LOG(MONTANT) 95
II. RESULTATS OBTENUS 98
2.1 VARIABLE MONTANT 98
2.2 VARIABLE LOG(MONTANT) 99
III. ANNEXES DU CHAPITRE 5 100
CHAPITRE 6 LA VAR MONTE CARLO 107
I. PRINCIPE 107
1.3 QUEL MODELE UTILISER ? 107
1.4 ALGORITHME DE SIMULATION 108
II. EXEMPLE D’APPLICATION 108
2.1 TRAVAIL PRELIMINAIRE 108
2.2 SIMULATION DES TRAJECTOIRES 110
2.2.1. Algorithme pour ∆𝒕 = 𝟒𝟐 110
2.2.2. Algorithme pour ∆𝒕 = 𝟏 111
CHAPITRE 7 ETUDE DU PACKAGE VAR DU LOGICIEL R 113
I. DONNEES 113
II. FONCTIONS 116
2.1 FONCTION VAR.GPD 116
2.2 FONCTION VAR.NORM 117
2.3 FONCTION VAR.BACKTEST 119
BIBLIOGRAPHIE 120
5
Chapitre 1 Présentation de la Value-at-Risk
I. Introduction
Apparue pour la première fois à la fin des années 80 dans le domaine de l’assurance, la Value-at-Risk (VaR) est devenue en moins d’une dizaine d’années, une mesure de référence du risque sur les marchés financiers. C’est la banque JP Morgan, qui a popularisé ce concept avec son système RiskMetrics implémenté en 1994. La Value-at-Risk est notamment utilisée dans la réglementation prudentielle définie dans le cadre des accords de Bâle II. (cf. II/ Utilisation de la VaR)
II. Présentation générale
2.1 Définition générale
La Value-at-Risk correspond au montant des pertes qui ne devraient pas être dépassées pour un niveau de confiance donné sur un horizon temporel donné. Le niveau de confiance choisi est en général de 95 ou 99%.
Considérons :
un seuil de risque de 𝛼 % , équivalent à un seuil de confiance de 1 − 𝛼 % un horizon temporel N
La VaR permet de répondre à l’affirmation suivante : « Nous sommes certains, à 1 − 𝛼 %, que nous n'allons pas perdre plus de V euros sur les N prochains jours ». La valeur V correspond à la VaR. Il s’agit donc de la perte maximale potentielle qui ne devrait être atteinte qu’avec une probabilité donnée (ou un risque donné) sur un horizon temporel donné.
Exemple : Si une banque annonce une VaR quotidienne de 1 million d’euros sur son portefeuille pour un niveau de confiance de 99%, cela implique qu’il y a seulement une chance sur 100, sous des conditions normales de marché, que la perte associée à la détention de ce portefeuille sur une journée excède 1 million d’euros. Autrement dit : La VaR au seuil de confiance de 99% à 1 jour, que l'on notera, VaR (99%, 1j), égale à 1 million d'euros signifie qu'un jour sur cent en moyenne, le portefeuille est susceptible d'enregistrer une perte supérieure à cette somme de 1 million d'euros.
6
2.2 Utilisation de la VaR
La VaR est utilisée aussi bien par les institutions financières et les régulateurs que par les entreprises non financières. Les institutions financières ont été les premières à utiliser cet outil. En effet, la diversification des risques financiers, la complexité des nouveaux instruments financiers et l’évolution de la régulation ont poussé les institutions financières à mettre en place des systèmes centralisés de surveillance et de management des risques. De leur côté, les réglementations doivent évaluer ces risques financiers afin d’imposer aux institutions financières un niveau minimal de capitaux disponibles. Par ailleurs, le management centralisé des risques est utile à toute entreprise exposée à des risques financiers. Les entreprises non financières, comme les multinationales par exemple, utilisent quant à elles la VaR pour se prémunir contre le risque de change.
La VaR peut donc être utilisée :
de façon passive : reporting des risques L’objectif est de mesurer un risque agrégé (1ère utilisation par la banque JP Morgan). C’est une mesure du risque simple à interpréter car elle s’exprime sous forme d’un montant maximal de perte, et elle permet de synthétiser en une seule mesure une appréciation sur le risque global.
de façon défensive : contrôle des risques L’objectif est de déterminer des positions limites à ne pas dépasser, qui seront imposées aux traders ou aux business units. Au-delà de ces limites, il n’est plus possible de prendre une position sans l’autorisation d’un responsable risque. Cette méthode vise à limiter la prise de risque au-delà d’une limite acceptable. Pour être pertinent, le contrôle des risques doit être global. Les développements informatiques associés, sont donc des applications dites « transverses », souvent complexes, regroupant des informations en provenance de tous les centres d'activités.
de façon active : management des risques La VaR est utilisée dans l’allocation du capital entre les tradeurs, les business lines, les produits et ou les institutions.
Exemple 1 : Réglementation prudentielle Bâle II et capital réglementaire La réglementation Bâle II autorise les banques à déterminer leur capital nécessaire pour répondre au risque de marché par un modèle interne utilisant la VaR(99%, 10j). Le capital réglementaire exigé vaut généralement 3 fois la VaR(99%, 10j).
7
Exemple 2 : problème d’allocation des fonds propres Il s’agit, pour le dirigeant d’entreprise, d’évaluer d’abord le montant de fonds propres nécessaire pour couvrir l’activité globale (notamment pour éviter la faillite) et ensuite de trouver une clé de répartition de ces ressources entre les différentes branches qui composent cette activité. Cette clé doit associer des exigences de rendement et de maîtrise du risque tout en restant compréhensible et justifiée en interne.
2.3 Types de risques mesurés par la VaR
La Value-at-Risk permet de mesurer différents risques, sur différents marchés (marché des changes, marché financier, marché des produits dérivés), et pour différents actifs à risque (change, actions, obligations, options, etc…)
L’objectif de la VaR est de fournir une mesure du risque total de portefeuille. Par conséquent, la VaR doit tenir compte des effets de levier et de diversification.
En effet, la diversification d'un portefeuille de titres ou d'actifs permet en variant les types de placements, soit de réduire le risque pour un niveau de rentabilité donné, soit d'améliorer la rentabilité pour un niveau de risque donné. Pour un groupe la diversification permet de réduire le risque de volatilité des résultats.
La VaR mesure donc différents risques financiers, généralement classés en quatre grandes catégories :
Risques de marché
Il s’agit du risque de perte lié à l’évolution des niveaux ou à la volatilité des prix du marché. Les différents facteurs de risques liés au marché sont les taux, les cours de change, les cours des actions et les prix des matières premières. Toute variation de ces données a un impact sur les positions et les portefeuilles détenus par la salle. Il s’agit du principal champ d’utilisation de la VaR.
Risques de liquidité
Il est composé du risque de liquidité d’actifs (asset liquidity risk) et du risque de liquidité de financement (cash flow risk).
L’Asset Liquidity Risk est le risque de ne pouvoir vendre à son prix un titre financier. Il peut se traduire, soit par une impossibilité effective de le vendre, soit par une décote.
Le Cash Flow Risk est lié au fait que les banques reçoivent majoritairement des dépôts à court terme de leurs clients et font des prêts à moyen et long terme. Il peut donc se créer un décalage entre les sommes prêtées et les sommes disponibles, car
8
ces dernières peuvent être insuffisantes. Dans ce cas on parle de manque de liquidités.
Risques de crédit
Il résulte de l'incertitude quant à la possibilité ou la volonté des contreparties ou des clients de remplir leurs obligations. Il existe un risque pour une banque, dès qu’elle se met en situation d’attendre une entrée de fonds de la part d’un client ou d’une contrepartie du marché.
Exemple 1 : Un client utilise son compte courant pour effectuer des paiements: si la banque autorise le client à être à découvert, il y a risque de crédit. Exemple 2 : La banque négocie sur le marché des changes une vente à terme d'euros contre dollars avec une autre banque. A l’échéance, la banque acheteuse émet son paiement eu euros en direction de sa contrepartie. Elle s’expose au risque que la banque émettrice ne paie pas les dollars.
Risques opérationnels
Le comité de Bâle définit le risque opérationnel comme le "risque de pertes provenant de processus internes inadéquats ou défaillants, de personnes et systèmes ou d'événements externes". Cette définition recouvre les erreurs humaines, les fraudes et malveillances, les défaillances des systèmes d'information, les problèmes liés à la gestion du personnel, les litiges commerciaux, les accidents, incendies, inondations, etc…
Des défaillances spectaculaires, comme celle de la Barings, ont attiré l'attention des autorités de tutelle sur la nécessité de doter les banques de mécanisme de prévention et de couverture contre les risques opérationnels, via la constitution de fonds propres dédiés.
9
2.4 Comment adapter la VaR en assurance ?
Nous avons vu que la Value-at-Risk a été créée historiquement au sein de banques d’investissement pour contrôler le risque du marché. Comme ce sont en effet les opérations de trading qui génèrent la majeure partie du risque de marché d’une banque, la VaR est utilisée pour mesurer le risque des positions prises par les gérants de portefeuille. Ces positions changent fréquemment et peuvent être libérées rapidement. Par conséquent, les banques évaluent leur risque de marché pour des horizons courts. En pratique, la VaR est donc estimée pour une journée ou quelques jours. La méthodologie de calcul de la VaR a été étudiée pour le secteur bancaire, et elle n’est pas directement applicable dans le secteur de l’assurance.
2.4.1. Résumé du principe de fonctionnement d’une société d’assurance
Contre le versement d’une somme appelée prime, une société, soit une mutuelle, soit une société de capitaux, s’engage à procéder à une indemnisation en cas de réalisation d’un sinistre. Le risque couvert est donc transféré entièrement ou en partie de l’assuré à l’assureur. La société d’assurance peut se permettre d’assumer le risque dans la mesure où elle procède à une addition de nombreux risques similaires, cohérents et non corrélés entre eux. L’assureur bénéficie donc d’un effet de mutualisation des risques, qui est la base même de l’activité d’assurance.
Etant donné que les primes sont versées avant la réalisation du sinistre, l’assureur est en trésorerie positive. La compagnie d’assurance dispose donc de fonds qui doivent être placés à plus ou moins longue échéance sur les marchés financiers, afin de bénéficier d’un rendement intéressant. La compagnie d’assurance doit cependant s’assurer qu’elle dispose d’une certaine liquidité pour faire face au paiement des sinistres.
Les pouvoirs publics ont éprouvé le besoin de réguler ce secteur et d’assurer une supervision prudentielle. Toutes ces règles sont rassemblées dans le Code des Assurances. Le but de cette supervision est de permettre à la compagnie d’assurance de respecter ses engagements à l’égard des assurés.
10
L’un des grands principes de la supervision concerne la qualité des actifs :
Règle de cumul Une société d’assurance doit limiter la part de chaque type de titres dans son portefeuille (ex : actions, obligations, placements immobiliers).
Règle de dispersion Une société d’assurance ne doit pas s’exposer à un seul émetteur. Elle ne doit pas posséder plus de 5% de titres d’un même émetteur.
Règle de congruence Une société d’assurance doit limiter le risque de change en établissant un lien entre les placements et les engagements en devise.
11
2.4.2. Adaptation de la VaR en assurance
L’objectif de la gestion financière en assurance est donc l’optimisation du portefeuille, via le couple rendement/risque, tout en respectant les contraintes réglementaires et les engagements à l’égard des assurés et des actionnaires. Les sociétés d’assurance définissent donc une politique d’investissement prudente et à long terme.
Une société d’assurance achète donc des actifs financiers qui garantissent un rendement à long terme lui permettant de respecter ses engagements envers ses assurés et ses actionnaires. Son but n’est pas de spéculer. Le portefeuille d’une société d’assurance est par conséquent beaucoup plus stable dans le temps que celui d’une institution financière.
Néanmoins, les assureurs doivent obtenir un rendement à plus court terme de leur portefeuille d’actifs tout en maîtrisant son risque. Cela impacte aussi la politique financière à court et à long terme. Notamment, le risque de marché doit être évalué conformément au timing de reporting financier, généralement trimestriel et annuel. Cette évaluation du risque de marché peut être utilisée comme un indicateur de la solvabilité de l’entreprise face à de brutales évolutions du marché, et permettre de fixer le montant des fonds propres annuels. Par conséquent, les sociétés d’assurance devraient chercher à estimer leur risque de marché via la VaR pour des horizons allant de 3 mois à un an. Par conséquent, l’estimation de la VaR journalière dans le secteur de l’assurance n’a aucun sens.
Par ailleurs, une spécificité inhérente au secteur de l’assurance est la forte proportion des produits de dette (obligations, prêts et dépôts) dans les portefeuilles des sociétés.
Ces différentes caractéristiques influencent donc l’estimation du risque de marché. Pour adapter la VaR dans le domaine de l’assurance, il est nécessaire de modifier la méthodologie de calcul, en considérant des horizons plus longs, et un portefeuille stable sur la période d’estimation, comprenant une grande quantité de produits de taux.
12
2.4.3. Utilisation de la VaR dans dans le calcul du besoin en fonds propres
Qu’est ce que le besoin en fonds propres ? Le besoin en fonds propres est dû à la fois à des contraintes de solvabilité et de rentabilité. Dans le domaine de l’assurance Non Vie, le besoin de fonds propres dépend de plusieurs points de vue :
celui des assurés, des organismes de contrôle et des agences de notations Contraintes de solvabilité
celui des actionnaires et du management de la compagnie Contraintes de rentabilité
Il peut être défini de façon interne ou externe :
Vision interne de la compagnie Il s’agit du niveau de capital dont souhaite disposer la compagnie, afin de respecter l’objectif de solvabilité qu’elle s’est fixée, i.e. pour maintenir son activité. Ce capital est évalué à partir des risques propres à la compagnie et est fondé sur ses propres estimations, issues de données qui peuvent être confidentielles.
Vision externe du besoin en capital Il s’agit du niveau de capital désiré par des acteurs extérieurs à l’entreprise, à savoir, les organismes de contrôle qui déterminent un capital réglementaire, et les agences de notations qui évaluent le niveau de capital exigé par le marché La Value-at-Risk, une mesure de risque pour évaluer le besoin en fonds
propres Une des mesures de risque permettant d’évaluer le besoin en fonds propres d’une compagnie d’assurance est donc la Value-at-Risk. Pour cela, on doit définir une probabilité de ruine : D’un point de vue probabiliste, on considère la variable aléatoire 𝑋, représentant le résultat de la compagnie (en assurance, 𝑋 peut également représenter la charge agrégée des sinistres). On définit alors la fonction de répartition 𝐹𝑋 de 𝑋 :
𝐹𝑋 𝑚 = 𝑃 𝑋 ≤ 𝑚 C’est la probabilité que le résultat de la compagnie soit inférieur à un certain montant 𝑚. La probabilité de ruine d’une compagnie est la probabilité que le capital initial 𝐶 connu, soit absorbé par un résultat déficitaire, i.e.
13
𝐹𝑋 −𝐶 = 𝑃(𝑋 ≤ −𝐶)
La VaR correspond au capital minimal nécessaire pour ne pas être en ruine avec une probabilité supérieure à 1 − 𝛼.
𝐶 = 𝑉𝐴𝑅𝛼 𝑋 = 𝑖𝑛𝑓 𝑥 | 𝐹𝑋 −𝑥 ≤ 1 − 𝛼
Lien avec la réglementation européenne
Dans le prolongement de la réforme Bâle II pour les banques, l’Union Européenne a établi un nouveau cadre réglementaire en matière de gestion des risques pour les compagnies d’assurance, baptisé « Solvency II». Par rapport à la directive Solvency I, cette réforme est beaucoup plus sensible aux risques réels supportés par la compagnie. Différents niveaux d’adaptation sont possibles, jusqu’au développement de modèles internes. Solvency II impose ainsi un véritable dispositif de mesure et de supervision du risque.
L’un des piliers de cette réforme détermine des exigences quantitatives à respecter, notamment sur l’harmonisation des provisions et l’instauration de minima de fonds propres. Le Minimum de Solvabilité Requis est l’une de ces exigences. Son objectif est de renforcer les assurances contre la répétition de situations exceptionnelles.
Plusieurs méthodes de calcul sont à l’étude :
Risk-Based Capital Méthode factorielle, chaque type de risque est couvert par un montant de capital donné.
Value-at-Risk Montant de capital permettant d’avoir une probabilité de ruine inférieure à 0,5% sur une année, en prenant compte de l’ensemble des risques encourus par l’entité.
14
III. Définition probabiliste de la Value-at-Risk
3.1 Définition de la VaR
La Value-at-Risk définie pour un taux de couverture de 𝛼 correspond au quantile d’ordre 𝛼 de la distribution de profits et pertes (profits and looses, P&L) associée à la détention d’un actif ou d’un portefeuille d’actifs sur une période donnée.
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1
-0,15 -0,1 -0,05 0 0,05 0,1 0,15
Fonction de répartition de rendements sous l'hypothèse gaussienneDonnées: Rendements AXA du 24-10-2007 au 23-10-2009
Probabilité cumulée F(x)
0
1
2
3
4
5
6
7
8
9
10
-0,15 -0,1 -0,05 0 0,05 0,1 0,15
Fonction de densité de rendements sous l'hypothèse gaussienneDonnées: Rendements AXA du 24-10-2007 au 23-10-2009
Densité de probabilité f(x)
Figure 1 : La VaR, un fractile de la distribution des P&L
15
La VaR d'un portefeuille dépend essentiellement de 3 paramètres :
La distribution des profits et des pertes (P&L) du portefeuille ou de l’actif Souvent cette distribution est supposée gaussienne, mais beaucoup d'acteurs financiers utilisent des distributions historiques. La difficulté réside alors dans la taille de l'échantillon historique : s'il est trop petit, les probabilités de pertes élevées sont peu précises, et s'il est trop grand, la cohérence temporelle des résultats est perdue, car on compare des résultats non comparables. Les données de P&L à partir desquelles on calcule une VaR sont généralement exprimées sous forme de rendements.
Le niveau de confiance choisi (95 ou 99% en général) C'est la probabilité que les pertes éventuelles du portefeuille ou de l'actif ne dépassent pas la VaR.
L'horizon temporel choisi (période de détention de l’actif) Ce paramètre est très important car plus l'horizon est long plus les pertes peuvent être importantes.
16
3.1.1. Distribution des profits et pertes (P&L)
On note :
𝑃𝑡 la valeur d’un actif ou d’un portefeuille à la date t
𝐷𝑡 l’ensemble des paiements intermédiaires obtenus entre les dates t-1 et t Les profits et pertes associés à la détention de l’actif ou du portefeuille sont alors définis par :
𝑃/𝐿𝑡 = 𝑃𝑡 − 𝑃𝑡−1 + 𝐷𝑡
Les valeurs positives indiquent des profits et les valeurs négatives indiquent des pertes.
Exemple : Dans le cas où l’on ne reçoit aucun paiement intermédiaire entre les dates t-1 et t : Si le prix de l’actif a augmenté :
𝑃𝑡 > 𝑃𝑡−1 donc 𝑃𝑡 − 𝑃𝑡−1 > 0 il s’agit d’un profit Si le prix de l’actif a baissé :
𝑃𝑡 < 𝑃𝑡−1 donc 𝑃𝑡 − 𝑃𝑡−1 < 0 il s’agit d’une perte
Les P&L sont généralement exprimés sous forme de rendements géométriques, notés 𝑅𝑡 , et définis par :
𝑅𝑡 = ln 𝑃𝑡 + 𝐷𝑡
𝑃𝑡−1
Les rendements géométriques supposent que les paiements intermédiaires 𝐷𝑡 sont ré-investis en continu, et garantissent que le prix des actifs n’est jamais négatif. Un rendement positif indique un gain (𝑅𝑡 > 0) et un rendement négatif indique une perte (𝑅𝑡 < 0). On suppose que 𝑅𝑡 est une variable aléatoire réelle, caractérisée par sa fonction de densité 𝑓𝑅𝑡
Cette fonction de densité est appelée la distribution des profits et pertes (P&L).
17
3.1.2. Définition probabiliste de la VaR
On se fixe :
un horizon temporel d’une journée (détention de l’actif pendant 1 journée)
un taux de couverture 𝛼
La Value-at-Risk, notée 𝑉𝐴𝑅𝑡 𝛼 correspond à l’opposé du fractile d’ordre 𝛼 de la distribution des P&L.
𝑃 𝑅𝑡 ≤ −𝑉𝐴𝑅𝑡 𝛼 = 𝛼 ⟺ 𝑉𝐴𝑅𝑡 𝛼 = − 𝐹𝑅𝑡
−1 𝛼
où 𝐹𝑅𝑡
. désigne la fonction de répartition associée à la fonction de densité 𝑓𝑅𝑡 .
NB : La VaR correspond généralement à une perte, donc il s’agit d’une valeur négative. Pour simplifier, on définit donc la VaR en valeur positive, c’est pourquoi on prend l’opposé du fractile.
3.2 Comment estimer la Value-at-Risk ?
La VaR n’est donc rien d’autre qu’un fractile de la distribution de Profits et Pertes (P&L). Si la distribution est connue, on en déduit immédiatement la VaR.
L’estimation de la Value-at-Risk consiste donc à estimer la fonction de densité associée à la distribution P&L, ou les paramètres de cette densité, ou directement le fractile.
18
Chapitre 2 Estimation de la Value-at-Risk
I. Introduction
Dans cette partie, nous allons présenter les différentes techniques d’estimation de la Value-at-Risk. Ces différentes méthodes sont réparties en 3 catégories :
les méthodes d’estimation paramétriques
les méthodes d’estimation non paramétriques
les méthodes d’estimation semi-paramétriques
II. Estimation paramétrique
Les méthodes d’estimation paramétriques de la VaR reposent sur 3 hypothèses simplificatrices :
1. Les distributions des rendements des actifs qui composent le portefeuille suivent une loi normale ;
2. La relation entre les variations de valeur du portefeuille et les variations des variables du marché sont linéaires ;
3. Les produits dérivés (Futures, Swaps, …) sont linéaires. (Une exception : les options)
Remarque : Ces hypothèses sont très contraignantes mais on peut corriger la non-normalité des distributions en introduisant des coefficients d’asymétrie (coefficient de Skewness) ou d’aplatissement (coefficient de Kurtosis).
Nous allons donc décrire dans cette partie trois approches d’estimation paramétrique de la VaR :
l’approche univariée
l’approche variance-covariance
La méthode RiskMetrics
19
2.1 Préliminaires : Approche univariée
On considère la VAR associée à la distribution P&L d’un seul actif (change, action, obligation, etc.). En d’autres termes, on considère le rendement global du portefeuille comme celui d’un actif particulier et on calcule la VaR directement sur ce rendement agrégé.
(H1) On suppose que la distribution des P&L à la date 𝑡 est une distribution normale d’espérance 𝜇 et de variance 𝜍2
𝑅𝑡 ~ 𝒩 𝜇, 𝜍2
On cherche donc la valeur de la VAR à la date 𝑡 pour un taux de couverture de 𝛼 telle que :
𝑃 𝑅𝑡 ≤ −𝑉𝐴𝑅𝑡 𝛼 = 𝛼 ⇔ 𝑃 𝑅𝑡 − 𝜇
𝜍≤
−𝑉𝐴𝑅𝑡 𝛼 − 𝜇
𝜍 = 𝛼
D’après l’hypothèse (H1) :
𝑅𝑡 − 𝜇
𝜍~ 𝒩 0,1
Et par conséquent, si Φ désigne la fonction de répartition de la loi normale 𝒩 0,1 , on obtient :
Φ −𝑉𝐴𝑅𝑡 𝛼 − 𝜇
𝜍 = 𝛼 ⇔ 𝑉𝐴𝑅𝑡 𝛼 = −𝜇 − 𝜍Φ−1 𝛼
Sous l’hypothèse H1, la VaR associée à un taux de couverture de 𝛼 est définie par :
𝑉𝐴𝑅𝑡 𝛼 = −𝜇 − 𝜍Φ−1 𝛼
où : - 𝜇 espérance de la distribution des P&L - 𝜍2 variance de la distribution des P&L
20
NB : En réalisant ces calculs sur une distribution journalière des rendements, on exprime une VaR à horizon d’un jour. Pour passer d’un horizon d’un jour à un horizon
de X jours, on utilisera la formule suivante : 𝑽𝑨𝑹𝑿 = 𝑽𝑨𝑹𝟏 𝑿
21
2.2 Approche variance covariance
Il s’agit d’une approche multivariée de la VaR. Au lieu de considérer le rendement global du portefeuille comme celui d’un actif particulier, on prend en compte explicitement les corrélations entre les actifs du portefeuille.
On considère un portefeuille de 𝑁 actifs corrélés entre eux. Soit 𝑅𝑡 𝑃 le rendement du portefeuille d’actifs à la date 𝑡,
𝑅𝑡 𝑃 = 𝑥𝑡𝑖 𝑅𝑡
𝑖
𝑁
𝑖=1
L’hypothèse principale est donc que les distributions des rendements des actifs qui composent le portefeuille suivent une loi normale, i.e.
∀𝑖, 𝑅𝑡𝑖 ~ 𝒩 𝜇𝑡
𝑖 ,𝜍𝑡𝑖
On définit donc la rentabilité espérée du portefeuille, i.e. son espérance par :
𝐸 𝑅𝑡 𝑃 = 𝑥𝑡𝑖 𝐸 𝑅𝑡
𝑖
𝑁
𝑖=1
= 𝑥𝑡𝑖 𝜇𝑡
𝑖
𝑁
𝑖=1
= 𝑥𝑡′ 𝜇𝑡
où :
𝜇𝑡 = 𝜇𝑡1,𝜇𝑡
2, … , 𝜇𝑡𝑁 ′
𝑥𝑡 = 𝑥𝑡1, 𝑥𝑡
2,… , 𝑥𝑡𝑁 ′
On définit ensuite la volatilité du portefeuille, i.e. sa variance par :
𝑉𝑎𝑟 𝑅𝑡 𝑃 = 𝑥𝑡𝑖 𝑥𝑡
𝑗 𝑐𝑜𝑣 𝑅𝑡
𝑖 ,𝑅𝑡𝑗
𝑁
𝑖 ,𝑗=1
= 𝑥𝑡𝑖 𝑥𝑡
𝑗 𝛾𝑡
𝑖𝑗
𝑁
𝑖 ,𝑗=1
= 𝑥𝑡′ Γ𝑡 𝑥𝑡
où :
le vecteur 𝑥𝑡 représente le poids des actifs dans le portefeuille le vecteur 𝜇𝑡 représente l’espérance des rendements des actifs du portefeuille
la matrice Γ𝑡 = 𝛾𝑡𝑖𝑗
1≤𝑖 ,𝑗≤𝑁 est la matrice de covariance des actifs du
portefeuille
22
On aboutit donc à la définition suivante :
Dans le cas d’un portefeuille d’actifs corrélés entre eux, la formule de calcul de la VaR associée à un taux de couverture de 𝛼 est la suivante :
𝑉𝐴𝑅𝑡 𝛼 = −𝐸 𝑅𝑡 𝑃 − 𝑉𝑎𝑟 𝑅𝑡 𝑃 Φ−1 𝛼
= −𝑥𝑡′ 𝜇𝑡 − 𝑥𝑡
′ Γ𝑡 𝑥𝑡 12 Φ−1 𝛼
où :
le vecteur 𝑥𝑡′ représente le poids des actifs dans le portefeuille
le vecteur 𝜇𝑡 représente l’espérance des rendements des actifs du portefeuille
la matrice Γ𝑡 est la matrice de covariance des actifs du portefeuille
En pratique, on estime 𝜇𝑡 et Γ𝑡 sur les données.
23
2.3 Méthode RiskMetrics
Ce modèle a été développé par la banque JP Morgan au début des années 90. Il diffère de l’approche Variance-covariance au niveau du calcul de la volatilité des rendements du portefeuille.
La volatilité est estimée en utilisant ses valeurs passées ainsi que celles des rendements en accordant plus de poids aux valeurs les plus récentes. Ceci permet de pouvoir s’adapter plus facilement aux changements de conditions de marché et de pouvoir mieux tenir compte des évènements extrêmes.
On note 𝑣𝑡 la volatilité des rendements du portefeuille à la date 𝑡 :
𝑣𝑡 = 𝑉𝑎𝑟 𝑅𝑡 𝑃
La volatilité conditionnelle des rendements du portefeuille va être une combinaison linéaire de l’innovation passée et de la valeur passée de la volatilité :
𝑣𝑡 = 𝜆𝑣𝑡−1 + 1 − 𝜆 𝑟𝑡−1 𝑃 2
où 𝜆 est un paramètre de lissage (par exemple, 𝜆 = 0,97)
On aboutit donc à la définition suivante :
Dans le cas d’un portefeuille d’actifs corrélés entre eux, la VaR issue de RiskMetrics définie pour un taux de couverture de 𝛼 peut s’écrire sous la forme :
𝑉𝐴𝑅𝑡 𝛼 = −𝐸 𝑅𝑡 𝑃 − 𝑣𝑡 12 Φ−1 𝛼
où :
𝑣𝑡 est estimée à partir de la formule 𝑣𝑡 = 𝜆𝑣𝑡−1 + 1 − 𝜆 𝑟𝑡−1 𝑃 2
𝜆 paramètre de lissage (on fixe souvent 𝜆 = 0,97)
24
2.4 Avantages et limites des méthodes d’estimation
paramétriques
Le principal avantage des méthodes d’estimation paramétriques est que les calculs sont simples et rapides, et nécessitent de connaître uniquement la matrice de variance-covariance des rendements du portefeuille.
Cependant, ces méthodes restent inadaptées aux portefeuilles non linéaires, aux queues de distribution épaisses et aux distributions non normales de rendements.
25
III. Estimation non paramétrique
Dans cette partie, nous allons présenter différentes méthodes d’estimation non paramétrique de la Value-at-Risk.
Dans le cas de l’estimation non paramétrique, on n’impose a priori aucune distribution paramétrique de pertes et profits. Dans cette section, on considèrera une approche univariée de la VaR, i.e. le portefeuille est considéré comme un actif particulier possédant un rendement global.
3.1 Simulation historique (HS Historical Simulation)
Il s’agit de la méthode la plus simple à réaliser, et certainement la plus utilisée actuellement.
3.1.1. Principe et définition
Le principe de cette méthode est d’estimer la VaR par le fractile empirique des rendements passés. Soit 𝑅1,𝑅2 , … , 𝑅𝑇 une suite de rendements d’un actif ou d’un portefeuille, pour 𝑡 allant de 1 à 𝑇. On dispose d’une série de 𝑇 réalisations 𝑟1, 𝑟2 , … , 𝑟𝑇 associée à cette suite de variables aléatoires. Problème : On ne dispose que d’une seule réalisation 𝑟𝑖 pour chaque variable aléatoire 𝑅𝑖 . Il est donc impossible d’estimer la densité associée à chaque variable 𝑅𝑖 et par conséquent la VaR. La méthode de simulation historique va donc reposer sur l’hypothèse suivante :
(H1) On suppose que les rendements 𝑅𝑡 𝑡=1,…,𝑇 sont indépendants et
identiquement distribués i.e.
∀𝑡 = 1, … , 𝑇 𝑓𝑅𝑡 𝑥 = 𝑓𝑅 𝑥
∀𝑡 𝑉𝐴𝑅𝑡 𝛼 = 𝑉𝐴𝑅 𝛼
26
Grâce à cette hypothèse, on dispose maintenant d’un échantillon de 𝑇 réalisations 𝑟1, 𝑟2 , … , 𝑟𝑇 d’une variable aléatoire 𝑅 de densité 𝑓𝑅 . . On peut donc estimer la VaR : Sous l’hypothèse H1, un estimateur convergent de la VaR pour un taux de couverture de 𝛼 est défini par le fractile empirique d’ordre 𝛼 associé aux 𝑇 réalisations historiques des rendements 𝑟1, 𝑟2, … , 𝑟𝑇
𝑉𝐴𝑅 𝛼 = 𝑝𝑒𝑟𝑐𝑒𝑛𝑡𝑖𝑙𝑒 𝑟𝑗 𝑗=1
𝑇, 100𝛼
𝑉𝐴𝑅 𝛼 𝑃 𝑉𝐴𝑅 𝛼 𝑞𝑢𝑎𝑛𝑑 𝑇 +∞
27
3.1.2. Exemple d’utilisation : Cours de clôture AXA du 25/10/2007 au 23/10/2009
1ère étape : Télécharger les cours de bourse sur Internet en format TXT (URL : http://www.abcbourse.com ) 2ème étape : Enregistrer au format CSV afin de pouvoir exploiter les données sous Excel ou R 3ème étape : Exploitation des données On dispose donc du cours de clôture de l’action AXA du 25/10/2007 au 23/10/2009. A partir de ces valeurs, on calcule le rendement associé : Soit 𝑃𝑡 la valeur de l’actif à la date 𝑡, le rendement associé est défini par :
𝑅𝑡 = ln 𝑃𝑡
𝑃𝑡−1
Ensuite, on peut exploiter ces données sous Excel ou R A l’aide d’Excel
On peut ainsi visualiser le graphe des rendements quotidiens d’AXA du 25/10/2007 au 23/10/2009 :
On classe ensuite les valeurs des rendements par ordre croissant et on obtient alors le graphe des fractiles de la distribution des rendements.
Pour obtenir la VaR, il suffit de prendre en abscisse le taux de couverture souhaité (par exemple 5%) et en ordonnée on obtient le fractile correspondant i.e. la Value-at-Risk pour le taux de couverture considéré.
-0,3
-0,2
-0,1
0
0,1
0,2
0,3
Rendements quotidiens AXA du 25/10/2007 au 23/10/2009
Figure 2 : Rendements quotidiens du cours d’AXA sous Excel
28
A l’aide du logiciel R
Script R
axa<-read.csv("C:/Users/Pauline/Desktop/PFE SVN/Fichiers de
données Excel/coursAXA.csv", header=TRUE, sep=";")
attach(axa)
#Représentation graphique du cours et des rendements du Nasdaq
du 22 juin 2004 au 20 juin 2006
plot(Cours,type="l",lwd=2,col="blue",xlab="Temps",ylab="Cours
de l'action AXA",main="Cours de l'action AXA \ndu 25/10/2007
au 23/10/2009",cex.main=0.9,cex.lab=0.8,cex.axis=0.8)
plot(Rendement,type="l",lwd=1.5,col="dark
magenta",xlab="Temps",ylab="Rendements de l'action
AXA",main="Rendements quotidiens AXA \ndu 25/10/2007 au
23/10/2009",cex.main=0.9,cex.lab=0.8,cex.axis=0.8)
-0,25
-0,2
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
0,2
0,25
Fractiles AXA
Figure 3 : Fractiles AXA sous Excel
29
#Test de normalité
qqnorm(Rendement,col="dark blue",xlab="Fractiles théoriques
d'une loi Normale",ylab="Fractiles empiriques",main="QQ Plot
des rendements\ndu cours de l'action
AXA",cex.main=0.8,cex.axis=0.8,cex.lab=0.8,pch=20)
shapiro.test(Rendement)
# Shapiro-Wilk normality test
#data: Rendement
#W = 0.9471, p-value = 1.55e-12
Sorties obtenues
Figure 4 : Cours de l’action AXA
Figure 5 : Rendements quotidiens AXA
Le test de Shapiro-Wilk et le QQ plot permettent de déterminer si les rendements du cours de l’action AXA suivent ou non une loi Normale. La tendance clairement non linéaire du QQ plot nous permet à première vue de rejeter l’hypothèse de normalité.
Le test de Shapiro-Wilk permet de renforcer cette idée : en effet, la p-value de 1.55e-12 est inférieure à 0.01 et 0.05, donc on rejette l’hypothèse de normalité aux risques 1% et 5%.
Figure 6 : QQ Plot des rendements du cours de l’action AXA
31
On dispose dans ce cas d’un échantillon de 510 réalisations 𝑟1, 𝑟2 , … , 𝑟510 .
Pour un taux de couverture 𝛼 = 1%, la 𝑉𝐴𝑅 𝑡 1% va correspondre à la 6ème valeur :
𝑉𝐴𝑅 𝑡 1% = −0,113307885
i.e. si l’on dispose d’un portefeuille d’actions AXA d’un montant total d’1 million d’euros, si l’on détient ce portefeuille d’actions pendant 1 journée, il y a 1% de risque de réaliser une perte au moins égale à 113 308 euros. Pour un taux de couverture 𝛼 = 5%, la 𝑉𝐴𝑅𝑡 5% va correspondre à la 26ème valeur :
𝑉𝐴𝑅 𝑡 5% = −0,070793052
i.e. si l’on dispose d’un portefeuille d’actions AXA d’un montant total d’1 million d’euros, si l’on détient ce portefeuille d’actions pendant 1 journée, il y a 5% de risque de réaliser une perte au moins égale à 70 793 euros.
32
Données :
date t valeur de l'actif 𝑷𝒕
rendement de l'actif 𝑹𝒕
25/10/2007 30,17 0,015364364 26/10/2007 29,96 -0,006984895 29/10/2007 30,35 0,012933359 30/10/2007 30,45 0,003289477 31/10/2007 30,86 0,013374853 01/11/2007 30,37 -0,016005568 02/11/2007 30,04 -0,010925452 05/11/2007 29,52 -0,017461827 06/11/2007 29,25 -0,009188426 07/11/2007 28,83 -0,014463062 08/11/2007 28 -0,029212001 09/11/2007 27,2 -0,028987537 12/11/2007 27,52 0,01169604 13/11/2007 27,58 0,002177859 14/11/2007 28,19 0,021876433 15/11/2007 27,57 -0,02223908 16/11/2007 27,14 -0,015719571 19/11/2007 26,28 -0,032200461 20/11/2007 26,46 0,006825965 21/11/2007 25,68 -0,02992168 22/11/2007 25,33 -0,013723015 23/11/2007 26,42 0,042131835 26/11/2007 25,88 -0,020650829 27/11/2007 26,58 0,026688584 28/11/2007 27,29 0,026361281 29/11/2007 27,4 0,004022679 30/11/2007 27,93 0,019158367
… … … … … … … … … … … … … … …
14/10/2009 19,49 0,028097582 15/10/2009 19,715 0,011478254 16/10/2009 19,2 -0,026469488 19/10/2009 19,5 0,015504187 20/10/2009 19,475 -0,001282874 21/10/2009 19,045 -0,022326992 22/10/2009 18,525 -0,027683429 23/10/2009 18,44 -0,004598953
Rendements ordonnés
-0,203500389 -0,140606455 -0,133914051 -0,114514778 -0,113309556
-0,113307885 = VAR(1%) -0,106264266 -0,099116434 -0,096209865 -0,095802912 -0,09476866
-0,093372315 -0,088769817 -0,08761261
-0,086511502 -0,085157808 -0,081563107 -0,081319684 -0,080866964 -0,080461556 -0,077648267 -0,077142876 -0,076743335 -0,074753115 -0,073570193
-0,070793052 = VAR(5%) -0,069851439
… … … … …
0,127392977 0,129299972 0,137792157 0,156309872 0,161480184 0,176197839 0,18223649
0,192679273
33
3.1.3. Limites de la Simulation Historique
La VaR HS est l’estimateur d’une VaR associée à une distribution de P&L non conditionnelle.
En d’autres termes, cette distribution n’est pas calculée sachant un ensemble d’informations disponibles à la date 𝑡.
Par conséquent la prévision de la VaR selon la méthode de Simulation Historique sera invariante aux modifications de l’environnement économique. On qualifie donc les prévisions de la VaR selon la méthode de Simulation Historique de "plates" ou "pratiquement plates".
3.1.4. Prévision de la VaR selon la méthode de Simulation Historique
Principe : Utiliser le fractile empirique associé aux observations passées. En effet, puisque les rendements sont iid, 𝑅𝑇+1 a la même distribution que 𝑅1, … , 𝑅𝑇 et donc un estimateur de sa vaR peut être obtenu à partir de l’estimateur de la VaR des rendements passés. Le backtesting consiste à construire une suite de prévisions de la VaR. Pour ce faire, il existe 2 solutions : Prévision Glissante :
Construction d’un estimateur glissant (rolling estimate) de la VaR en T+1, à partir d’un ensemble d’informations récentes de taille fixe 𝑇𝑒 appelée largeur de fenêtre.
Les prévisions glissantes de la VaR pour un taux de couverture de 𝛼 par la méthode HS correspondent au fractile empirique d’ordre 𝛼 de la chronique des rentabilités passées observées sur une fenêtre de largeur 𝑇𝑒 .
𝑉𝐴𝑅𝑡 𝑡−1 𝛼 = 𝑝𝑒𝑟𝑐𝑒𝑛𝑡𝑖𝑙𝑒 𝑟𝑗 𝑗=𝑡−𝑇𝑒
𝑡−1, 100𝛼
Plus la largeur de fenêtre 𝑇𝑒 est petite, plus les prévisions sont volatiles. Plus la largeur de fenêtre 𝑇𝑒 est grande, plus les prévisions sont rigides. La VaR prévue convergera vers la VaR non conditionnelle et tendra donc vers une valeur constante dans le temps.
34
Prévision non Glissante :
Construction d’une succession d’estimateurs de la VaR conditionnellement à toute l’information disponible. L’ensemble des observations connues croît donc au fur et à mesure du temps.
Généralement, on utilise la prévision glissante afin d’introduire un minimum de conditionnement et de limiter le poids des réalisations des rendements plus anciennes.
35
3.1.5. Exemple de prévision de la VaR HS
L’objectif est de construire une suite de prévisions de la VaR HS à 5%, pour le cours du Nasdaq du 22 juin 2005 au 20 juin 2006. On utilise pour cela la méthode d’estimation glissante avec une fenêtre de 250 observations.
A l’aide d’Excel
Figure 7 : Cours du Nasdaq sous Excel
Figure 8 : Prévisions de la VaR HS pour le cours du Nasdaq sous Excel
1700
1800
1900
2000
2100
2200
2300
2400
22
/06
/20
04
22
/08
/20
04
22
/10
/20
04
22
/12
/20
04
22
/02
/20
05
22
/04
/20
05
22
/06
/20
05
22
/08
/20
05
22
/10
/20
05
22
/12
/20
05
22
/02
/20
06
22
/04
/20
06
Cours du Nasdaq du 22 juin 2004 au 20 juin 2006
Cours du Nasdaq
-0,03
-0,02
-0,01
0
0,01
0,02
0,03
0,04
Rendements historiques et Prévisions de la VaR HS à 5% Cours du NASDAQ du 22 juin 2005 au 20 juin 2006
Rendements
Prévisions de la VaR HS 5%
36
3.2 Méthode Bootstrap de Simulation Historique
C’est une méthode stochastique alternative. L’idée consiste à construire plusieurs échantillons de rendements suivant la même loi que l’échantillon historique. Pour construire ses échantillons, on va tirer avec remise des observations au hasard dans l’échantillon historique.
A partir de chaque nouvel échantillon ainsi constitué, on estime alors la VaR par la méthode du percentile utilisée dans la Simulation Historique standard.
Au final, on dispose de 𝑆 estimations de la VaR et on définit une estimation en faisant la moyenne de ces estimations basées sur les ré-échantillonnages.
Soit 𝑟𝑗𝑠
𝑗=1
𝑇 une suite de rendements tirés au hasard avec remise dans
l’échantillon des rendements historiques, et soit 𝑉𝐴𝑅 𝑠 𝛼 la VaR-HS associée à cet échantillon de rendements bootstrappés (pour un taux de couverture de 𝛼). L’estimateur BHS de la VaR correspond à la moyenne empirique des VaR-HS obtenues à partir des 𝑆 échantillons bootstrap :
𝑉𝐴𝑅 𝛼 = 1
𝑆 𝑉𝐴𝑅 𝑠 𝛼
𝑆
𝑠=1
avec pour 𝑠 = 1, … , 𝑆
𝑉𝐴𝑅 𝑠 𝛼 = 𝑝𝑒𝑟𝑐𝑒𝑛𝑡𝑖𝑙𝑒 𝑟𝑗 𝑠
𝑗=1
𝑇, 100𝛼
Par ailleurs, on peut bâtir un intervalle de confiance pour la VaR pour un risque 𝛽 donné :
𝐼𝐶1−𝛽 𝑉𝐴𝑅 = 𝑉𝐴𝑅 𝛽/2 , 𝑉𝐴𝑅
1−𝛽/2
avec
𝑉𝐴𝑅 𝛽/2 = 𝑝𝑒𝑟𝑐𝑒𝑛𝑡𝑖𝑙𝑒 𝑉𝐴𝑅 𝑠 𝛼
𝑠=1
𝑆, 100 ∗ 𝛽/2
𝑉𝐴𝑅 1−𝛽/2 = 𝑝𝑒𝑟𝑐𝑒𝑛𝑡𝑖𝑙𝑒 𝑉𝐴𝑅 𝑠 𝛼
𝑠=1
𝑆, 100 ∗ 1 − 𝛽/2
37
Remarque : On peut combiner la méthode de Bootstrap avec d’autres méthodes d’estimation de la VaR. Une fois les échantillons bootstrap constitués, on calcule la VaR avec la méthode désirée à partir des nouvelles distributions générées, et on définit une estimation de la VaR en faisant la moyenne des différentes estimations basées sur les ré-échantillonnages.
38
3.3 Weighed Historical Simulation (WHS)
3.3.1. Les différentes pondérations possibles
Dans la méthode de Simulation Historique, si l’on considère une estimation de la VaR pour un taux de couverture de 1% à partir d’une fenêtre glissante de 500 réalisations, cela revient à sélectionner le 5ème rendement le plus faible parmi les 500 réalisations les plus récentes.
Parmi ces 500 réalisations, tous les rendements ont donc le même poids : le rendement de la veille va avoir la même importance que celui d’il y a 500 jours.
Une approche alternative consiste donc à attribuer aux observations de rendements des poids en fonction soit de leur ancienneté, soit de la volatilité observée des marchés, ou de tout autre facteur.
Cette méthode de Simulation Historique « Pondérée » est qualifiée de Weighted Historical Simulation (WHS) et recouvre différentes variantes selon le facteur de pondération utilisé :
La méthode Aged-weighted HS où les poids dépendent de l’ancienneté des observations ;
La méthode Volatility-weighted HS où les poids dépendent de la volatilité. L’objectif est de prendre en compte les changements récents de volatilité ;
La méthode Correlation-weighted HS où l’on ajuste les rendements passés de façon à ce qu’ils reflètent les changements entre les corrélations passées et futures.
39
3.3.2. Aged-weighted HS ou Méthode Hybride
On exploite dans cette méthode une information supplémentaire, à savoir le caractère plus informatif des rentabilités les plus proches de l’horizon de prévision.
Méthodologie de calcul de la VaR Hybride
On considère une largeur de fenêtre 𝑇𝑒
1) On associe à chacune des 𝑇𝑒 rentabilités les plus récentes 𝑟𝑡−1 , 𝑟𝑡−2, … , 𝑟𝑡−𝑇𝑒
une pondération décroissante avec le temps, i.e. plus la rentabilité est ancienne, plus la pondération est faible. Les pondérations sont donc de la forme suivante :
1 − 𝜆
1 − 𝜆𝑇𝑒 𝑝𝑜𝑢𝑟 𝑟𝑡−1,
1 − 𝜆
1 − 𝜆𝑇𝑒 𝜆 𝑝𝑜𝑢𝑟 𝑟𝑡−2,
1 − 𝜆
1 − 𝜆𝑇𝑒 𝜆2 𝑝𝑜𝑢𝑟 𝑟𝑡−3 , … ,
1 − 𝜆
1 − 𝜆𝑇𝑒 𝜆𝑇𝑒−1 𝑝𝑜𝑢𝑟 𝑟𝑡−𝑇𝑒
𝑎𝑣𝑒𝑐 0 < 𝜆 < 1
2) On ordonne ensuite les rentabilités (et les pondérations qui leur sont associées) dans l’ordre croissant.
3) On somme les poids ordonnés suivant les niveaux de rentabilité croissants jusqu’à atteindre le taux de couverture de 𝛼 désiré. La VaR Hybride est alors égale à la rentabilité correspondant au dernier poids utilisé dans la sommation.
40
3.4 Simulation Historique et Simulation Paramétrique de la densité
3.4.1. Principe et définition
On sait que l’histogramme associé aux réalisations historiques des rendements n’est pas un bon estimateur d’une fonction de densité. C’est un estimateur très facile à calculer mais il est peu régulier et présente une allure constante par morceaux.
On se propose donc d’utiliser les estimateurs obtenus par lissage, comme par exemple les estimateurs à noyaux, qui présentent de meilleures propriétés.
Le principe de la méthode d’estimation HS étendue est donc le suivant :
Estimer tout d’abord la densité conditionnelle des pertes et profits par une méthode de noyau.
Puis, calculer à partir de cette densité, le fractile correspondant à la Value-at-Risk voulue.
On peut ainsi estimer la Value-at-Risk pour n’importe quel niveau de confiance, indépendamment de la taille de l’échantillon. Avec la méthode de Simulation Historique, il est par exemple impossible de calculer la VaR sur un échantillon de 50 points pour un seuil de couverture de 1%. Le seuil de couverture minimal est en effet de 2%.
Cette méthode d’estimation possède cependant une limite. Les estimateurs à noyaux présentent des effets de bords. Leur précision est parfois faible sur les bords de l’échantillon, i.e. là où l’on souhaite estimer la VaR.
Un estimateur de la VaR pour un taux de couverture de 𝛼 peut être obtenu à partir de l’estimateur à noyau de la fonction de densité des pertes et profits :
𝑓 𝑅𝑇 𝑟0 =
1
𝑇𝜆 𝐾
𝑟𝑡 − 𝑟0
𝜆
𝑇
𝑡=1
41
avec :
𝐾 le noyau 𝐾: ℝ ⟶ ℝ 𝐾+∞
−∞= 1
𝜆 le paramètre de lissage 𝑇 la taille de l’échantillon
On a donc :
𝛼 = 𝑓 𝑅𝑇 𝑟
−𝑉𝐴𝑅𝑡
−∞
𝑑𝑟
Exemples de noyau :
Noyau naïf 𝐾 𝑢 =1
2 1 −1;1 𝑢
Noyau triangulaire 𝐾 𝑢 = 1 − 𝑢 1 −1;1 𝑢
Noyau gaussien 𝐾 𝑢 = 1
2𝜋 𝑒𝑥𝑝
−𝑢2
2
Noyau d’Epanechnikov 𝐾 𝑢 =3
4 1 − 𝑢2 1 −1;1 𝑢
Noyau Triweight 𝐾 𝑢 =35
32 1 − 𝑢2 31 −1;1 𝑢
42
3.4.2. Exemple d’application sous R
On utilise le cours du Nasdaq du 22 juin 2004 au 20 juin 2006 comme pour l’exemple précédent.
Script R : Import des données et graphes du cours et des rendements
#Import du cours et des rendements du Nasdaq
nasdaq<-read.csv("C:/Users/Pauline/Desktop/PFE SVN/Fichiers de données
Excel/coursNASDAQ.csv", header=TRUE, sep=";")
attach(nasdaq)
#Représentation graphique du cours et des rendements du Nasdaq du 22 juin
2004 au 20 juin 2006
plot(Cours,type="l",lwd=2,col="blue",xlab="Temps",ylab="Cours du
Nasdaq",main="Cours du Nasdaq \ndu 22 juin 2004 au 20 juin
2006",cex.main=0.9,cex.lab=0.8,cex.axis=0.8)
plot(Rendement,type="l",lwd=1.5,col="dark
magenta",xlab="Temps",ylab="Rendements du Nasdaq",main="Rendements
quotidients du cours du Nasdaq \ndu 22 juin 2004 au 20 juin
2006",cex.main=0.9,cex.lab=0.8,cex.axis=0.8)
Sorties obtenues :
Figure 10 : Cours du Nasdaq sous R Figure 9 : Rendements du Nasdaq sous R
43
Script R : Test de normalité et estimateurs de densité
#Test de normalité
qqnorm(Rendement,col="dark blue",xlab="Fractiles théoriques d'une loi
Normale",ylab="Fractiles empiriques",main="QQ Plot des rendements\ndu
cours du Nasdaq",cex.main=0.8,cex.axis=0.8,cex.lab=0.8,pch=20)
shapiro.test(Rendement)
# Shapiro-Wilk normality test
# data: Rendement
#W = 0.9952, p-value = 0.1199
#Distribution normale
m<-mean(Rendement)
et<-sd(Rendement)
x<-seq(-1,1,by=0.001)
y<-dnorm(x,mean=m,sd=et)
fenetre<-et*503^(-0.15)
split.screen(c(2,1))
screen(1)
d1<-density(Rendement,bw=fenetre,kernel="gaussian")
plot(d1,col="blue",lwd=2,"Estimateur de Parzen-Rosenblatt\nde la fonction
de densité des
rendements",cex.main=0.8,cex.axis=0.8,cex.sub=0.8,cex.lab=0.8,sub="Noyau
Gaussien")
lines(x,y,col="red",lwd=2)
screen(2)
d2<-density(Rendement,bw=fenetre,kernel="epanechnikov")
plot(d2,col="blue",lwd=2,"Estimateur de Parzen-Rosenblatt\nde la fonction
de densité des
rendements",cex.main=0.8,cex.axis=0.8,cex.sub=0.8,cex.lab=0.8,sub="Noyau
d'Epanechnikov")
lines(x,y,col="red",lwd=2)
Sorties obtenues :
A première vue, la tendance linéaire
du QQ plot inciterait à accepter l’hypothèse de normalité.
Le test de Shapiro-Wilk permet de renforcer cette idée : en effet, la p-value de 0.1199 est supérieure à 0.01 et 0.05, donc on accepte l’hypothèse de normalité aux risques 1% et 5%.
44
Sorties obtenues :
45
IV. Estimation semi-paramétrique
4.1 Théorie des valeurs extrêmes
La théorie des valeurs extrêmes mesure le risque extrême directement à partir des queues de distribution, contrairement aux autres méthodes qui estiment la distribution dans son ensemble.
4.1.1. Cadre d’analyse
On considère un n-échantillons 𝑋1, 𝑋2, … , 𝑋𝑛 de variables aléatoires iid de fonction de répartition F.
Soit 𝑀𝑛 = max(𝑋1, … , 𝑋𝑛) représentant la plus grande perte observée sur les n pertes observées 𝑋1, … , 𝑋𝑛 .
Les variables aléatoires 𝑋1,… , 𝑋𝑛 étant iid, on peut facilement calculer la fonction de
répartition de 𝑀𝑛 :
𝑃 𝑀𝑛 ≤ 𝑥 = 𝑃 𝑋1 ≤ 𝑥, … , 𝑋𝑛 ≤ 𝑥 = 𝐹𝑛 𝑥
Cependant, si on considère right-end point de F, i.e. le point 𝑥𝐹 tel que :
𝑥𝐹 = 𝑠𝑢𝑝 𝑥 | 𝐹 𝑥 < 1
On remarque que :
∀𝑥 ≤ 𝑥𝐹 𝑃 𝑀𝑛 ≤ 𝑥 = 𝐹𝑛 𝑥 𝑛 ∞ 0 𝑐𝑎𝑟 𝐹 𝑥 < 1
∀𝑥 > 𝑥𝐹 𝑃 𝑀𝑛 ≤ 𝑥 = 𝐹𝑛 𝑥 𝑛 ∞ 1 𝑐𝑎𝑟 𝐹 𝑥 = 1
La loi de 𝑀𝑛 converge donc vers une loi dégénérée (prenant seulement les valeurs 0 ou 1) lorsque n tend vers l’infini.
Le principe de la théorie des valeurs extrêmes va donc être d’identifier la famille de loi vers laquelle 𝑀𝑛 va converger et d’estimer F par cette fonction, lorsque n tend vers l’infini.
On veut donc trouver les distributions limites telles que :
lim𝑛 ∞ 𝑃 𝑀𝑛−𝑑𝑛
𝑐𝑛≤ 𝑥 = 𝐻 𝑥 non dégénérée
46
4.1.2. Théorème limite de Fisher-Tippett
Il s’agit du théorème fondamental de la théorie des valeurs extrêmes.
On considère des variables aléatoires 𝑋𝑛 𝑛 iid.
S’il existe des constantes 𝑐𝑛 > 0 et 𝑑𝑛 ∈ ℝ et 𝐻 une fonction de distribution non dégénérée telle que
lim𝑛 ∞
𝑃 𝑀𝑛 − 𝑑𝑛
𝑐𝑛≤ 𝑥 = 𝐻 𝑥
Alors 𝐻 appartient à l’un des 3 types suivants de distribution :
Type 1 : Fréchet 𝛼 > 0
Φ𝛼 𝑥 = 0 , 𝑥 ≤ 0
𝑒𝑥𝑝 −𝑥−𝛼 , 𝑥 > 0
Type 2 : reverse Weibull 𝛼 > 0
Ψ𝛼 𝑥 = 𝑒𝑥𝑝 − −𝑥 𝛼 , 𝑥 ≤ 0
1 , 𝑥 > 0
Type 3 : Gumbel
𝚲 𝒙 = 𝒆𝒙𝒑 −𝒆−𝒙
Ψ𝛼 , Φ𝛼 et Λ sont appelées les distributions standards de valeurs extrêmes.
Définition : On dit que la variable aléatoire 𝑋 (ou la fonction de répartition 𝐹) appartient au MDA (Maximum Domain of Attraction) de 𝐻, si
∃𝑐𝑛 > 0, 𝑑𝑛 ∈ ℝ 𝑡𝑒𝑙 𝑞𝑢𝑒 lim𝑛 ∞
𝑃 𝑀𝑛 − 𝑑𝑛
𝑐𝑛≤ 𝑥 = 𝐻 𝑥 ∀𝑥 ∈ ℝ
Dans la pratique, la majorité des lois usuelles appartiennent à l’un des 3 MDA de Gumbel, Fréchet ou Weibull.
47
Exemple :
Les distributions exponentielles, Gamma et Log-normale appartiennent au MDA Gumbel (distributions à queues fines).
Les distributions de Pareto, Log-Gamma et de Student appartiennent au MDA Fréchet (distributions à queues lourdes).
Les distributions uniformes appartiennent au MDA Weibull (distributions sans queue).
Figure 11 : Densités des distributions standards de valeurs extrêmes
Proposition : [Jenkinson – Von Mises]
Ψ𝛼 , Φ𝛼 et Λ sont des cas particuliers de la distribution
𝐻𝜉 𝑥 = 𝑒𝑥𝑝 − 1 + 𝜉𝑥 − 𝜇
𝜍 −
1𝜉
Avec 𝜇 paramètre de localisation et 𝜍 paramètre de dispersion.
Cette fonction de distribution correspond à la loi de probabilité des valeurs extrêmes généralisée, appelée « Generalized Extreme Value distribution » (GEV).
On a les correspondances suivantes :
Fréchet : 𝜉 = 𝛼−1 > 0
Weibull : 𝜉 = 𝛼−1 < 0
Gumbel : 𝜉 0
48
Remarque : En pratique, on ne connaît pas les valeurs de 𝜇, 𝜍 et 𝜉. Il faut donc les estimer à partir des données (par exemple par la méthode du maximum de vraisemblance) et les remplacer par leur estimation.
Le paramètre 𝜉 est couramment appelé « indice de queue » ou « indice de valeur extrême ». Plus cet indice est élevé en valeur absolue, plus le poids des extrêmes dans la distribution initiale est important. On parle alors de distributions à « queues épaisses ».
4.1.3. Méthode des excès et distribution de Pareto généralisée
La méthode des excès est également connue sous le nom de Peaks Over Threshold (POT). Elle permet de modéliser les queues de distribution d’une série de données. A partir de cette distribution, on peut alors estimer la probabilité d’occurrence d’évènements rares, au-delà des plus grandes valeurs observées.
Définition : Soit 𝑋 une variable aléatoire de fonction de répartition 𝐹 et 𝜇 un réel suffisamment grand appelé seuil.
On définit les excès au-delà du seuil 𝜇 comme l’ensemble des variables aléatoires Y telles que :
𝑦𝑖 = 𝑥𝑖 − 𝜇, 𝑥𝑖 > 𝜇
On appelle right-end point de F, le point 𝑥𝐹 tel que : 𝑥𝐹 = 𝑠𝑢𝑝 𝑥 | 𝐹 𝑥 < 1
On cherche donc à partir de la distribution F de X, à définir une distribution conditionnelle 𝐹𝜇 par rapport au seuil 𝜇 pour les variables aléatoires dépassant ce
seuil. On définit alors la distribution conditionnelle des excès 𝐹𝜇 par :
𝐹𝜇 𝑦 = 𝑃 𝑋 − 𝜇 < 𝑦 | 𝑋 > 𝜇 =𝐹 𝑦 + 𝜇 − 𝐹 𝜇
1 − 𝐹 𝜇
pour 0 ≤ 𝑦 ≤ 𝑥𝐹 − 𝜇
⟺ 𝐹𝜇 𝑥 = 𝑃 𝑋 < 𝑥| 𝑋 > 𝜇 =𝐹 𝑥 − 𝐹 𝜇
1 − 𝐹 𝜇
pour 𝑥 ≥ 𝜇
49
L’objectif de la méthode POT est de déterminer par quelle loi de probabilité il est possible d’estimer cette distribution conditionnelle des excès.
Le théorème de Picklands, Balkema et Haan est le résultat théorique central de la théorie des valeurs extrêmes :
Théorème : [Picklands, Balkema et Haan]
Si F appartient à l’un des 3 MDA de Gumbel, Fréchet ou Weibull, alors il existe une fonction de répartition des excès au-delà du seuil 𝜇, notée 𝐹𝜇 qui peut être approchée
par une loi de Pareto Généralisée (GPD) telle que :
lim𝜇 𝑥𝐹
𝑠𝑢𝑝 𝐹𝜇 𝑦 − 𝐻𝜍 ,𝜉 𝑦 = 0
La loi de Pareto généralisée 𝐻𝜍 ,𝜉 𝑦 s’écrit sous la forme :
𝐻𝜍 ,𝜉 𝑦 = 1 + log 𝐻𝜉 𝑦
où 𝐻𝜉 𝑦 est la loi de probabilité des valeurs extrêmes généralisée.
En considérant le modèle GEV avec le paramètre de localisation 𝜇 = 0 (car pour les excès l’effet de ce paramètre est pris en compte dans la suite 𝑑𝑛 𝑛 ), on montre que la loi GPD correspond à :
𝐻𝜍 ,𝜉 𝑦 =
1 − 1 + 𝜉𝑦
𝜍 −
1𝜉
𝑠𝑖 𝜉 ≠ 0
1 − 𝑒𝑥𝑝 −𝑦
𝜍 𝑠𝑖 𝜉 = 0
𝑦 ∈ 0;𝑥𝐹 − 𝜇 𝑠𝑖 𝜉 ≥ 0
𝑦 ∈ 0; −𝜍
𝜉 𝑠𝑖 𝜉 < 0
On a vu que plus l’indice de queue 𝜉 est élevé, plus la distribution considérée a des queues épaisses.
50
Par conséquent, 𝜉 > 0 signifie que la probabilité d’occurrences de rentabilités extrêmes et notamment le risque de pertes extrêmes est plus importante que ce que prévoit la loi normale.
Ainsi, le risque d’investissement, i.e. des pertes extrêmes est d’autant plus important que l’indice de queue correspondant à ses plus faibles rentabilités (queue de gauche) est élevé.
A partir de ces résultats, il est possible d’évaluer la perte maximale pour une probabilité donnée et sous des conditions extrêmes de marché.
Un estimateur de la distribution conditionnelle des excès et donc un estimateur de la VaR avec 𝑁𝜇 le nombre d’excès au-delà du seuil 𝜇 sont ainsi donnés par :
𝐹 𝑥 = 1 −𝑁𝜇
𝑛 1 + 𝜉
𝑥 − 𝜇
𝜍 −
1
𝜉
et donc :
𝑉𝐴𝑅𝛼 = 𝜇 +
𝜍
𝜉
𝑛
𝑁𝜇
1 − 𝛼
−𝜉
− 1
51
Chapitre 3 Limites de la Value-at-Risk
I. Introduction
La Value-at-Risk présente l’avantage indéniable d’être simple à interpréter. Elle permet d’obtenir une vision globale du risque en l’exprimant sous la forme d’une seule valeur, correspondant à la perte maximale encourue.
Cependant, cette mesure de risque ne donne aucune information sur la sévérité de la perte, ou de la ruine dans le cas de son utilisation pour l’évaluation du besoin en fonds propres d’une compagnie d’assurance. Elle ne permet pas de connaître l’ampleur des pertes extrêmes au-delà de la Value-at-Risk.
Ainsi, deux positions, que ce soit des portefeuilles dans le cas d’une approche bancaire, ou des centres de profit dans le cas d’une approche assurance, peuvent avoir la même Value-at-Risk, et cependant des risques extrêmes complètement différents.
Figure 12 : Pertes extrêmes au-delà de la VaR
Cette mesure de risque peut donc entraîner des agents à prendre de mauvaises décisions d’investissement ou à prendre volontairement plus de risques.
52
II. La Value-at-Risk, une mesure de risque cohérente ?
2.1 Définition d’une mesure de risque cohérente
Définition : [Denuit et Charpentier 2004]
On appelle mesure de risque toute application 𝜌 associant un risque 𝑋 à un réel 𝜌 𝑋 ∈ ℝ
Soient X et Y :
Les distributions de pertes et profits associées à deux portefeuilles (approche bancaire)
Les résultats de deux centres de profit de sociétés d’assurance (approche assurance)
Soit 𝜌 . une mesure de risque sur un horizon donné,
Dans l’approche bancaire, 𝜌 𝑋 représente le risque associé à la possession du portefeuille X pendant une certaine durée (souvent exprimé en montant de perte maximal).
Dans l’approche assurance, 𝜌 𝑋 représente le besoin en fonds propres.
Cette mesure de risque est dite cohérente si elle satisfait les axiomes suivants :
i. Invariance par translation :
∀𝑐 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝜌(𝑋 + 𝑐) = 𝜌(𝑋) − 𝑐
Interprétation : Si on ajoute (respectivement retranche) un certain montant c au résultat d’un centre de profit, le besoin en capital doit décroître (respectivement augmenter) du même montant.
ii. Sous-additivité :
𝜌 𝑋 + 𝑌 ≤ 𝜌 𝑋 + 𝜌 𝑌
Interprétation : Un portefeuille constitué de sous-portefeuilles ne doit pas être plus risqué que la somme des risques associés aux sous-portefeuilles. De même en assurance, la fusion de deux centres de profit ne crée pas de risque supplémentaire. La diversification tend à diminuer le risque global.
53
iii. Homogénéité positive :
∀ ≥ 0 𝜌 𝑋 = 𝜌 𝑋
Interprétation : Une fusion de portefeuilles (ou de centres de profit en assurance) sans diversification ne réduit pas le risque (ou le besoin en capital).
iv. Monotonie :
𝑋 ≤ 𝑌 ⟹ 𝜌 𝑋 ≥ 𝜌 𝑌
Interprétation : Si les résultats du centre de profit X sont toujours inférieurs à ceux de Y, le besoin en capital pour X doit être supérieur à celui de Y.
L’axiome de sous-additivité est le plus important.
En effet, si les risques sont sous-additifs, l’addition des risques individuels donne une sorte d’enveloppe ou borne supérieure des risques. Si ce n’est pas le cas, l’utilisation du risque agrégé comme indicateur de risque global peut entraîner une sous évaluation de ce risque global.
54
2.2 Non sous-additivité de la Value-at-Risk
La Value-at-Risk est sous–additive seulement si la distribution de profits et pertes est normale (ou de manière générale elliptique). Dans les autres cas, ce n’est donc pas une mesure de risque cohérente.
Exemple :
Considérons l’ensemble des scénarios équiprobables suivants pour deux portefeuilles X et Y.
Scénarios X Y X+Y
1 7 -5 2
2 27 26 53
3 37 34 71
4 16 -3 13
5 32 17 49
6 -19 -11 -30
7 -7 42 35
8 22 12 34
9 -13 -26 -39
10 -2 5 3
VaR à 90% 13 11 30
NB : Dans cet exemple, les données correspondent à des pertes ou profits et non à des rendements.
On a : 𝑉𝐴𝑅90% 𝑋 + 𝑉𝐴𝑅90% 𝑌 = 13 + 11 = 24 et 𝑉𝐴𝑅90% 𝑋 + 𝑌 = 30
Donc 𝑉𝐴𝑅90% 𝑋 + 𝑉𝐴𝑅90% 𝑌 ≤ 𝑉𝐴𝑅90% 𝑋 + 𝑌
L’agrégation des 2 portefeuilles X et Y entraîne une augmentation du risque.
55
Chapitre 4 Etude d’un article de recherche
Charpentier Arthur, Oulidi Abder : Beta kernel quantile estimators of heavy-tailed loss distributions. Statistics and Computing, Volume 20, 35-55 (2009)
I. Introduction
Le quatrième chapitre de ce projet consiste en l’étude de l’article de recherche intitulé « Beta kernel quantile estimators of heavy-tailed loss distributions » écrit par Arthur Charpentier et Abder Oulidi et publié dans la revue Statistics and Computing.
Cet article propose une nouvelle méthode d’estimation de quantiles extrêmes
basée sur l’estimation non paramétrique de la fonction de densité à l’aide de noyaux Bêta.
Dans une première partie, les différentes méthodes actuellement utilisées pour
estimer les quantiles extrêmes d’une distribution sont présentées. On distingue trois grandes catégories de méthodes d’estimation : l’estimation paramétrique, la théorie des valeurs extrêmes et l’estimation non paramétrique. Ces différentes méthodes ont été étudiées en détail dans le deuxième chapitre de ce rapport.
Dans une deuxième partie, l’approche non paramétrique d’estimation de
quantiles est étudiée plus en détail et deux classes d’estimateurs sont distinguées. La première classe d’estimateurs, appelée classe « explicite », est basée sur les statistiques d’ordre. Dans cette classe figurent l’estimateur empirique et les estimateurs de Padgett, Harrell-Davis et Park, que nous étudierons dans la suite de ce chapitre. La seconde classe d’estimateurs, appelée classe « non-explicite », est basée sur l’inversion de l’estimateur de la fonction de répartition. On trouve l’estimateur de la fonction de répartition de la distribution en intégrant l’estimateur à noyau de la densité, puis on inverse cette fonction afin d’obtenir le quantile associé au niveau de confiance voulu. Dans cette classe figurent l’inverse de la fonction de répartition estimée à partir du noyau d’Epanechnikov, ainsi que quatre nouveaux estimateurs calculés à partir de noyaux Bêta.
Dans cet article, les performances de ces nouveaux estimateurs basés sur des
noyaux Bêta sont étudiées, et comparées avec les performances des cinq autres estimateurs. Pour cela, des simulations ont été réalisées sur cinq distributions, 2 à queues fines (normale, Weibull), moyennes (lognormale) et 2 à queues épaisses (mélange Pareto/lognormal).
56
Pour chaque distribution, les performances des neuf estimateurs proposés ont pu être comparées avec le critère de l’erreur quadratique moyenne (MSE Mean Squared Error) :
𝑀𝑆𝐸 = 𝔼 𝑄 𝑛 𝑝 − 𝑄 𝑝 2
≈ 1
𝑚 𝑄 𝑛
𝑘 𝑝 − 𝑄 𝑝 2
𝑚
𝑘=1
où :
𝑚 est le nombre d’échantillons simulés (ici, 𝑚 = 2000)
𝑛 est la taille des échantillons simulés (ici 𝑛 = 200 )
𝑝 est l’ordre du quantile recherché, ou niveau de confiance (ici 𝑝 = 0,95 )
𝑄 𝑛 𝑘 𝑝 est le quantile estimé d’ordre 𝑝 obtenu à partir du 𝑘ème échantillon
simulé de la distribution considérée
𝑄 𝑝 est le quantile théorique d’ordre 𝑝 de la distribution considérée
Dans ce chapitre, on se propose de refaire ce travail de simulation à l’aide du
logiciel R. Cependant, nous nous intéresserons seulement aux quantiles d’ordre proche de 1. En particulier dans ce compte rendu, les résultats seront donnés pour 𝑝 = 0,95, ce qui correspond à un risque de 5%.
La suite du chapitre est organisée de la manière suivante : Dans un premier temps, nous allons procéder à une description des neuf
estimateurs étudiés. Ensuite, les cinq distributions sur lesquelles les performances de ces estimateurs vont être étudiées seront décrites. Enfin, nous nous intéresserons aux résultats obtenus lors des simulations, et nous les comparerons à ceux obtenus dans l’article.
57
II. Description des estimateurs étudiés
Pour chacun des 9 estimateurs décrits ci-dessous, on considère :
𝑋1, … , 𝑋𝑛 l’échantillon simulé de taille 𝑛 (ici 𝑛 = 200 )
𝑝 l’ordre du quantile recherché, ou niveau de confiance (ici 𝑝 = 0,95 )
Les 9 estimateurs étudiés sont les suivants (on reprendra les notations utilisées dans l’article) :
2.1 Quantile empirique (R)
Il s’agit du quantile suggéré par le logiciel R (fonction quantile).
2.2 Estimateur de quantile Epanechnikov (E)
Il est obtenu en inversant l’estimateur de la fonction de répartition, obtenue avec le noyau d’Epanechnikov.
𝑄𝑛 𝑝 = 𝐹 𝑛−1 𝑝
où
𝐹 𝑛 𝑥 = 𝑓 𝑛 𝑡 𝑑𝑡
𝑥
−∞
𝑓 𝑛 𝑡 =1
𝑛
3
4 1 −
𝑡 − 𝑋𝑖
2
1 𝑡−𝑋𝑖 ≤
𝑛
𝑖=1
où 𝐹 𝑛−1 est l’inverse de la fonction de répartition, obtenue avec une méthode
numérique
2.3 Estimateur d’Harrel-Davis (HD)
Il s’agit d’une somme pondérée des statistiques d’ordre. Le principe de cet estimateur consiste à donner plus de poids aux statistiques d’ordres 𝑋 𝑖 où 𝑖 est
proche de 𝑛𝑝. Dans le cas de l’estimateur d’Harrel-Davis, on utilise un noyau Bêta asymétrique.
𝑄𝑛 𝑝 = 𝑓 𝑛+1 𝑝 , 𝑛+1 𝑞
𝑖𝑛
𝑖−1𝑛
𝑦 𝑑𝑦 𝑋 𝑖
𝑛
𝑖=1
𝑄𝑛 𝑝 = Γ 𝑛 + 1
Γ 𝑛 + 1 𝑝 Γ 𝑛 + 1 𝑞 𝑦 𝑛+1 𝑝−1 1 − 𝑦 𝑛+1 𝑞−1𝑑𝑦
𝑖𝑛
𝑖−1𝑛
𝑋 𝑖
𝑛
𝑖=1
où :
𝑓 𝑛+1 𝑝 , 𝑛+1 𝑞 est la densité de la distribution Bêta avec 𝛼 = 𝑛 + 1 𝑝
𝛽 = 𝑛 + 1 𝑞 les 𝑋 𝑖 pour 𝑖 = 1, … , 𝑛 sont les statistiques d’ordre
58
2.4 Estimateur de Padgett (PDG)
Tout comme l’estimateur d’Harrel-Davis, il s’agit d’une somme pondérée des statistiques d’ordre. Dans le cas de l’estimateur de Padgett, le noyau utilisé pour la pondération est un noyau gaussien, donc symétrique.
𝑄𝑛 𝑝 = 𝑊𝑖 ,𝑛 ,𝑝𝑋 𝑖
𝑛
𝑖=1
= 𝜙
𝑖𝑛
𝑖−1𝑛
𝑡 − 𝑝
𝑑𝑡 𝑋 𝑖
𝑛
𝑖=1
= Φ
𝑖𝑛− 𝑝
− Φ
𝑖 − 1𝑛
− 𝑝
𝑋 𝑖
𝑛
𝑖=1
où :
𝜙 𝑥 est la densité de la loi normale centrée réduite
Φ est la fonction de répartition de la loi normale centrée réduite les 𝑋 𝑖 pour 𝑖 = 1, … , 𝑛 sont les statistiques d’ordre
représente la largeur de fenêtre. Pour la simulation, la largeur de fenêtre suggérée par Harrel et Davis (1982) est
= 𝑝 1 − 𝑝
𝑛 + 1
59
2.5 Estimateur de Park (PRK)
L’estimateur de Park est très similaire à l’estimateur d’Harrel-Davis car il s’agit encore d’une somme pondérée des statistiques d’ordre. Le noyau utilisé est un noyau Bêta asymétrique.
𝑄𝑛 𝑝 = 𝕃𝛼 ,𝛽
𝑖𝑛− 𝑝
𝑏 − 𝕃𝛼 ,𝛽
𝑖 − 1𝑛
− 𝑝
𝑏 𝑋 𝑖
𝑛
𝑖=1
où :
𝕃𝛼 ,𝛽 𝑥−𝑝
𝑏 est la fonction de répartition de la distribution Bêta de
paramètres avec 𝛼 et 𝛽 avec
𝛼 =𝑥
𝑏+ 1 𝛽 =
1 − 𝑥
𝑏+ 1
les 𝑋 𝑖 pour 𝑖 = 1, … , 𝑛 sont les statistiques d’ordre
𝑏 représente la largeur de fenêtre. Pour la simulation, la largeur de fenêtre suggérée par Harrel et Davis (1982) est
𝑏 = 𝑝 1 − 𝑝
𝑛 + 1
Les 4 estimateurs restants ont été élaborés par Charpentier et Oulidi. Ils sont construits à partir des estimateurs à noyau de la densité de la distribution, et utilisent des noyaux Bêta asymétriques.
Pour ces 4 estimateurs, il est nécessaire de transformer préalablement l’échantillon initial 𝑋1, … , 𝑋𝑛 afin d’obtenir un échantillon transformé 𝑌1, … , 𝑌𝑛 = 𝐻(𝑋1), … , 𝐻(𝑋𝑛) ayant une distribution proche de la distribution uniforme sur l’intervalle 0; 1 (cf. Annexe du chapitre 4 §5.2 Simulation : Explication du code R – Distribution de Champernowne).
60
2.6 Estimateur utilisant le noyau Bêta1 (B1)
La première étape consiste à estimer la densité de la distribution de l’échantillon transformé, à l’aide d’un estimateur à noyau de la densité. Le noyau utilisé est un noyau Bêta asymétrique.
𝑓 𝑛 ,𝑌 𝑦 =1
𝑛 𝑘𝛽1
𝑌𝑖 ;𝑏; 𝑦 ∀0 < 𝑦 < 1
𝑛
𝑖=1
où :
𝑘𝛽1 𝑢; 𝑏; 𝑦 représente la fonction de densité de la distribution Bêta de
paramètres 𝛼 et 𝛽 avec
𝛼 =𝑦
𝑏+ 1 𝛽 =
1 − 𝑦
𝑏+ 1
𝑏 représente la largeur de fenêtre. Pour la simulation, la largeur de fenêtre suggérée par Harrel et Davis (1982) est
𝑏 = 𝑝 1 − 𝑝
𝑛 + 1
Ensuite, l’estimateur de la fonction de répartition de l’échantillon 𝑌1, … , 𝑌𝑛 est décrit par :
𝐹 𝑛 ,𝑌 𝑦 =1
𝑛 𝑘𝛽1
𝑌𝑖 ;𝑏; 𝑡 𝑑𝑡𝑦
0
𝑛
𝑖=1
On obtient le quantile d’ordre p de la distribution de l’échantillon 𝑌1, … , 𝑌𝑛 en
inversant l’estimateur de la fonction de répartition 𝐹 𝑛 ,𝑌 à l’aide d’une méthode
numérique. Pour obtenir le quantile de l’échantillon initial 𝑋1, … , 𝑋𝑛 , il suffit d’appliquer finalement la transformation inverse 𝐻−1 au quantile obtenu précédemment.
𝑄 𝑋1, … , 𝑋𝑛 , 𝑝 = 𝐻−1 𝑄 𝐻(𝑋1), … , 𝐻(𝑋𝑛) , 𝑝
61
2.7 Estimateur utilisant le noyau modifié Bêta2 (B2)
Le principe est le même que pour l’estimateur utilisant le noyau Bêta1, cependant le noyau Bêta a été modifié afin de réduire le biais sur les bords. On utilise donc le noyau suivant :
𝑘𝛽2 𝑌𝑖 ;𝑏; 𝑦 =
𝑘𝑦𝑏
, 1−𝑦𝑏
𝑌𝑖 𝑠𝑖 𝑦 ∈ 2𝑏, 1 − 2𝑏
𝑘𝜌𝑏 𝑦 ,
1−𝑦𝑏
𝑌𝑖 𝑠𝑖 𝑦 ∈ 0, 2𝑏
𝑘𝑦𝑏
, 𝜌𝑏 1−𝑦 𝑌𝑖 𝑠𝑖 𝑦 ∈ 1 − 2𝑏, 1
où 𝜌𝑏 𝑦 = 2𝑏2 + 2.5 − 4𝑏4 + 6𝑏2 + 2.25 − 𝑦2 −𝑦
𝑏
2.8 Estimateur MACRO-Bêta de Gouriéroux et Montfort (2006)
utilisant les noyaux Bêta1 et Bêta2 (MACRO B1 et MACRO B2)
Lorsque 𝑛 est plutôt petit (30 ou 50), il arrive que la masse totale de la densité ne soit pas exactement égale à 1. L’approche de Gouriéroux et Monfort consiste donc à diviser la valeur estimée de la densité ∀𝑦 ∈ 0,1 par la masse totale de la densité estimée. Cette transformation assure ainsi un poids total de 1.
On transforme donc les 2 densités précédentes (l’une estimée à l’aide du noyau Bêta1 et l’autre estimée à l’aide du noyau Bêta2) de la manière suivante :
𝑓 𝑛 ,𝑌𝑀𝐴𝐶𝑅𝑂 𝑦 =
𝑓 𝑛 ,𝑌 𝑦
𝑓 𝑛 ,𝑌 𝑡 𝑑𝑡1
0
∀𝑦 ∈ 0,1
62
III. Etude des 5 distributions utilisées pour la simulation
Les performances des neuf estimateurs seront étudiées en considérant les quantiles des cinq distributions suivantes :
Deux distributions à queues fines
La distribution Normale de paramètres 𝜇 = 5 et 𝜍 = 1
La distribution de Weibull de paramètres 𝜆 = 1 et 𝜅 = 1.5
Une distribution à queue moyenne
La distribution Log normale de paramètres 𝜇 = 0 et 𝜍 = 0.5
Deux distributions à queues épaisses
La distribution 30% Pareto et 70% Log normale de paramètres
o 𝜇 = 0 et 𝜍 = 0.5 pour la distribution Log normale
o 𝜆 = 1 et 𝜌 = 1.5 pour la distribution de Pareto
La distribution 70% Pareto et 30% Log normale de paramètres
o 𝜇 = 0 et 𝜍 = 0.5 pour la distribution Log normale
o 𝜆 = 1 et 𝜌 = 1.5 pour la distribution de Pareto
On présente dans ce qui suit les principales caractéristiques de chacune des distributions étudiées. Le script détaillé et expliqué de cette étude est visible en annexe du chapitre 4 §5.1.
63
3.1 Etude la distribution normale
Les principales caractéristiques de cette distribution sont regroupées dans le tableau ci-dessous.
Carte d’identité de la distribution normale
Moyenne 𝜇 = 5
Ecart-type 𝜍 = 1
Fonction de densité 𝑓𝑁 𝑥 =1
𝜍 2𝜋𝑒−
12 𝑥−𝜇𝜍
2
∀𝑥 ∈ ℝ
Queue de distribution fine
Symétrie de la distribution symétrique
VaR(95%) 6,644854
Les 2 graphiques ci-dessous représentent les fonctions de densité et de répartition de la distribution normale de paramètres 𝜇 = 5 et 𝜍 = 1.
64
3.2 Etude la distribution de Weibull
Les principales caractéristiques de cette distribution sont regroupées dans le tableau ci-dessous.
Carte d’identité de la distribution de Weibull
Paramètre de forme 𝜅 = 1,5
Paramètre d’échelle 𝜆 = 1
Fonction de densité 𝑓𝑊 𝑥 =𝜅
𝜆 𝑥
𝜆 𝜅−1
𝑒− 𝑥𝜆 𝜅
∀𝑥 ∈ ℝ+
Queue de distribution fine
Symétrie de la distribution asymétrique
VaR(95%) 2,078111
Les 2 graphiques ci-dessous représentent les fonctions de densité et de répartition de la distribution de Weibull de paramètres 𝜅 = 1,5 et 𝜆 = 1.
65
3.3 Etude de la distribution lognormale
Les principales caractéristiques de cette distribution sont regroupées dans le tableau ci-dessous.
Carte d’identité de la distribution lognormale
Moyenne 𝜇 = 0
Ecart-type 𝜍 = 0.5
Fonction de densité 𝑓𝐿𝑁 𝑥 =1
𝑥𝜍 2𝜋𝑒−
12 𝑙𝑜𝑔 𝑥 −𝜇
𝜍
2
∀𝑥 ∈ 0; +∞
Queue de distribution moyenne
Symétrie de la distribution asymétrique
VaR(95%) 2,276017
Les 2 graphiques ci-dessous représentent les fonctions de densité et de répartition de la distribution lognormale de paramètres 𝜇 = 0 et 𝜍 = 0.5.
66
3.4 Etude de la distribution 30% Pareto et 70% lognormale
Les principales caractéristiques de cette distribution sont regroupées dans le tableau ci-dessous.
Carte d’identité de la distribution 30% Pareto et 70% lognormale
Moyenne 𝜇 = 0
Ecart-type 𝜍 = 0.5
Paramètre de forme 𝜌 = 1.5
Paramètre d’échelle 𝜆 = 1
Fonction de densité 𝑓𝑃𝐿𝑁 𝑥 =0,70
𝑥𝜍 2𝜋𝑒−
12 𝑙𝑜𝑔 𝑥 −𝜇
𝜍
2
+0,30𝜌𝜆𝜌
𝑥 + 𝜆 𝜌+1 ∀𝑥 ∈ 0; +∞
Queue de distribution épaisse
Symétrie de la distribution asymétrique
VaR(95%) 2,917
Les 2 graphiques ci-dessous représentent les fonctions de densité et de répartition de la distribution 30% Pareto et 70% lognormale de paramètres :
o 𝜇 = 0 et 𝜍 = 0.5 pour la distribution lognormale o 𝜆 = 1 et 𝜌 = 1.5 pour la distribution de Pareto
67
3.5 Etude de la distribution 70% Pareto et 30% lognormale
Les principales caractéristiques de cette distribution sont regroupées dans le tableau ci-dessous.
Carte d’identité de la distribution 70% Pareto et 30% lognormale
Moyenne 𝜇 = 0
Ecart-type 𝜍 = 0.5
Paramètre de forme 𝜌 = 1.5
Paramètre d’échelle 𝜆 = 1
Fonction de densité 𝑓𝑃𝐿𝑁 𝑥 =0,30
𝑥𝜍 2𝜋𝑒−
12 𝑙𝑜𝑔 𝑥 −𝜇
𝜍
2
+0,70𝜌𝜆𝜌
𝑥 + 𝜆 𝜌+1 ∀𝑥 ∈ 0; +∞
Queue de distribution épaisse
Symétrie de la distribution asymétrique
VaR(95%) 4,828
Les 2 graphiques ci-dessous représentent les fonctions de densité et de répartition de la distribution 70% Pareto et 30% lognormale de paramètres :
o 𝜇 = 0 et 𝜍 = 0.5 pour la distribution lognormale o 𝜆 = 1 et 𝜌 = 1.5 pour la distribution de Pareto
68
3.6 Fonctions de densité et de répartition des 5 distributions
69
IV. Simulations
Le travail de réalisation a été réalisé à l’aide du logiciel R. Pour plus de détails concernant l’explication du code, se référer à l’annexe §5.2 du chapitre 4.
On rappelle ci-dessous le nom des différents estimateurs utilisés.
R : Quantile empirique suggéré par le logiciel R
E : Quantile obtenu en inversant l’estimateur à noyau de la fonction de répartition obtenu avec le noyau d’Epanechnikov
HD : Estimateur d’Harrel-Davis
PDG : Estimateur de Padgett
PRK : Estimateur de Park
B1 : Estimateur utilisant le noyau Bêta1
MACRO B1 : Estimateur MACRO-Bêta de Gouriéroux et Montfort (2006) utilisant le noyau Bêta1
B2 : Estimateur utilisant le noyau Bêta2
MACRO B2 : Estimateur MACRO-Bêta de Gouriéroux et Montfort (2006) utilisant le noyau Bêta2
On présente dans ce qui suit les résultats obtenus pour chaque distribution étudiée.
70
4.1 Estimation de la VaR dans le cas de la distribution normale
On étudie ici la distribution normale. Les informations principales relatives à cette distribution sont résumées dans le tableau ci-dessous : Carte d’identité de la distribution normale
Moyenne 𝝁 = 𝟓
Ecart-type 𝜍 = 1
Densité 𝑓𝑁 𝑥 =1
𝜍 2𝜋𝑒−
12 𝑥−𝜇𝜍
2
∀𝑥 ∈ ℝ
Type de la distribution Distribution symétrique à queue fine
VAR(95%) 6,644854
Sur le graphique ci-dessous, le quantile théorique de 6,644854 est représenté
par la ligne verticale en trait plein.
71
La comparaison des boîtes à moustaches des différents estimateurs montre que les valeurs prises par ces estimateurs s’étalent sur des intervalles similaires (les valeurs des estimateurs des quantiles varient approximativement entre 6 et 7,3) et leur médiane est centrée sur le quantile théorique, excepté les estimateurs d’Epanechnikov et de Park dont la médiane est légèrement excentré vers la droite. A priori les estimateurs B1, B2 et MACRO B2 semblent les plus performants.
Estimateur Rapport MSE
E 0.9657184 HD 0.8751344 PDG 0.8640298 PRK 2.067519 B1 0.752854 MACRO B1 0.8831294 B2 0.7008016 MACRO B2 0.7539837 Meilleur B2
Le tableau ci-dessus présente des rapports de MSE. La MSE de chaque estimateur est divisée par la MSE du quantile empirique calculé avec la fonction quantile sous R. Le fait de considérer le rapport et non la MSE va permettre d’homogénéiser les résultats obtenus pour les cinq distributions. En effet, si on considère uniquement la MSE individuelle des estimateurs pour chaque distribution, l’ordre de grandeur va différer d’une distribution à l’autre et il sera difficile de faire des comparaisons.
L’estimateur utilisant le noyau Bêta2 est le plus performant du point de vue du critère de la MSE, car le rapport de MSE obtenu égal à 0,7008016 est le plus proche de 0. Les autres estimateurs, excepté l’estimateur de Park, ont des performances très acceptables avec un rapport de MSE compris entre 0,75 et 0,97. On remarque par ailleurs que l’estimateur de Park est un peu moins performant avec un rapport de 2,067519. La MSE confirme donc ce que l’observation des boîtes à moustache avait mis en évidence.
72
4.2 Estimation de la VaR dans le cas de la distribution lognormale
On étudie ici la distribution lognormale. Les informations principales relatives à cette distribution sont résumées dans le tableau ci-dessous : Carte d’identité de la distribution lognormale
Moyenne 𝝁 = 𝟎
Ecart-type 𝜍 = 0,5
Densité 𝑓𝐿𝑁 𝑥 =1
𝑥𝜍 2𝜋𝑒−
12 𝑙𝑜𝑔 𝑥 −𝜇
𝜍
2
∀𝑥 ∈ 0; +∞
Type de la distribution Distribution asymétrique à queue moyenne
VAR(95%) 2,276017
Sur le graphique ci-dessous, le quantile théorique de 2,276017 est représenté
par la ligne verticale en trait plein.
73
La comparaison des boîtes à moustaches des différents estimateurs montre que les valeurs prises par ces estimateurs s’étalent sur des intervalles similaires (les valeurs des estimateurs des quantiles varient approximativement entre 1,7 et 3) et sont centrées sur le quantile théorique, excepté l’estimateur de Park qui est légèrement excentré. Sa médiane est proche de 2,5, alors que celles des autres estimateurs fluctuent autour de 2,3, valeur très proche du point 2,276017. A priori les estimateurs B2 et MACRO B2 semblent les plus performants.
Estimateur Rapport MSE
E 0.9288698 HD 0.9911004 PDG 0.995089 PRK 2.55509 B1 0.911929 MACRO B1 0.7464002 B2/R 0.5906554 MACRO B2 0.7471264 Meilleur B2
Du point de vue du critère de la MSE, l’estimateur utilisant le noyau Bêta2 est le plus performant, car le rapport de MSE obtenu égal à 0,5906554 est le plus proche de 0. Les autres estimateurs, excepté l’estimateur de Park, ont des performances semblables et très acceptables. On peut distinguer 2 classes d’estimateurs :
𝑅𝑎𝑝𝑝𝑜𝑟𝑡 𝑀𝑆𝐸 ∈ 0,74; 0,75 : estimateurs MACRO B1 et MACRO B2
𝑅𝑎𝑝𝑝𝑜𝑟𝑡 𝑀𝑆𝐸 ∈ 0,91; 1 : estimateurs E, HD, PDG et B1 On remarque par ailleurs que l’estimateur de Park est un peu moins performant
avec un rapport de MSE de 2,55509. La MSE confirme donc ce que l’observation des boîtes à moustache avait mis en évidence.
74
4.3 Estimation de la VaR dans le cas de la distribution de Weibull
On étudie ici la distribution de Weibull. Les informations principales relatives à cette distribution sont résumées dans le tableau ci-dessous : Carte d’identité de la distribution de Weibull
Paramètre de forme 𝜿 = 𝟏, 𝟓
Paramètre d’échelle 𝜆 = 1
Densité 𝑓𝑊 𝑥 =𝜅
𝜆 𝑥
𝜆 𝜅−1
𝑒− 𝑥𝜆 𝜅
∀𝑥 ∈ ℝ+
Type de la distribution Distribution asymétrique à queue fine
VAR(95%) 2,078111
Sur le graphique ci-dessous, le quantile théorique de 2,078111 est représenté
par la ligne verticale en trait plein.
75
La comparaison des boîtes à moustaches des différents estimateurs montre que les valeurs prises par ces estimateurs s’étalent sur des intervalles similaires (les valeurs des estimateurs des quantiles varient approximativement entre 1,5 et 3) et sont centrées sur le quantile théorique, excepté l’estimateur de Park qui est plus excentré que les autres. Sa médiane est proche de 2,25, alors que celles des autres estimateurs fluctuent autour de 2,8, en restant très proche du quantile théorique égal à 2, 078111. A priori les estimateurs B2 et MACRO B2 semblent les plus performants, car leur médiane coïncide quasiment parfaitement avec la valeur théorique du quantile.
Estimateur Rapport MSE
E 0.8860268 HD 0.9150579 PDG 0.909908 PRK 2.268103 B1 0.8177963 MACRO B1 0.8372592 B2 0.7371448 MACRO B2 0.7823687 Meilleur B2
Du point de vue du critère de la MSE, l’estimateur utilisant le noyau Bêta2 est le plus performant, car le rapport de MSE obtenu égal à 0,7371448 est le plus proche de 0. Les autres estimateurs, excepté l’estimateur de Park, ont des performances semblables et très acceptables avec un rapport de MSE compris entre 0,78 et 0,92. On remarque par ailleurs que l’estimateur de Park est un peu moins performant avec un rapport de MSE de 2,268103. La MSE confirme donc ce que l’observation des boîtes à moustache avait mis en évidence.
76
4.4 Estimation de la VaR dans le cas de la distribution 30% Pareto
70% lognormale
On étudie ici la distribution 30% Pareto 70% lognormale. Les informations principales relatives à cette distribution sont résumées dans le tableau ci-dessous : Carte d’identité de la distribution de 30% Pareto 70% lognormale
Distribution de Pareto
Paramètres de forme 𝝆 = 𝟏, 𝟓
Paramètre d’échelle 𝜆 = 1
Distribution lognormale
Moyenne 𝜇 = 0
Ecart-type 𝜍 = 0,5
Densité 𝑓𝑃𝐿𝑁 𝑥 =0,70
𝑥𝜍 2𝜋𝑒−
12 𝑙𝑜𝑔 𝑥 −𝜇
𝜍
2
+0,30𝜌𝜆𝜌
𝑥 + 𝜆 𝜌+1 ∀𝑥 ∈ 0; +∞
Type de la distribution Distribution asymétrique à queue épaisse
VAR(95%) 2,917
Sur le graphique ci-dessous, le quantile théorique de 2,917 est représenté par
la ligne verticale en trait plein.
77
La comparaison des boîtes à moustaches des différents estimateurs montre que les valeurs prises par ces estimateurs s’étalent sur des intervalles similaires (les valeurs des estimateurs des quantiles varient approximativement entre 2 et 6) et sont centrées sur le quantile théorique, excepté pour l’estimateur de Park qui est plus excentré que les autres vers la droite et dont l’étendue est plus importante (son maximum est proche de 9) et l’estimateur MACRO B1 qui est légèrement excentré vers la gauche, même si son étendue est restreinte à l’intervalle 2; 4 . A priori les estimateurs B2 et MACRO B2 semblent les plus performants : ils sont concentrés sur un intervalle plus restreint de valeurs et leur médiane est très proche de la valeur théorique du quantile.
Estimateur Rapport MSE
E 3.792388 HD 1.435686 PDG 2.766881 PRK 4.126024 B1 0.7621095 MACRO B1 0.7570776 B2 0.6684107 MACRO B2 0.6098167 Meilleur MACRO B2
Du point de vue du critère de la MSE, l’estimateur MACRO utilisant le noyau
Bêta2 est le plus performant, car le rapport de MSE obtenu égal à 0,6098167 est le plus proche de 0. Les autres estimateurs utilisant les noyaux Bêta1 et Bêta2 obtiennent également de bons résultats avec des rapports de MSE compris entre 0,66 et 0,76. Les estimateurs d’Epanechnikov, Harrel-Davis, Padgett et Park obtiennent quant à eux des résultats plutôt médiocres avec un rapport de MSE allant de 1,435686 pour Harrel-Davis à 4,126024 pour Park. Le critère de la MSE confirme donc ce que l’observation des boîtes à moustache avait mis en évidence.
78
4.5 Estimation de la VaR dans le cas de la distribution 70% Pareto
30% log normale
On étudie ici la distribution 70% Pareto 30% lognormale. Les informations principales relatives à cette distribution sont résumées dans le tableau ci-dessous : Carte d’identité de la distribution de 70% Pareto 30% lognormale
Distribution de Pareto
Paramètres de forme 𝝆 = 𝟏, 𝟓
Paramètre d’échelle 𝜆 = 1
Distribution lognormale
Moyenne 𝜇 = 0
Ecart-type 𝜍 = 0,5
Densité 𝑓𝑃𝐿𝑁 𝑥 =0,30
𝑥𝜍 2𝜋𝑒−
12 𝑙𝑜𝑔 𝑥 −𝜇
𝜍
2
+0,70𝜌𝜆𝜌
𝑥 + 𝜆 𝜌+1 ∀𝑥 ∈ 0; +∞
Type de la distribution Distribution asymétrique à queue épaisse
VAR(95%) 4,828
Sur le graphique ci-dessous, le quantile théorique de 4,828 est représenté par la
ligne verticale en trait plein.
79
La comparaison des boîtes à moustaches des différents estimateurs montre que les valeurs prises par ces estimateurs s’étalent sur des intervalles similaires (les valeurs des estimateurs des quantiles varient approximativement entre 2 et 10) et sont centrées sur le quantile théorique, excepté pour l’estimateur de Park qui est plus excentré que les autres vers la droite et dont l’étendue est plus importante (son maximum est proche de 20) et l’estimateur MACRO B1 qui est légèrement excentré vers la gauche, même si son étendue est restreinte à l’intervalle 2; 10 . L’estimateur B1 semble à première vue le plus performant : ses valeurs sont concentrées sur un intervalle plus restreint de valeurs et sa médiane est très proche de la valeur théorique du quantile.
Estimateur Rapport MSE
E 1.214980 HD 1.443129 PDG 1.742604 PRK 4.280306 B1 0.6804064 MACRO B1 1.313138 B2 1.412731 MACRO B2 1.031424 Meilleur B1
Du point de vue du critère de la MSE, l’estimateur utilisant le noyau Bêta1 est le
plus performant, car le rapport de MSE obtenu égal à 0,6804064 est le plus proche de 0. L’estimateur le moins performant est encore l’estimateur de Park avec un rapport de MSE égal à 4,280306. Les résultats des autres estimateurs sont comparables et fluctuent entre 1 et 2.
80
4.6 Conclusion finale
Estimateur Normale Lognormale Weibull 30%Pareto
70% Lognormale 70%Pareto
30% Lognormale
E 0.9657184 0.9288698 0.8860268 3.792388 1.214980 HD 0.8751344 0.9911004 0.9150579 1.435686 1.443129 PDG 0.8640298 0.995089 0.909908 2.766881 1.742604 PRK 2.067519 2.55509 2.268103 4.126024 4.280306 B1 0.752854 0.911929 0.8177963 0.7621095 0.6804064 MACB1 0.8831294 0.7464002 0.8372592 0.7570776 1.313138 B2 0.7008016 0.5906554 0.7371448 0.6684107 1.412731 MACB2 0.7539837 0.7471264 0.7823687 0.6098167 1.031424 Meilleur B2 B2 B2 MACRO B2 B1
On peut voir que les estimateurs utilisant les noyaux Bêta1 et Bêta2 sont les plus performants. Ils donnent de bons résultats à la fois pour les distributions à queues fines moyennes ou épaisses. Dans tous les cas de figure, l’estimateur de Park est le moins performant. Le rapport de MSE pour cet estimateur varie entre 2,067519 et 4,280306. Par ailleurs, on peut remarquer que les estimateurs d’Harrel-Davis, Epanechnikov et Padgett donnent globalement de meilleurs résultats sur les distributions à queues fines ou moyennes. Enfin, on peut également remarquer que les résultats ne sont pas uniformément les mêmes. On observe plus de différences entre les estimateurs pour les distributions à queues épaisses : l’intervalle de variation des valeurs des estimateurs est beaucoup plus large pour les 2 distributions à queues épaisses, à savoir le mélange 70% Pareto/30% Log normale et le mélange 30% Pareto/70% Log normale.
Les conclusions que nous pouvons tirer de cette simulation rejoignent donc celles émises dans l’article par Charpentier et Oulidi. Cependant, on observe des divergences dans les résultats concernant l’estimateur de Padgett. En effet, cet article montre que cet estimateur a de très mauvaises performances pour les trois catégories de distribution, avec un rapport de MSE atteignant 2.542 ∗ 103 pour le mélange 70% Pareto 30% Log normale, pour 𝑛 = 200 et 𝑝 = 0,95 (cf. Table 18 de l’article), alors que dans notre étude, les résultats sont bien meilleurs.
81
V. Annexes du chapitre 4
5.1 Description des 5 distributions : Explication du code R
Avant de commencer le travail de simulation proprement dit, nous allons étudier les 5 distributions considérées. Ce script R permet pour chaque distribution de :
représenter graphiquement la fonction de densité
représenter graphiquement la fonction de répartition
calculer le quantile d’ordre 𝑝 = 0,95 et le représenter sur le graphe de la fonction de répartition
Script R – Calcul des densités, fonctions de répartition et du quantile d’ordre 0.95
library(actuar)
x1<-seq(0,10,0.001)
x2<-seq(0,5,0.001)
x3<-seq(0.001,5,0.001)
x4<-seq(0.001,7,0.001)
#Normal distribution
d1<-dnorm(x1,mean=5,sd=1)
fdr1<-pnorm(x1,mean=5,sd=1)
q1<-qnorm(0.95,mean=5,sd=1) #6.644854
#Weibull distribution
d2<-dweibull(x2,shape=1.5,scale=1)
fdr2<-pweibull(x2,shape=1.5,scale=1)
q2<-qweibull(0.95,shape=1.5,scale=1) #2.078111
#Lognormal distribution
d3<-dlnorm(x3,meanlog=0,sdlog=0.5)
fdr3<-plnorm(x3,meanlog=0,sdlog=0.5)
q3<-qlnorm(0.95,meanlog=0,sdlog=0.5) #2.276017
#Mixture Pareto/lognormal
#30%-70%
d4<-0.7*dlnorm(x4,meanlog=0,sdlog=0.5)+0.3*dpareto(x4,shape=1.5,scale=1)
fdr4<-0.7*plnorm(x4,meanlog=0,sdlog=0.5)+0.3*ppareto(x4,shape=1.5,scale=1)
quantiles4<-cbind(x4,fdr4)
q4<-quantiles4[fdr4>0.95][1] #2.917
#70%-30%
d5<-0.3*dlnorm(x4,meanlog=0,sdlog=0.5)+0.7*dpareto(x4,shape=1.5,scale=1)
fdr5<-0.3*plnorm(x4,meanlog=0,sdlog=0.5)+0.7*ppareto(x4,shape=1.5,scale=1)
quantiles5<-cbind(x4,fdr5)
q5<-quantiles5[fdr5>0.95][1] #4.828
82
Script R - Graphiques
#Densités
plot(x1,d1,type="l",main="Normal distribution",sub="mean=5 sd=1",col="dark
magenta", xlab="",ylab="Normal
density",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
plot(x2,d2,type="l",main="Weibull distribution",sub="shape=1.5 scale=1",col="dark
magenta",xlab="",ylab="Weibull
density",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
plot(x3,d3,type="l",main="Lognormal distribution",sub="mean=0 sd=0.5",col="dark
magenta",xlab="",ylab="Lognormal
density",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
plot(x4,d4,type="l",main="30% Pareto / 70% Lognormal distribution",sub="Lognormal :
mean=0 sd=0.5\nPareto : shape=1.5 scale=1 ",ylab="Pareto/Lognormal
density",xlab="",col="dark
magenta",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
plot(x4,d5,type="l",main="70% Pareto / 30% Lognormal distribution",sub="Lognormal :
mean=0 sd=0.5\nPareto : shape=1.5 scale=1 ",ylab="Pareto/Lognormal
density",xlab="",col="dark
magenta",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
#Fonctions de répartition
plot(x1,fdr1,type="l",main="Normal distribution",sub="mean=5 sd=1",col="dark
magenta",xlab="",ylab="Normal cumulative
df",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
abline(v=q1,col="red",lty=3)
abline(h=0.95,col="red",lty=3)
plot(x2,fdr2,type="l",main="Weibull distribution",sub="shape=1.5 scale=1",col="dark
magenta",xlab="",ylab="Weibull cumulative
df",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
abline(v=q2,col="red",lty=3)
abline(h=0.95,col="red",lty=3)
plot(x3,fdr3,type="l",main="Lognormal distribution",sub="mean=0 sd=0.5",col="dark
magenta",xlab="",ylab="Lognormal cumulative
df",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
abline(v=q3,col="red",lty=3)
abline(h=0.95,col="red",lty=3)
plot(x4,fdr4,type="l",main="30% Pareto / 70% Lognormal distribution",sub="Lognormal
: mean=0 sd=0.5\nPareto : shape=1.5 scale=1 ",ylab="Pareto/Lognormal cumulative
df",xlab="",col="dark
magenta",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
abline(v=q4,col="red",lty=3)
abline(h=0.95,col="red",lty=3)
plot(x4,fdr5,type="l",main="70% Pareto / 30% Lognormal distribution",sub="Lognormal
: mean=0 sd=0.5\nPareto : shape=1.5 scale=1 ",ylab="Pareto/Lognormal cumulative
df",xlab="",col="dark
magenta",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
abline(v=q5,col="red",lty=3)
abline(h=0.95,col="red",lty=3)
83
Remarque : Pour les lois usuelles le logiciel R donne directement le quantile d’ordre 𝑝 recherché. Exemples :
Distribution normale q1<-qnorm(0.95,mean=5,sd=1)
Distribution de Weibull q2<-qweibull(0.95,shape=1.5,scale=1)
Distribution log normale q3<-qlnorm(0.95,meanlog=0,sdlog=0.5)
Cependant, pour le cas du « mélange Pareto/Log normale », on ne peut pas
utiliser ces fonctions car le quantile d’une somme de distributions est différent de la somme des quantiles des distributions prises séparément. Soit 𝑋 une variable aléatoire, et 𝐹𝑋 sa fonction de répartition :
𝐹𝑋 𝑥 = ℙ 𝑋 ≤ 𝑥
La fonction quantile est 𝐹𝑋−1.
Si on considère 2 variables aléatoires 𝑋 et 𝑌 alors :
𝐹𝑋−1 𝑝 + 𝐹𝑌
−1 𝑝 ≠ 𝐹𝑋+𝑌−1 𝑝
Source : Blog personnel d’Arthur Charpentier URL : http://blogperso.univ-rennes1.fr/arthur.charpentier/index.php/post/2009/07/16/Quantile-de-somme-ou-somme-de-quantiles
Par conséquent, on utilise la méthode suivante pour approcher le quantile. On considère :
𝒙 = 𝒙𝒊 𝟏≤𝒊≤𝒏 un vecteur de valeurs ordonnées à partir duquel la fonction de répartition est calculée
𝒇𝒅𝒓 le vecteur contenant les valeurs de la fonction de répartition On recherche la plus petite valeur du vecteur 𝒙 = 𝒙𝒊 𝟏≤𝒊≤𝒏 telle que la valeur de 𝒇𝒅𝒓 associée soit supérieure à 0,95, ie :
inf
1≤𝑖≤𝑑 𝑥𝑖 | 𝑓𝑑𝑟 𝑥𝑖 ≥ 0,95
Exemple :
Mélange Pareto/ Log normale 30%/70%
fdr4<-0.7*plnorm(x4,meanlog=0,sdlog=0.5)+0.3*ppareto(x4,shape=1.5,scale=1)
quantiles4<-cbind(x4,fdr4)
q4<-quantiles4[fdr4>0.95][1]
84
5.2 Simulations : Explication du code R
Déclaration des variables nécessaires au stockage des données
#Les vecteurs Q1 à Q9 contiennent les valeurs des quantiles estimés à partir
des different estimateurs
Q1<-c(1,2000) #Quantiles historiques (function quantile de R)
Q2<-c(1,2000) #Estimateur à noyau d’Epanechnikov de la densité
Q3<-c(1,2000) #Méthode: Estimateur de Harrel-Davis
Q4<-c(1,2000) #Méthode: Estimateur de Padgett
Q5<-c(1,2000) #Méthode: Estimateur de Park
Q6<-c(1,2000) #Estimateur à noyau Beta1 de la densité
Qest6<-c(1,2000)
Q7<-c(1,2000) #Estimateur à noyau MACRO-Beta1 de la densité
Qest7<-c(1,2000)
Q8<-c(1,2000) #Estimateur à noyau Beta2 de la densité
Qest8<-c(1,2000)
Q9<-c(1,2000) #Estimateur à noyau MACRO-Beta2 de la densité
Qest9<-c(1,2000)
B<-c(1,200)
K1<-c(1,200)
BPark<-c(1,200)
FB1<-c(1,999)
FBBis1<-c(1,999)
FBMACRO1<-c(1,999)
FBBisMACRO1<-c(1,999)
densNoyauBeta1<-c(1,999)
densNoyauBetaBis1<-c(1,999)
densNoyauBetaMACRO1<-c(1,999)
densNoyauBetaBisMACRO1<-c(1,999)
La première étape du script R consiste à déclarer tous les vecteurs nécessaires
au stockage des données. On réalise une simulation sur 2000 échantillons, les quantiles estimés des 2000 échantillons pour chaque type d’estimateur sont stockés dans des vecteurs de dimension (1,2000).
Les quantiles 𝑄1à 𝑄5 sont estimés directement à partir de l’échantillon original
𝑋1, … , 𝑋𝑛 .
𝑄1 représente le vecteur des quantiles historiques (fonction quantile de R)
𝑄2 représente le vecteur des quantiles estimés à partir de l’estimateur à noyau de la densité avec le noyau d’Epanechnikov
𝑄3 représente le vecteur des quantiles estimés avec l’estimateur de Harrel-Davis
𝑄4 représente le vecteur des quantiles estimés avec l’estimateur de Padgett
𝑄5 représente le vecteur des quantiles estimés avec l’estimateur de Park
85
Les quantiles 𝑄6à 𝑄9 sont estimés à partir de l’échantillon transformé 𝑌1, … , 𝑌𝑛 , où 𝑌𝑖 = 𝐹𝛼 ,𝑀 ,𝑐 𝑋𝑖 , 𝑖 = 1, … , 𝑛 et 𝐹𝛼 ,𝑀 ,𝑐 est la fonction de répartition de la distribution
de Champernowne. Nous verrons plus en détail dans la suite de l’algorithme, comment sont estimés les paramètres de cette fonction.
𝑄6 représente le vecteur des quantiles estimés à partir de l’estimateur à noyau de la densité avec le noyau Beta1
𝑄7 représente le vecteur des quantiles estimés à partir de l’estimateur à noyau MACRO-Beta1 de la densité (transformation globale de la l’estimateur à noyau de la densité afin d’assurer un poids total de 1)
𝑄8 représente le vecteur des quantiles estimés à partir de l’estimateur à noyau de la densité avec le noyau Beta2
𝑄9 représente le vecteur des quantiles estimés à partir de l’estimateur à noyau MACRO-Beta2 de la densité (transformation globale de la l’estimateur à noyau de la densité afin d’assurer un poids total de 1)
Déclaration des constantes et fonctions utilisées dans l’algorithme
#Champernowne function
#density
dchampernowne<-function(y,a,M,c)
{return ((a*(y+c)^(a-1)*((M+c)^a-c^a))/(((y+c)^a +(M+c)^a -(2*c^a))^2))}
#df
pchampernowne<-function(y,a,M,c)
{return (((y+c)^a-c^a)/((y+c)^a+(M+c)^a-2*c^a))}
#Log vraisemblance
LChamp<-function(par,X)
{ a<-par[1]
c<-par[2]
logvrais<-log(prod(dchampernowne(X,a,median(X),c)))
return(-logvrais)}
#Beta function HD estimate
Beta<-function(x)
{dbeta(x,201*0.95,201*0.05)}
#Quantile d’ordre p=0.95 de la distribution considérée
VraiQuantile<-qnorm(0.95,mean=5,sd=1)
#Largeur de fenêtre b
b<-sqrt(0.95*0.05/201)
#Fonction ro utilisée dans le noyau Bêta 2
ro<-function(x)
{2*b^2+2.5-sqrt(4*b^4+6*b^2+2.25-x^2-(x/b))}
86
Dans l’algorithme de simulation plusieurs fonctions et constantes sont nécessaires :
Distribution de Champernowne
L’idée consiste à transformer l’échantillon initial 𝑋1, … , 𝑋𝑛 en un nouvel échantillon 𝑌1, … , 𝑌𝑛 où 𝑌𝑖 = 𝐹𝛼 ,𝑀 ,𝑐 𝑋𝑖 , 𝑖 = 1, … , 𝑛. On doit estimer les paramètres 𝛼, 𝑀, 𝑐 de
cette distribution de telle sorte que la distribution de Champernowne ainsi estimée soit proche de la distribution de l’échantillon original 𝑋1, … , 𝑋𝑛 . Ainsi, l’échantillon transformé 𝑌1, … , 𝑌𝑛 aura une distribution proche de la distribution uniforme sur l’intervalle 0; 1 . Ceci peut être justifié par le théorème suivant :
Pour une variable aléatoire de fonction de répartition 𝐹, on note 𝐺 son inverse :
𝐺 𝑝 = 𝑖𝑛𝑓 𝑥 ∈ ℝ 𝐹 𝑥 ≥ 𝑝
Si 𝑈 désigne une variable aléatoire réelle uniforme sur 0; 1 , alors 𝑋 = 𝐺 𝑈 a pour fonction de répartition 𝐹 .
La fonction de répartition de la distribution de Champernowne est :
∀𝑦 ≥ 0 𝐹𝛼 ,𝑀,𝑐 𝑦 = 𝑦 + 𝑐 𝛼 − 𝑐𝛼
𝑦 + 𝑐 𝛼 + 𝑀 + 𝑐 𝛼 − 2𝑐𝛼
où 𝛼 > 0, 𝑐 ≥ 0 et 𝑀 > 0 La densité associée est définie par :
∀𝑦 ≥ 0 𝑓𝛼 ,𝑀,𝑐 𝑦 =𝛼 𝑦 + 𝑐 𝛼−1 𝑀 + 𝑐 𝛼 − 𝑐𝛼
𝑦 + 𝑐 𝛼 + 𝑀 + 𝑐 𝛼 − 2𝑐𝛼 2
On remarque que 𝐹𝛼 ,𝑀,𝑐 𝑀 =1
2. On estime donc le paramètre 𝑀 par la médiane
empirique de l’échantillon 𝑋1, … , 𝑋𝑛 . Les estimateurs des deux autres paramètres 𝛼 et 𝑐 sont obtenus avec la méthode du maximum de vraisemblance.
Largeur de fenêtre 𝒃
La constante 𝑏 correspond à la largeur de fenêtre utilisée dans les estimateurs à noyaux de Padgett, Park et les estimateurs basés sur des noyaux Bêta. On prend :
𝑏 = 𝑝 1−𝑝
𝑛+1
1/2
87
Algorithme de simulation
for(i in 1:2000)
{
#Normal distribution
BootX1<-rnorm(200,mean=5,sd=1)
#Estimation des paramètres de la fonction de Champernowne
#La fonction LChamp représente l’opposé de la log vraisemblance de la
distribution de Champernowne
#La fonction permet de trouver les paramètres a et C qui minimise cette
fonction et donc maximise la vraisemblance. Le vecteur c(1,1) correspond
aux valeurs initiales des paramètres dans l’algorithme de la fonction nlm.
est1<-nlm(LChamp,c(1,1),X=BootX1)
#Statistiques ordonnées
X1ord<-sort(BootX1,decreasing=FALSE)
#Empirical quantile
Q1[i]<-quantile(BootX1,0.95)
#E estimate
dens_ep1<-density(BootX1,kernel="epanechnikov")
FnEp1<-cumsum(dens_ep1$y)/sum(dens_ep1$y)
FFEp1<-cbind(dens_ep1$x,FnEp1)
Q2[i]<-FFEp1[FnEp1>=0.95][1]
#HD estimate
for(j in 1:200){B[j]<-(integrate(Beta,(j-1)/200,j/200))$value}
Q3[i]<-t(B) %*% X1ord
#PDG Padgett
for(j in 1:200)
{
K1[j]<-pnorm(((j/200)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/200)-0.95)/b,
mean=0,sd=1)
K2[j]<-pnorm(((j/200)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/200)-0.95)/b,
mean=0,sd=1)
}
Q4[i]<-t(K1) %*% X1ord
#PRK Park
for(j in 1:200)
{BPark[j]<-pbeta(j/200,((j/200)/b)+1,((1-(j/200))/b)+1)-pbeta((j-1)/200,
(((j-1)/200)/b)+1,((1-((j-1)/200))/b)+1)}
Q5[i]<-t(BPark) %*% X1ord
#Transformation de l'échantillon
Y1<-pchampernowne(BootX1,est1$estimate[1],median(BootX1),est1$estimate[2])
#Inverse de la fonction de Champernowne
xx<-seq(0,50,0.005)
Yref1<-pchampernowne(xx,est1$estimate[1],median(BootX1),est1$estimate[2])
InvChamp1<-cbind(xx,Yref1)
88
#Beta1 B1
for(d in 1:999)
{x<-d/1000
densNoyauBeta1[d]<-1/200*sum(dbeta(Y1,(x/b)+1,((1-x)/b)+1))/999}
YY<-seq(0.001,0.999,0.001)
for(m in 1:999) {FB1[m]<-sum(densNoyauBeta1[1:m])}
FFB1<-cbind(YY,FB1)
Qest6[i]<-FFB1[FB1>=0.95][1]
Q6[i]<-InvChamp1[Yref1>=Qest6[i]][1]
#Beta1 MACRO
for(d in 1:999)
{x<-d/1000
densNoyauBetaMACRO1[d]<-densNoyauBeta1[d]/sum(densNoyauBeta1)}
for(m in 1:999) {FBMACRO1[m]<-sum(densNoyauBetaMACRO1[1:m])}
FFBMACRO1<-cbind(YY,FBMACRO1)
Qest7[i]<-FFBMACRO1[FBMACRO1>=0.95][1]
Q7[i]<-InvChamp1[Yref1>=Qest7[i]][1]
#Beta2 B2
for(d in 1:999)
{
x<-d/1000
if(x<2*b){densNoyauBetaBis1[d]<-1/200*sum(dbeta(Y1,ro(x),(1-x)/b))/999}
if(x>2*b && x<(1-2*b)){densNoyauBetaBis1[d]<-1/200*sum(dbeta(Y1,x/b,(1-x)
/b))/999}
if(x>1-2*b){densNoyauBetaBis1[d]<-1/200*sum(dbeta(Y1,x/b,ro(1-x)))/999}
}
for(m in 1:999) {FBBis1[m]<-sum(densNoyauBetaBis1[1:m])}
FFB1<-cbind(YY,FBBis1)
Qest8[i]<-FFB1[FBBis1>=0.95][1]
Q8[i]<-InvChamp1[Yref1>=Qest8[i]][1]
#Beta2 MACRO
for(d in 1:999)
{x<-d/1000
densNoyauBetaBisMACRO1[d]<-densNoyauBetaBis1[d]/sum(densNoyauBetaBis1)}
for(m in 1:999){FBBisMACRO1[m]<-sum(densNoyauBetaBisMACRO1[1:m])}
FFBBisMACRO1<-cbind(YY,FBBisMACRO1)
Qest9[i]<-FFBBisMACRO1[FBBisMACRO1>=0.95][1]
Q9[i]<-InvChamp1[Yref1>=Qest9[i]][1]
}
89
Boxplots des 9 estimateurs de quantiles
boxplot(Q1,Q3,Q5,Q7,Q9,Q11,Q13,Q15,Q17,main="Boxplot for the 9 quantile
estimators\n Normal Distribution",col=c("light blue","light
green","purple","light
gray","pink","red","blue","yellow","green"),horizontal=TRUE,ylim=c(4,10))
legend("bottomright",inset=0.05,c("R","E","HD","PDG","PRK","B1","MACRO
B1","B2","MACRO B2"),fill=c("light blue","light green","purple","light
gray","pink","red","blue","yellow","green"),horiz=FALSE)
abline(v=VraiQuantile,lty=3,lwd=2,col="dark gray")
Calcul de la MSE pour chaque estimateur
#MSE pour m=2000 n=200 p=0.95
#R empirical quantile
MSE1<-1/2000*sum((Q1-VraiQuantile)^2)
#E inverse of the smoothed df with Epanechnikov kernel
MSE3<-1/2000*sum((Q3-VraiQuantile)^2)
#HD Harell-Davis estimate
MSE5<-1/2000*sum((Q5-VraiQuantile)^2)
#PDG Padgett estimate
MSE7<-1/2000*sum((Q7-VraiQuantile)^2)
#PRK Park estimate
MSE9<-1/2000*sum((Q9-VraiQuantile)^2)
#B1
MSE11<-1/2000*sum((Q11-VraiQuantile)^2)
#MACB1 MACRO-Beta estimate with beta1 kernel
MSE13<-1/2000*sum((Q13-VraiQuantile)^2)
#B2
MSE15<-1/2000*sum((Q15-VraiQuantile)^2)
#MACB2 MACRO-Beta estimate with beta2 kernel
MSE17<-1/2000*sum((Q17-VraiQuantile)^2)
90
Chapitre 5 Estimation de la VaR sur des données réelles
I. Etude descriptive des données
1.1 Etude de la variable Montant
On dispose d’un échantillon de données réelles. Ces données ont été collectées auprès de la compagnie de réassurance de Copenhage (Copenhagen reinsurance). Elles sont constituées des montants de 2167 sinistres de type incendie sur la période 1980-1990. Ces données ont été ajustées à l’inflation et sont exprimées en millions de DK (Danish Krone).
On peut d’hors et déjà remarquer que la majorité des sinistres ont un montant compris entre 0 et 50 millions de DK. Les sinistres de montant très élevé constituent donc des faits rares. On en distingue 3 principaux sur la période 1980-1990 :
un sinistre d’un montant d’environ 270 Millions de DK en 1980
un sinistre d’un montant d’environ 150 Millions de DK en 1989
un sinistre d’un montant d’environ 140 Millions de DK en 1990
91
Parmi les sinistres restants on peut distinguer 2 classes de sinistres :
les sinistres dont le montant est compris entre 0 et 10 Millions de DK, qui sont les plus nombreux
les sinistres dont le montant est compris entre 10 et 60 Millions de DK
Enfin on ne dénote a priori aucune tendance dans cette série, et aucun phénomène de saisonnalité non plus.
On se propose maintenant d’étudier les statistiques descriptives de la variable Montant regroupées dans le tableau ci-dessous.
Statistiques descriptives de la variable Montant
Taille de l’échantillon 2167
Minimum 1,000
1er Quartile 1,321
Médiane 1,778
Moyenne 3,385
3ème Quartile 2,967
Maximum 263,300
Ecart-type 8,507452
Kurtosis 482,198
Skewness 18,73685
La moyenne est 2 fois supérieure à la médiane. Comme l’on pouvait s’y attendre
en observant la série temporelle, la distribution des montants est donc clairement asymétrique.
Le coefficient de Skewness de 18,74 (coefficient de dissymétrie) confirme cette
idée. En effet, un coefficient positif indique une distribution étalée vers la gauche, et donc une queue de distribution étalée vers la droite. Ici le coefficient est très élevé, ce qui indique une concentration forte de la distribution sur la gauche. La distribution des montants a très peu de valeurs élevées. L’observation des quartiles permet de préciser cette asymétrie : 75% des valeurs sont comprises entre 1 et 2,967 Millions de DK, tandis que les 25% restants sont compris entre 2,967 et 263,30 Millions de DK.
Le coefficient de Kurtosis quant à lui indique un excès d’aplatissement positif
très élevé (482,198 − 3 = 479,198), qui est la caractéristique d’une distribution très « pointue ».
92
L’observation des deux graphiques ci-après (histogramme et boîtes à moustaches) permet de visualiser l’asymétrie et le caractère « pointu » de la distribution des montants.
93
94
Les deux graphiques ci-dessous représentent la fonction de répartition de la variable Montant. Le 2ème graphique est un zoom du premier pour des pertes comprises entre 0 et 50 Millions de DK, afin de mieux visualiser la VaR d’ordre 𝑝 = 0,95.
Comme l’on pouvait s’y attendre en observant l’histogramme, le quantile d’ordre 0,95 de la distribution des pertes appartient aux montants peu élevés. Il est d’environ 10 Millions de DK.
Etant donné que la distribution des montants est très concentrée sur la gauche, on se propose d’étudier la distribution des log montants afin de diminuer l’étendue de la distribution, et d’obtenir ainsi une distribution plus régulière, plus aplatie, et dont les quantiles extrêmes seront sans doute plus simple à estimer.
95
1.2 Etude de la variable log(Montant)
On se propose maintenant d’étudier les statistiques descriptives de la variable log(Montant) regroupées dans le tableau ci-dessous.
Statistiques descriptives de la variable log(Montant)
Taille de l’échantillon 2167
Minimum 0,000
1er Quartile 0,2785
Médiane 0,5756
Moyenne 0,7870
3ème Quartile 1,0880
Maximum 5,5730
Ecart-type 0,7167199
Kurtosis 4,179029
Skewness 1,761092
La moyenne et la médiane sont différentes mais néanmoins beaucoup plus proches que pour la variable Montant. La distribution des log montants est donc légèrement asymétrique.
Le coefficient de Skewness de 1,761092 confirme cette idée. Il est positif mais assez faible, ce qui indique une concentration de la distribution sur la gauche et une queue de distribution étalée vers la droite. L’observation des quartiles permet de préciser cette asymétrie : 75% des valeurs sont comprises entre 0 et 1,0880, tandis que les 25% restants sont compris entre 1,0880 et 5,5730.
Le coefficient de Kurtosis quant à lui indique un excès d’aplatissement positif faible (4,179029 − 3 = 1,179029). La distribution est donc légèrement plus pointue qu’une distribution normale.
L’observation des deux graphiques ci-après (histogramme et boîtes à moustaches) permet de visualiser l’asymétrie et l’aplatissement de la distribution des log montants.
96
97
Le graphique ci-dessous représente la fonction de répartition de la variable log(Montant).
Le quantile d’ordre 0,95 de la distribution des log montants est d’environ 2,3.
Dans ce qui suit, on se propose d’estimer les quantiles d’ordre 0,95 de ces deux distributions à l’aide des neuf estimateurs que nous avons étudiés dans le chapitre précédent.
98
II. Résultats obtenus
2.1 Variable Montant
Le tableau ci-dessous regroupe les valeurs des différents estimateurs de la VaR à 95% pour la distribution des montants.
Estimateur VaR(95%) MSE
R 9,972647 -
E 10,09040 0,01386577
HD 9,837975 0,01813655
PDG 9,836038 0,01866202
PRK 10,69525 0,5221551
B1 9 0,94604219
MACRO B1 9,845 0,01629376
B2 10,24 0,07147763
MACRO B2 9,625 0,12085844
Si on prend comme référence le quantile empirique retourné par le logiciel R, les estimateurs les plus performants du point de vue du critère de la MSE sont les estimateurs d’Epanechnikov, d’Harrel-Davis, de Padgett et l’estimateur MACRO utilisant le noyau Bêta2. Leur MSE est proche de 0,02.
Comme l’on pouvait s’y attendre aux vues des simulations réalisées dans le chapitre précédent, l’estimateur de Park donne un résultat plutôt médiocre avec une MSE de 0,5221551. Cependant, l’estimateur utilisant le noyau Bêta1 qui donnait des résultats très acceptables dans les simulations précédentes, est ici le moins performant avec une MSE de 0,94604219.
Il faut néanmoins nuancer ces observations et souligner qu’ici le quantile de référence n’est qu’un quantile empirique parmi tant d’autres et non pas le quantile théorique d’une distribution donnée et que nous ne disposons que d’une estimation de la VaR.
99
2.2 Variable log(Montant)
Le tableau ci-dessous regroupe les valeurs des différents estimateurs de la VaR à 95% pour la distribution des log montants.
Estimateur VaR(95%) MSE
R 2,299829 -
E 2,276961 0,000522945
HD 2,282039 0,000316484
PDG 2,281806 0,000324829
PRK 2,369797 0,004895521
B1 2,32 0,000406869
MACRO B1 2,32 0,000406869
B2 2,41 0,012137649
MACRO B2 2,275 0,000616479
Si on prend comme référence le quantile empirique retourné par le logiciel R, les estimateurs les plus performants du point de vue du critère de la MSE sont les estimateurs d’Epanechnikov, d’Harrel-Davis, de Padgett, l’estimateur utilisant le noyau Bêta1 et les estimateurs MACRO utilisant les noyaux Bêta1 et Bêta2. Leur MSE est en effet de l’ordre de 10−4.
Les autres estimateurs ont des performances toutes aussi acceptables avec une MSE de 0,005 pour l’estimateur de Park, et de 0,012 pour l’estimateur utilisant le noyau Bêta2.
Comme l’on pouvait s’y attendre, on obtient de bien meilleurs résultats avec la distribution des log montants qu’avec la distribution des montants. Le changement de variable que nous avons utilisé est donc a priori judicieux.
100
III. Annexes du chapitre 5
Statistiques descriptives sur les données de perte
#Danish data
danish<-read.csv(file="C:/Users/Pauline/Desktop/PFE SVN/Articles de
recherche/Article 1Beta kernel/DanishData.csv",header=TRUE,sep=";")
danish
names(danish)
attach(danish)
#Descriptive statistics
#Loss
library(fBasics)
length(Loss)
summary(Loss)
sd(Loss)
kurtosis(Loss)
skewness(Loss)
#Results
#Length 2167
#Min. 1.000
#1st Qu. 1.321
#Median 1.778
#Mean 3.385
#3rd Qu. 2.967
#Max. 263.300
#Sd 8.507452
#Kurtosis 482.198
#Skewness 18.73685
#LLoss
length(LLoss)
summary(LLoss)
sd(LLoss)
kurtosis(LLoss)
skewness(LLoss)
#Results
#Length 2167
#Min. 0.000
#1st Qu. 0.2785
#Median 0.5756
#Mean 0.7870
#3rd Qu. 1.0880
#Max. 5.5730
#Sd 0.7167199
#Kurtosis 4.179029
#Skewness 1.761092
101
Graphiques
#Plots
#Loss
TSLoss<-ts(Loss,start=1980,frequency=205) #Environ 17 obs par mois donc
205 par an
plot(TSLoss,type="h",col="dark blue",main="Série temporelle des montants
de 2167 sinistres incendie\n(1980-1990)",xlab="Temps",ylab="Montants en
Millions de DK")
Fn<-ecdf(Loss)
plot(Fn,main="Fonction de répartition des montants des sinistres
incendie",xlab="Montants en Millions de DK",ylab="Fonction de répartition
des montants",col="dark blue",pch="",lwd=3)
plot(Fn,main="Fonction de répartition des montants des sinistres
incendie",xlab="Montants en Millions de DK",ylab="Fonction de répartition
des montants",xlim=c(0,50),col="dark blue",pch="",lwd=3)
abline(h=0.95,col="red",lty=3,lwd=2)
abline(v=quantile(Loss,0.95),col="red",lty=3,lwd=2)
#Boxplot + hist
xhist<-hist(Loss,nclass=40,plot=FALSE)
top <- max(c(xhist$counts))
nf <- layout(c(2,1),c(2,2),TRUE)
par(mar=c(5,2,1,1))
boxplot(Loss,col="light blue",xlab="Montants en Millions de
DK",horizontal=TRUE)
par(mar=c(0,2,4,1))
barplot(xhist$counts, ylim=c(0, top), space=0,col="light
green",main="Variable Montant des sinistres incendie\nHistogramme et boîte à
moustaches")
#LLoss
LLoss<-log(Loss)
plot(ecdf(LLoss),main="Fonction de répartition des log montants\nDanish
Data",xlab="log(Montants)",ylab="Fonction de répartition des log
montants",col="dark blue",pch="",lwd=3)
abline(h=0.95,col="red",lty=3,lwd=2)
abline(v=quantile(LLoss,0.95),col="red",lty=3,lwd=2)
#Boxplot + hist
xhist<-hist(LLoss,nclass=30,plot=FALSE)
top <- max(c(xhist$counts))
nf <- layout(c(2,1),c(4,1),TRUE)
par(mar=c(5,2,1,1))
boxplot(LLoss,col="light blue",xlab="log Montants en Millions de
DK",horizontal=TRUE)
par(mar=c(0,2,5,1))
barplot(xhist$counts, ylim=c(0, top), space=0,col="light
green",main="Variable log Montant des sinistres incendie\nHistogramme et
boîte à moustaches")
102
Estimation de la VaR sur la distribution des pertes
#Estimation de la VaR sur données réelles : Loss
B<-c(1,2167)
K1<-c(1,2167)
BPark<-c(1,2167)
FB1<-c(1,999)
FBBis1<-c(1,999)
FBMACRO1<-c(1,999)
FBBisMACRO1<-c(1,999)
densNoyauBeta1<-c(1,999)
densNoyauBetaBis1<-c(1,999)
densNoyauBetaMACRO1<-c(1,999)
densNoyauBetaBisMACRO1<-c(1,999)
#Champernowne function
#density
dchampernowne<-function(y,alpha,M,cst)
{
return ((alpha*(y+cst)^(alpha-1)*(((M+cst)^alpha)-
(cst^alpha)))/((((y+cst)^alpha)+((M+cst)^alpha)-(2*cst^alpha))^2))
}
#df
pchampernowne<-function(y,alpha,M,cst)
{
return (((y+cst)^alpha-cst^alpha)/((y+cst)^alpha+(M+cst)^alpha-
2*cst^alpha))
}
#Log vraisemblance
LChamp<-function(par,X)
{alpha<-par[1]
cst<-par[2]
logvrais<-log(prod(dchampernowne(X,alpha,median(X),cst)))
return(-logvrais)}
#Beta function HD estimate
Beta<-function(x)
{dbeta(x,2167*0.95,2167*0.05)}
b<-sqrt(0.95*0.05/2168)
ro<-function(x)
{2*b^2+2.5-sqrt(4*b^4+6*b^2+2.25-x^2-(x/b))}
#Estimation des paramètres de la fonction de Champernowne
try(est1<-nlm(LChamp,c(1,1),X=Loss))
#Statistiques ordonnées
X1ord<-sort(Loss,decreasing=FALSE)
#Empirical quantile
Q1<-quantile(Loss,0.95)
103
#Inverse of the smoothed cumulative distribution function with
Epanechnikov kernel
dens_ep1<-density(Loss,kernel="epanechnikov")
FnEp1<-cumsum(dens_ep1$y)/sum(dens_ep1$y)
FFEp1<-cbind(dens_ep1$x,FnEp1)
Q3<-FFEp1[FnEp1>=0.95][1]
#HD estimate
for(j in 1:2167)
{B[j]<-(integrate(Beta,(j-1)/2167,j/2167))$value}
Q5<-t(B) %*% X1ord
#PDG Padgett
for(j in 1:2167)
{K1[j]<-pnorm(((j/2167)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/2167)-
0.95)/b,mean=0,sd=1)
K2[j]<-pnorm(((j/2167)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/2167)-
0.95)/b,mean=0,sd=1)}
Q7<-t(K1) %*% X1ord
#PRK Park
for(j in 1:2167)
{
x1<-((j/2167)-0.95)/b
x2<-((j-1)/2167-0.95)/b
BPark[j]<-pbeta(x1,((j/2167)/b)+1,((1-(j/2167))/b)+1)-pbeta(x2,(((j-
1)/2167)/b)+1,((1-((j-1)/2167))/b)+1)
}
Q9<-t(BPark) %*% X1ord
#Transformation de l'échantillon
Y1<-pchampernowne(Loss,est1$estimate[1],median(Loss),est1$estimate[2])
#Inverse de la fonction de Champernowne
xx<-seq(0,50,0.005)
Yref1<-pchampernowne(xx,est1$estimate[1],median(Loss),est1$estimate[2])
InvChamp1<-cbind(xx,Yref1)
#Beta1 B1
for(d in 1:999)
{x<-d/1000
densNoyauBeta1[d]<-1/2167*sum(dbeta(Y1,(x/b)+1,((1-x)/b)+1))/999}
YY<-seq(0.001,0.999,0.001)
for(m in 1:999)
{FB1[m]<-sum(densNoyauBeta1[1:m])}
FFB1<-cbind(YY,FB1)
Qest11<-FFB1[FB1>=0.95][1]
Q11<-InvChamp1[Yref1>=Qest11][1]
#Beta1 MACRO
for(d in 1:999)
{x<-d/1000
densNoyauBetaMACRO1[d]<-densNoyauBeta1[d]/sum(densNoyauBeta1)}
for(m in 1:999)
104
{FBMACRO1[m]<-sum(densNoyauBetaMACRO1[1:m])}
FFBMACRO1<-cbind(YY,FBMACRO1)
Qest13<-FFBMACRO1[FBMACRO1>=0.95][1]
Q13<-InvChamp1[Yref1>=Qest13][1]
#Beta2 B2
for(d in 1:999)
{
x<-d/1000
if(x<2*b){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,ro(x),(1-x)/b))/999}
if(x>2*b && x<(1-2*b)){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,x/b,(1-
x)/b))/999}
if(x>1-2*b){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,x/b,ro(1-x)))/999}
}
for(m in 1:999)
{FBBis1[m]<-sum(densNoyauBetaBis1[1:m]) }
FFB1<-cbind(YY,FBBis1)
Qest15<-FFB1[FBBis1>=0.95][1]
Q15<-InvChamp1[Yref1>=Qest15][1]
#Beta2 MACRO
for(d in 1:999)
{x<-d/1000
densNoyauBetaBisMACRO1[d]<-densNoyauBetaBis1[d]/sum(densNoyauBetaBis1) }
for(m in 1:999)
{FBBisMACRO1[m]<-sum(densNoyauBetaBisMACRO1[1:m])}
FFBBisMACRO1<-cbind(YY,FBBisMACRO1)
Qest17<-FFBBisMACRO1[FBBisMACRO1>=0.95][1]
Q17<-InvChamp1[Yref1>=Qest17][1]
#Q1 9.972647
#Q3 10.09040
#Q5 9.837975
#Q7 9.836038
#Q9 10.69525
#Q11 9
#Q13 9.845
#Q15 10.24
#Q17 9.625
105
Estimation de la VaR sur la distribution des log Pertes
#Estimation de la VaR sur données réelles : LLoss
#Estimation des paramètres de la fonction de Champernowne
try(est1<-nlm(LChamp,c(1,1),X=LLoss))
#Statistiques ordonnées
X1ord<-sort(LLoss,decreasing=FALSE)
#Empirical quantile
Q1<-quantile(LLoss,0.95)
#Inverse of the smoothed cumulative distribution function with
Epanechnikov kernel
dens_ep1<-density(LLoss,kernel="epanechnikov")
FnEp1<-cumsum(dens_ep1$y)/sum(dens_ep1$y)
FFEp1<-cbind(dens_ep1$x,FnEp1)
Q3<-FFEp1[FnEp1>=0.95][1]
#HD estimate
for(j in 1:2167)
{B[j]<-(integrate(Beta,(j-1)/2167,j/2167))$value}
Q5<-t(B) %*% X1ord
#PDG Padgett
for(j in 1:2167)
{K1[j]<-pnorm(((j/2167)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/2167)-
0.95)/b,mean=0,sd=1)
K2[j]<-pnorm(((j/2167)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/2167)-
0.95)/b,mean=0,sd=1)}
Q7<-t(K1) %*% X1ord
#PRK Park
for(j in 1:2167)
{
x1<-((j/2167)-0.95)/b
x2<-((j-1)/2167-0.95)/b
BPark[j]<-pbeta(x1,((j/2167)/b)+1,((1-(j/2167))/b)+1)-pbeta(x2,(((j-
1)/2167)/b)+1,((1-((j-1)/2167))/b)+1)
}
Q9<-t(BPark) %*% X1ord
#Transformation de l'échantillon
Y1<-pchampernowne(LLoss,est1$estimate[1],median(LLoss),est1$estimate[2])
#Inverse de la fonction de Champernowne
xx<-seq(0,50,0.005)
Yref1<-pchampernowne(xx,est1$estimate[1],median(LLoss),est1$estimate[2])
InvChamp1<-cbind(xx,Yref1)
#Beta1 B1
for(d in 1:999)
{x<-d/1000
densNoyauBeta1[d]<-1/2167*sum(dbeta(Y1,(x/b)+1,((1-x)/b)+1))/999}
106
YY<-seq(0.001,0.999,0.001)
for(m in 1:999)
{FB1[m]<-sum(densNoyauBeta1[1:m])}
FFB1<-cbind(YY,FB1)
Qest11<-FFB1[FB1>=0.95][1]
Q11<-InvChamp1[Yref1>=Qest11][1]
#Beta1 MACRO
for(d in 1:999)
{x<-d/1000
densNoyauBetaMACRO1[d]<-densNoyauBeta1[d]/sum(densNoyauBeta1)}
for(m in 1:999)
{FBMACRO1[m]<-sum(densNoyauBetaMACRO1[1:m])}
FFBMACRO1<-cbind(YY,FBMACRO1)
Qest13<-FFBMACRO1[FBMACRO1>=0.95][1]
Q13<-InvChamp1[Yref1>=Qest13][1]
#Beta2 B2
for(d in 1:999)
{
x<-d/1000
if(x<2*b){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,ro(x),(1-x)/b))/999}
if(x>2*b && x<(1-2*b)){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,x/b,(1-
x)/b))/999}
if(x>1-2*b){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,x/b,ro(1-x)))/999}
}
for(m in 1:999)
{FBBis1[m]<-sum(densNoyauBetaBis1[1:m]) }
FFB1<-cbind(YY,FBBis1)
Qest15<-FFB1[FBBis1>=0.95][1]
Q15<-InvChamp1[Yref1>=Qest15][1]
#Beta2 MACRO
for(d in 1:999)
{x<-d/1000
densNoyauBetaBisMACRO1[d]<-densNoyauBetaBis1[d]/sum(densNoyauBetaBis1) }
for(m in 1:999)
{FBBisMACRO1[m]<-sum(densNoyauBetaBisMACRO1[1:m])}
FFBBisMACRO1<-cbind(YY,FBBisMACRO1)
Qest17<-FFBBisMACRO1[FBBisMACRO1>=0.95][1]
Q17<-InvChamp1[Yref1>=Qest17][1]
#Q1 2.299829
#Q3 2.276961
#Q5 2.282039
#Q7 2.281806
#Q9 2.369797
#Q11 2.32
#Q13 2.32
#Q15 2.41
#Q17 2.275
107
Chapitre 6 La VaR Monte Carlo
I. Principe
Nous avons défini précédemment la Value-at-Risk comme la perte potentielle maximale sur un titre ou un portefeuille, sur un horizon de temps avec un degré de confiance. La méthode de calcul de la VaR Monte Carlo est utilisée en général quand le portefeuille contient des produits dérivés. Le principe de cette méthode consiste à simuler un grand nombre 𝑁 de trajectoires possibles d’un actif financier donné. Pour obtenir la Value-at-Risk pour un niveau de confiance de (100 − 𝛼)% , il suffit ensuite de sélectionner le 𝛼% ∗ 𝑁 pire scénario, i.e. la 𝛼% ∗ 𝑁 ième plus mauvaise valeur. Pour simuler les différentes trajectoires possibles d’un actif financier donné, on suit en général les trois étapes suivantes:
1. Choisir un modèle susceptible de décrire l’évolution de l’actif d’une manière assez fiable,
2. Déterminer les paramètres de ce modèle,
3. Simuler le nombre de trajectoires voulu du processus choisi avec les paramètres déterminés précédemment.
1.3 Quel modèle utiliser ?
Dès qu’il s’agit d’actions, d’indices actions ou de matières premières, le processus utilisé est le mouvement brownien géométrique. Soit 𝑆 𝑡 le cours de l’actif à la date 𝑡, l’évolution du cours de l’actif est donnée par le modèle suivant ::
𝑆 𝑡 + ∆𝑡 = 𝑆 𝑡 𝑒𝑥𝑝 𝜇 −𝜍2
2 ∆𝑡 + 𝜍𝜀 ∆𝑡
où
𝜇 est estimé par la moyenne empirique de la distribution de l’actif
𝜍 est estimé par l’écart-type empirique de la distribution de l’actif
𝜀 suit une loi normale 𝒩 0,1
108
1.4 Algorithme de simulation
Supposons qu’on veuille déterminer la VaR 95% sur une durée de 5 jours d’un portefeuille 𝑃 donné. L’algorithme est alors le suivant:
1. Valoriser le portefeuille à la date t=0, 𝑃0
2. Générer une trajectoire des différents actifs composants le portefeuille à la date 𝑡 = 5 𝑗𝑜𝑢𝑟𝑠,
3. Réévaluer le portefeuille à la date 𝑡 = 5 𝑗𝑜𝑢𝑟𝑠, 𝑃5. On obtient ainsi :
𝛥𝑃 = 𝑃5 − 𝑃0.
4. Répéter les étapes 2 et 3 autant de fois que souhaité.
Si on réalise par exemple 10 000 simulations, la VaR à 95% est la 500ème plus faible valeur de 𝛥𝑃.
II. Exemple d’application
2.1 Travail préliminaire
On considère un portefeuille consisté de :
50% DOW JONES
50% S&P 500 La première étape consiste à télécharger les cours de ces indices sur Yahoo finance par exemple. Ici, on télécharge donc les cours journaliers du DOW JONES et du S&P500 du 31 décembre 1969 au 1er janvier 2006. La Value-at-Risk étant calculée à partir de la distribution des rendements, on transforme ces données afin d’obtenir les rendements quotidiens de ces 2 indices du 1er janvier 1970 au 1er janvier 2006. Soit 𝑃𝑡 le cours de l’indice à la date 𝑡, le rendement quotidien de cet indice à la date 𝑡 est défini par :
𝑅𝑡 =𝑃𝑡
𝑃𝑡−1
− 1
On obtient ainsi 2 distributions de rendements :
𝑅𝑡1
𝑡 la distribution des rendements quotidiens du DOW JONES
𝑅𝑡2
𝑡 la distribution des rendements quotidiens du S&P 500
109
Afin d’obtenir les paramètres de la distribution du portefeuille nous avons besoin de calculer :
le coefficient de corrélation linéaire entre les distributions 𝑅𝑡1
𝑡 et 𝑅𝑡
2 𝑡
la moyenne et l’écart-type empiriques de chacune des distributions Soient :
𝜇1 ⇔ la moyenne empirique de la distribution 𝑅𝑡1
𝑡
𝜇2 ⇔ la moyenne empirique de la distribution 𝑅𝑡2
𝑡
𝜍1 ⇔ l’écart-type empirique de la distribution 𝑅𝑡1
𝑡
𝜍2 ⇔ l’écart-type empirique de la distribution 𝑅𝑡2
𝑡
𝑟12 le coefficient de corrélation linéaire entre les distributions 𝑅𝑡1
𝑡 et 𝑅𝑡
2 𝑡
La moyenne et l’écart-type empirique 𝜇𝑃 et 𝜍𝑃 de la distribution des rendements quotidiens du portefeuille sont définis par :
𝜇𝑃 =𝜇1 + 𝜇2
2
𝜍𝑃 = 𝜍1
2 + 𝜍22 + 2𝑟12𝜍1𝜍2
2
Les valeurs numériques obtenues à partir des données sont regroupées dans les deux tableaux ci-dessous : Coefficient de corrélation DJ
SP500 0,962 Paramètres DJ SP500 Portefeuille
Moyenne 0,00031 0,00031 0,0003 Ecart-type 0,01080 0,01078 0,0107
110
2.2 Simulation des trajectoires
Nous disposons maintenant de tous les paramètres nécessaires pour simuler le processus 𝑃𝑡 décrivant les rendements du portefeuille défini par :
𝑃𝑡+∆𝑡 = 𝑃𝑡 𝑒𝑥𝑝 𝜇𝑃 −𝜍𝑃
2
2 ∆𝑡 + 𝜍𝑃𝜀 ∆𝑡
La valeur initiale 𝑃0 n’a pas d’importance, étant donné qu’on travaille directement sur les distributions de rendements. On prend donc 𝑃0 = 1. On cherche la Value-at-Risk à 2 mois sur ce portefeuille pour un niveau de confiance de 99%. On considère une distribution de rendements quotidiens donc la volatilité et la moyenne que nous avons calculées précédemment sont des paramètres journaliers. On doit donc prendre :
soit ∆𝑡 = 42 : dans ce cas on obtient directement le rendement du portefeuille dans 1 an. En effet, les places boursières sont fermées les week-ends et les jours fériés, donc en comptant 9 jours fériés (il s’agit d’une convention bien entendu), on obtient 365 − 2 ∗ 52 − 9 = 252 jours, ce qui donne 42 jours pour 2 mois.
soit ∆𝑡 = 1 : dans ce cas, on calcule chaque jour de proche en proche le rendement du portefeuille.
2.2.1. Algorithme pour ∆𝒕 = 𝟒𝟐
On désire effectuer 1000 simulations. La procédure à suivre sur Excel est la suivante :
1) On génère un vecteur 𝜀𝑖 𝑖=1,…,1000 de variables aléatoires suivant une loi
normale 𝒩 0,1
Fonction Excel : LOI.NORMALE.STANDARD.INVERSE(ALEA()) sur 1000 cellules
2) Pour chaque valeur de 𝜀𝑖 on calcule le rendement du portefeuille dans 2 mois
noté 𝑃𝑖2 𝑚𝑜𝑖𝑠
𝑃𝑖2 𝑚𝑜𝑖𝑠 = 𝑒𝑥𝑝 𝜇𝑃 −
𝜍𝑃2
2 42 + 𝜍𝑃𝜀𝑖 42
3) Pour 𝑖 = 1, … ,1000 on calcule la variation du rendement du portefeuille :
∆𝑃𝑖 = 𝑃𝑖2 mois − 𝑃0 = 𝑃𝑖
2 mois − 1
111
4) On obtient la Value-at-Risk sur ce portefeuille pour un niveau de confiance de 99% et un horizon d’1 an en sélectionnant le 10ème plus faible rendement
Fonction Excel : CENTILE(J6:J1005;0,01) où J6:J1005 est la matrice contenant les valeurs ∆𝑃𝑖 i=1,…,1000
On obtient ainsi le résultat suivant :
Value-at-Risk(99%, 2 mois) -13,93%
Cela signifie qu’une personne possédant un portefeuille constitué à 50% de DOW JONES et à 50% de S&P 500 a 1% de risque de réaliser dans 2 mois une perte de 13,93% sur ce portefeuille. Ce résultat est raisonnable car on parle ici de pertes extrêmes.
2.2.2. Algorithme pour ∆𝒕 = 𝟏
1) On génère une matrice 𝜀𝑖𝑗 𝑖=1,…,1000𝑗=1,…,42
de variables aléatoires suivant une loi
normale 𝒩 0,1
2) Pour chaque trajectoire (i.e. pour 𝑖 fixé), on calcule de proche en proche les
valeurs de 𝑃𝑖𝑗 pour 𝑗 = 1, … ,42 .
𝑃𝑖𝑗
= 𝑃𝑖𝑗−1
𝑒𝑥𝑝 𝜇𝑃 −𝜍𝑃
2
2 1 + 𝜍𝑃𝜀𝑖𝑗 1
avec : 𝑃𝑖0 = 1 ∀𝑖 = 1, … ,1000
𝑃𝑖42 rendement du portefeuille dans 2 mois pour la 𝑖ème trajectoire
3) Pour 𝑖 = 1, … ,1000 on calcule la variation du rendement du portefeuille :
∆𝑃𝑖 = 𝑃𝑖42 − 𝑃0 = 𝑃𝑖
42 − 1
4) On obtient la Value-at-Risk sur ce portefeuille pour un niveau de confiance de 99% et un horizon d’1 an en sélectionnant le 10ème plus faible rendement
112
On obtient ainsi le résultat suivant :
Value-at-Risk(99%, 2 mois) -13,78%
Cela signifie qu’une personne possédant un portefeuille constitué à 50% de DOW JONES et à 50% de S&P 500 a 1% de risque de réaliser dans 2 mois une perte de 13,78% sur ce portefeuille. L’intérêt du 2ème algorithme est qu’il permet de visualiser les différentes trajectoires
possibles du rendement du portefeuille. Le graphique ci-dessous a été réalisé à partir
des 100 premières trajectoires simulées du rendement du portefeuille constitué à
50% de DOW JONES et à 50% de S&P 500.
Cependant, on remarque qu’on obtient des valeurs très proches pour la VaR :
-13,93% pour la simulation « directe »
-13,78% pour la simulation de proche en proche Il est donc plus intéressant d’utiliser la 1ère méthode, beaucoup moins coûteuse en calculs.
0,8
0,85
0,9
0,95
1
1,05
1,1
1,15
1,2
P0 P2 P4 P6 P8 P10 P12 P14 P16 P18 P20 P22 P24 P26 P28 P30 P32 P34 P36 P38 P40 P42
113
Chapitre 7 Etude du package VaR du logiciel R
I. Données
Le package VaR du logiciel R comporte 2 jeux de données :
Le premier jeu de données, noté DJIA, est composé des cours de clôture quotidiens des 30 entreprises de l’indice Dow Jones. Les données couvrent la période du 30 août 1993 au 29 août 2003, ce qui correspond à 2521 observations par entreprises.
Voici la liste des 30 compagnies ainsi que le nom de variable correspondant :
Nom de variable Compagnie
AA ALCOA INC.
AXP AMERICAN EXPRESS CO.
BA BOEING CO.
C CITIGROUP INC.
CAT CATERPILLAR INC.
DD DUPONT E I DE NEMOURS CO.
DIS DISNEY CO WALT HLDG CO.
EK EASTMAN KODAK CO.
GE GENERAL ELECTRIC CO.
GM GENERAL MOTORS CORP.
HD HOME DEPOT INC.
HON HONEYWELL INTERNATIONAL.
HPQ HEWLETT-PACKARD CO.
IBM INTERNATIONAL BUSINESS MACHINES CO.
INTC INTEL CO.
IP INTERNATIONAL PAPER CO.
JNJ JOHNSON & JOHNSON.
JPM JP MORGAN CHASE AND CO.
KO COCA COLA CO.
MCD MCDONALDS CORP.
MMM 3M COMPANY.
MO ALTRIA GROUP INC.
MRK MERCK & CO INC.
MSFT MiCROSOFT CORPORATION.
PG PROCTER & GAMBLE CO.
SBC SBC COMMUNICATIONS INC.
T AT & T CORP.
UTX UNITED TECHNOLOGIES CORP.
WMT WAL-MART STORES INC.
XOM EXXON MOBIL CORP.
114
On peut observer ci-dessous 2 graphiques représentant l’évolution du cours des actions BOEING et IBM sur la période du 30 août 1993 au 29 août 2003.
Le second jeu de données est composé des taux de change entre 5 devises : o Japan Yen (JPY) o Euro (EUR) o US dollar (USD) o Franc Suisse (CHF) o La Livre Sterling (GBP)
Les données couvrent la période du 3 janvier 2000 au 22 août 2003. On considère 4 taux de change explicités dans le tableau ci-dessous :
Nom de variable Taux de change Exemple au 17-02-2008
EURUSD EUR sur USD 1 EUR = 1,3773 USD
USDJPY USD sur JPY 1 USD = 90,6207522 JPY
USDCHF USD sur CHF 1 USD = 1,06610035 CHF
GBPUSD GBP sur USD 1 GBP = 1,5771 USD
Les 4 graphiques ci-après décrivent l’évolution de ces 4 taux de change sur la période du 3 janvier 2000 au 22 août 2003.
115
116
II. Fonctions
Deux fonctions permettent ensuite de donner une estimation de la VaR et l’Expected Shortfall pour une série de données présentant un risque. L’Expected Shortfall correspond à la perte moyenne en cas de dépassement de la VaR.
𝐸𝑆𝛼 = 𝐸 𝑋|𝑋 > 𝑉𝐴𝑅𝛼 = 𝑉𝐴𝑅𝛼 + 𝐸 𝑋 − 𝑉𝐴𝑅𝛼 | 𝑋 > 𝑉𝐴𝑅𝛼
2.1 Fonction VaR.gpd
Cette fonction estime la Value-at-Risk et l’Expected Shortfall (ES) d’un vecteur de données pour un niveau de confiance donné. Concernant le vecteur de données, il peut s’agir de l’évolution du cours d’une action ou de l’évolution d’un taux de change sur une période de 10 ans. Cependant, il doit s’agir de données « brutes » et non de rendements car la fonction va procéder elle-même à cette transformation.
L’algorithme d’estimation est le suivant :
1) Les données initiales sont transformées en rendements (quotidiens ici). 2) Les rendements ainsi obtenus sont triés dans l’ordre décroissant et on
sélectionne seulement la partie des rendements excédant un certain seuil donné.
3) A l’aide des techniques du maximum de vraisemblance, on ajuste une distribution de Pareto Généralisée (GPD) sur la queue de distribution précédemment sélectionnée.
4) Les valeurs de la VaR et de l’ES ainsi que les intervalles de confiance pour ces valeurs sont calculées à partir de cette distribution.
Cette méthode d’estimation utilise donc la théorie des valeurs extrêmes. Pour plus de détails concernant le calcul de la VaR, se reporter au Chapitre 2 Estimation de la Value-at-Risk – paragraphe 4.1 Théorie des valeurs extrêmes. Utilisation de la fonction VaR.gpd(ydat,p=0.01,p.tr=0.97,init=c(1,0.3),cflevel=0.95)
Arguments
ydat Vecteur de données sur lesquelles la VaR et l’ES vont être calculés p Niveau de confiance pour le calcul de la VaR et de l’ES p.tr Seuil pour l’ajustement du modèle GPD init Valeurs initiales pour l’algorithme du maximum de vraisemblance pour
l’ajustement du modèle GPD. cflevel Niveau de confiance pour les intervalles de confiance de la VaR et de l’ES
117
2.2 Fonction VaR.norm
Cette fonction estime la VaR pour un facteur de risque unique 𝑆 𝑡 à l’aide d’une approximation lognormale. Il existe 2 expressions de la VaR ainsi calculée, suivant qu’elle soit de type court ou long :
𝑉𝑎𝑅𝑙𝑜𝑛𝑔 𝑐 = 𝑆 𝑡 1 − 𝑒𝜇∆𝑡 + Φ 1−𝑐 𝜍 Δ𝑡
𝑉𝑎𝑅𝑠𝑜𝑟𝑡 𝑐 = −𝑆 𝑡 1 − 𝑒𝜇∆𝑡 − Φ 1−𝑐 𝜍 Δ𝑡
où
𝑐 est le niveau de confiance souhaité
Φ 1 − 𝑐 est le quantile d’ordre 1 − 𝑐 de la loi normale centrée réduite
∆𝑡 est la période de liquidation
𝜇 et 𝜍 sont la moyenne et l’écart-type de Δ𝑆 𝑡 si drift.appx=FALSE : 𝜇 = 0 si lin.appx=TRUE : 𝑒𝑥~1 + 𝑥 Utilisation de la fonction VaR.norm( ydat , p=0.99 , dt=1 , type="long" , drift.appx=FALSE ,
lin.appx=TRUE )
Arguments
ydat Vecteur de données sur lesquelles la VaR va être calculée p Niveau de confiance pour le calcul de la VaR dt Période de liquidation type Chaîne décrivant le type de VaR calculé : "long" ou "short" lin.appx Si TRUE, la VaR est calculée à l’aide d’une approximation linéaire
drift.appx Si TRUE, la VaR est calculée à l’aide d’une approximation de moyenne non nulle
Que signifie de type court ou long ???
118
Exemple
#VaR GPD et lognorm pour les 4 taux de change
z1<-VaR.gpd(USDJPY[!is.na(USDJPY)])
z2<-VaR.norm(USDJPY[!is.na(USDJPY)])
z1$VaR
z2$VaR
z1$VaR.interval
z1$ES
z1$ES.interval
x1<-VaR.gpd(EURUSD[!is.na(EURUSD)])
x2<-VaR.norm(EURUSD[!is.na(EURUSD)])
x1$VaR
x2$VaR
x1$VaR.interval
x1$ES
x1$ES.interval
y1<-VaR.gpd(USDCHF[!is.na(USDCHF)])
y2<-VaR.norm(USDCHF[!is.na(USDCHF)])
y1$VaR
y2$VaR
y1$VaR.interval
y1$ES
y1$ES.interval
s1<-VaR.gpd(GPDUSD[!is.na(GPDUSD)])
s2<-VaR.norm(GPDUSD[!is.na(GPDUSD)])
s1$VaR
s2$VaR
s1$VaR.interval
s1$ES
s1$ES.interval
Résultats obtenus
Fonction utilisée
VaR.gpd VaR.norm
Taux de change
VaR ES IC VaR IC ES VaR
USD/JPY 1,636566 2,112686 1,485; 1,882 1,343 ; 1,600 1,674734
EUR/USD 1,609425 1,866881 1,516 ; 1,760 1,709 ; 2,121 0,0167368
USD/CHF 1,619008 1,917267 1,518 ; 1,785 1,734 ; 2,219 0,02180417
GBP/USD 1,262735 1,437066 1,201 ; 1,369 1,343 ; 1,600 0,01844153
Je ne vois pas comment interpréter ces résultats … S’agit-il de pourcentage, de rendements … ? 1,63 = 163% de pertes ? ou 63% de pertes … ? ou 1,63 points de pertes sur le taux ?
119
2.3 Fonction VaR.backtest
Cette fonction effectue un test de proportion entre l’échantillon de données initiales et la VaR calculée à l’aide d’une des 2 fonctions précédentes. Il calcule la proportion d’observations dépassant la VaR estimée, et le compare avec le niveau de confiance utilisé dans l’estimation de la VaR.
𝐻0 : la proportion empirique de l’échantillon est égale au niveau de confiance
𝐻1 : la proportion empirique de l’échantillon est différente du niveau de confiance Donc si la p-value < 0,01 la proportion d’observations dans l’échantillon dépassant la VaR est différente du niveau de confiance utilisé dans l’estimation de la VaR. Utilisation de la fonction VaR.backtest(x, VaR, p)
Arguments
x Vecteur d’observations VaR Estimation de la VaR pour un niveau de confiance p p Niveau de confiance utilisé pour l’estimation de la VaR
Exemple
i<-EURUSD[!is.na(EURUSD)]
i1<-VaR.gpd(i)
i2<-VaR.norm(i)
i1$VaR
i2$VaR
i1$VaR.interval
i1$ES
i1$ES.interval
VaR.backtest(i,i1$VaR,p=0.01)
VaR.backtest(i,i2$VaR,p=0.01)
120
Bibliographie
Université d’Orléans Master ESA - Cours d’économétrie pour la finance de Christophe Hurlin - Introduction à la Value-at-Risk : http://www.univ-orleans.fr/deg/masters/ESA/CH/churlin_E.htm Résumé de la thèse d’actuariat de F. Dumontaux et B. Sellam - Value-at-Risk et allocation de capital : http://www.acam-france.fr/?action=download&fileName=T-Dumontaux_et_Sellam_100.pdf Les différents types de risques financiers : http://www.fimarkets.com/pages/suivi_risques.htm Lexique de la finance : http://www.vernimmen.net/ Solvency II : Contexte et enjeux de la réforme : http://www.fimarkets.com/documents/La+nouvelle+reforme+de+Solvabilite+II.pdf La VaR en assurance : http://www.ica2006.com/Papiers/3128/3128.pdf Optimisation de portefeuille selon le critère de la Value-at-Risk : http://www.maroc-inge.com/download/repports/33608e3bc953c32e24bb7fd8082ebe39.pdf