120
Pauline REQUENA GM5 Rapport de PFE Etude des méthodes d’estimation de la Value-at-Risk A l’attention de M. Bruno PORTIER 2009 2010

Rmodel

Embed Size (px)

DESCRIPTION

bon

Citation preview

Page 1: Rmodel

Pauline REQUENA GM5

Rapport de PFE

Etude des méthodes d’estimation

de la Value-at-Risk

A l’attention de M. Bruno PORTIER

2009 2010

Page 2: Rmodel

2

SOMMAIRE

CHAPITRE 1 PRESENTATION DE LA VALUE-AT-RISK 5

I. INTRODUCTION 5

II. PRESENTATION GENERALE 5

2.1 DEFINITION GENERALE 5

2.2 UTILISATION DE LA VAR 6

2.3 TYPES DE RISQUES MESURES PAR LA VAR 7

2.4 COMMENT ADAPTER LA VAR EN ASSURANCE ? 9

2.4.1. Résumé du principe de fonctionnement d’une société d’assurance 9

2.4.2. Adaptation de la VaR en assurance 11

2.4.3. Utilisation de la VaR dans dans le calcul du besoin en fonds propres 12

III. DEFINITION PROBABILISTE DE LA VALUE-AT-RISK 14

3.1 DEFINITION DE LA VAR 14

3.1.1. Distribution des profits et pertes (P&L) 16

3.1.2. Définition probabiliste de la VaR 17

3.2 COMMENT ESTIMER LA VALUE-AT-RISK ? 17

CHAPITRE 2 ESTIMATION DE LA VALUE-AT-RISK 18

I. INTRODUCTION 18

II. ESTIMATION PARAMETRIQUE 18

2.1 PRELIMINAIRES : APPROCHE UNIVARIEE 19

2.2 APPROCHE VARIANCE COVARIANCE 21

2.3 METHODE RISKMETRICS 23

2.4 AVANTAGES ET LIMITES DES METHODES D’ESTIMATION PARAMETRIQUES 24

III. ESTIMATION NON PARAMETRIQUE 25

3.1 SIMULATION HISTORIQUE (HS HISTORICAL SIMULATION) 25

3.1.1. Principe et définition 25

3.1.2. Exemple d’utilisation : Cours de clôture AXA du 25/10/2007 au 23/10/2009 27

3.1.3. Limites de la Simulation Historique 33

3.1.4. Prévision de la VaR selon la méthode de Simulation Historique 33

3.1.5. Exemple de prévision de la VaR HS 35

3.2 METHODE BOOTSTRAP DE SIMULATION HISTORIQUE 36

3.3 WEIGHED HISTORICAL SIMULATION (WHS) 38

3.3.1. Les différentes pondérations possibles 38

3.3.2. Aged-weighted HS ou Méthode Hybride 39

3.4 SIMULATION HISTORIQUE ET SIMULATION PARAMETRIQUE DE LA DENSITE 40

3.4.1. Principe et définition 40

3.4.2. Exemple d’application sous R 42

IV. ESTIMATION SEMI-PARAMETRIQUE 45

Page 3: Rmodel

3

4.1 THEORIE DES VALEURS EXTREMES 45

4.1.1. Cadre d’analyse 45

4.1.2. Théorème limite de Fisher-Tippett 46

4.1.3. Méthode des excès et distribution de Pareto généralisée 48

CHAPITRE 3 LIMITES DE LA VALUE-AT-RISK 51

I. INTRODUCTION 51

II. LA VALUE-AT-RISK, UNE MESURE DE RISQUE COHERENTE ? 52

2.1 DEFINITION D’UNE MESURE DE RISQUE COHERENTE 52

2.2 NON SOUS-ADDITIVITE DE LA VALUE-AT-RISK 54

CHAPITRE 4 ETUDE D’UN ARTICLE DE RECHERCHE 55

I. INTRODUCTION 55

II. DESCRIPTION DES ESTIMATEURS ETUDIES 57

2.1 QUANTILE EMPIRIQUE (R) 57

2.2 ESTIMATEUR DE QUANTILE EPANECHNIKOV (E) 57

2.3 ESTIMATEUR D’HARREL-DAVIS (HD) 57

2.4 ESTIMATEUR DE PADGETT (PDG) 58

2.5 ESTIMATEUR DE PARK (PRK) 59

2.6 ESTIMATEUR UTILISANT LE NOYAU BETA1 (B1) 60

2.7 ESTIMATEUR UTILISANT LE NOYAU MODIFIE BETA2 (B2) 61

2.8 ESTIMATEUR MACRO-BETA DE GOURIEROUX ET MONTFORT (2006) UTILISANT LES NOYAUX

BETA1 ET BETA2 (MACRO B1 ET MACRO B2) 61

III. ETUDE DES 5 DISTRIBUTIONS UTILISEES POUR LA SIMULATION 62

3.1 ETUDE LA DISTRIBUTION NORMALE 63

3.2 ETUDE LA DISTRIBUTION DE WEIBULL 64

3.3 ETUDE DE LA DISTRIBUTION LOGNORMALE 65

3.4 ETUDE DE LA DISTRIBUTION 30% PARETO ET 70% LOGNORMALE 66

3.5 ETUDE DE LA DISTRIBUTION 70% PARETO ET 30% LOGNORMALE 67

3.6 FONCTIONS DE DENSITE ET DE REPARTITION DES 5 DISTRIBUTIONS 68

IV. SIMULATIONS 69

4.1 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION NORMALE 70

4.2 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION LOGNORMALE 72

4.3 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION DE WEIBULL 74

4.4 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION 30% PARETO 70% LOGNORMALE 76

4.5 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION 70% PARETO 30% LOG NORMALE 78

4.6 CONCLUSION FINALE 80

V. ANNEXES DU CHAPITRE 4 81

5.1 DESCRIPTION DES 5 DISTRIBUTIONS : EXPLICATION DU CODE R 81

Page 4: Rmodel

4

5.2 SIMULATIONS : EXPLICATION DU CODE R 84

Distribution de Champernowne 86

Largeur de fenêtre 𝒃 86

CHAPITRE 5 ESTIMATION DE LA VAR SUR DES DONNEES REELLES 90

I. ETUDE DESCRIPTIVE DES DONNEES 90

1.1 ETUDE DE LA VARIABLE MONTANT 90

1.2 ETUDE DE LA VARIABLE LOG(MONTANT) 95

II. RESULTATS OBTENUS 98

2.1 VARIABLE MONTANT 98

2.2 VARIABLE LOG(MONTANT) 99

III. ANNEXES DU CHAPITRE 5 100

CHAPITRE 6 LA VAR MONTE CARLO 107

I. PRINCIPE 107

1.3 QUEL MODELE UTILISER ? 107

1.4 ALGORITHME DE SIMULATION 108

II. EXEMPLE D’APPLICATION 108

2.1 TRAVAIL PRELIMINAIRE 108

2.2 SIMULATION DES TRAJECTOIRES 110

2.2.1. Algorithme pour ∆𝒕 = 𝟒𝟐 110

2.2.2. Algorithme pour ∆𝒕 = 𝟏 111

CHAPITRE 7 ETUDE DU PACKAGE VAR DU LOGICIEL R 113

I. DONNEES 113

II. FONCTIONS 116

2.1 FONCTION VAR.GPD 116

2.2 FONCTION VAR.NORM 117

2.3 FONCTION VAR.BACKTEST 119

BIBLIOGRAPHIE 120

Page 5: Rmodel

5

Chapitre 1 Présentation de la Value-at-Risk

I. Introduction

Apparue pour la première fois à la fin des années 80 dans le domaine de l’assurance, la Value-at-Risk (VaR) est devenue en moins d’une dizaine d’années, une mesure de référence du risque sur les marchés financiers. C’est la banque JP Morgan, qui a popularisé ce concept avec son système RiskMetrics implémenté en 1994. La Value-at-Risk est notamment utilisée dans la réglementation prudentielle définie dans le cadre des accords de Bâle II. (cf. II/ Utilisation de la VaR)

II. Présentation générale

2.1 Définition générale

La Value-at-Risk correspond au montant des pertes qui ne devraient pas être dépassées pour un niveau de confiance donné sur un horizon temporel donné. Le niveau de confiance choisi est en général de 95 ou 99%.

Considérons :

un seuil de risque de 𝛼 % , équivalent à un seuil de confiance de 1 − 𝛼 % un horizon temporel N

La VaR permet de répondre à l’affirmation suivante : « Nous sommes certains, à 1 − 𝛼 %, que nous n'allons pas perdre plus de V euros sur les N prochains jours ». La valeur V correspond à la VaR. Il s’agit donc de la perte maximale potentielle qui ne devrait être atteinte qu’avec une probabilité donnée (ou un risque donné) sur un horizon temporel donné.

Exemple : Si une banque annonce une VaR quotidienne de 1 million d’euros sur son portefeuille pour un niveau de confiance de 99%, cela implique qu’il y a seulement une chance sur 100, sous des conditions normales de marché, que la perte associée à la détention de ce portefeuille sur une journée excède 1 million d’euros. Autrement dit : La VaR au seuil de confiance de 99% à 1 jour, que l'on notera, VaR (99%, 1j), égale à 1 million d'euros signifie qu'un jour sur cent en moyenne, le portefeuille est susceptible d'enregistrer une perte supérieure à cette somme de 1 million d'euros.

Page 6: Rmodel

6

2.2 Utilisation de la VaR

La VaR est utilisée aussi bien par les institutions financières et les régulateurs que par les entreprises non financières. Les institutions financières ont été les premières à utiliser cet outil. En effet, la diversification des risques financiers, la complexité des nouveaux instruments financiers et l’évolution de la régulation ont poussé les institutions financières à mettre en place des systèmes centralisés de surveillance et de management des risques. De leur côté, les réglementations doivent évaluer ces risques financiers afin d’imposer aux institutions financières un niveau minimal de capitaux disponibles. Par ailleurs, le management centralisé des risques est utile à toute entreprise exposée à des risques financiers. Les entreprises non financières, comme les multinationales par exemple, utilisent quant à elles la VaR pour se prémunir contre le risque de change.

La VaR peut donc être utilisée :

de façon passive : reporting des risques L’objectif est de mesurer un risque agrégé (1ère utilisation par la banque JP Morgan). C’est une mesure du risque simple à interpréter car elle s’exprime sous forme d’un montant maximal de perte, et elle permet de synthétiser en une seule mesure une appréciation sur le risque global.

de façon défensive : contrôle des risques L’objectif est de déterminer des positions limites à ne pas dépasser, qui seront imposées aux traders ou aux business units. Au-delà de ces limites, il n’est plus possible de prendre une position sans l’autorisation d’un responsable risque. Cette méthode vise à limiter la prise de risque au-delà d’une limite acceptable. Pour être pertinent, le contrôle des risques doit être global. Les développements informatiques associés, sont donc des applications dites « transverses », souvent complexes, regroupant des informations en provenance de tous les centres d'activités.

de façon active : management des risques La VaR est utilisée dans l’allocation du capital entre les tradeurs, les business lines, les produits et ou les institutions.

Exemple 1 : Réglementation prudentielle Bâle II et capital réglementaire La réglementation Bâle II autorise les banques à déterminer leur capital nécessaire pour répondre au risque de marché par un modèle interne utilisant la VaR(99%, 10j). Le capital réglementaire exigé vaut généralement 3 fois la VaR(99%, 10j).

Page 7: Rmodel

7

Exemple 2 : problème d’allocation des fonds propres Il s’agit, pour le dirigeant d’entreprise, d’évaluer d’abord le montant de fonds propres nécessaire pour couvrir l’activité globale (notamment pour éviter la faillite) et ensuite de trouver une clé de répartition de ces ressources entre les différentes branches qui composent cette activité. Cette clé doit associer des exigences de rendement et de maîtrise du risque tout en restant compréhensible et justifiée en interne.

2.3 Types de risques mesurés par la VaR

La Value-at-Risk permet de mesurer différents risques, sur différents marchés (marché des changes, marché financier, marché des produits dérivés), et pour différents actifs à risque (change, actions, obligations, options, etc…)

L’objectif de la VaR est de fournir une mesure du risque total de portefeuille. Par conséquent, la VaR doit tenir compte des effets de levier et de diversification.

En effet, la diversification d'un portefeuille de titres ou d'actifs permet en variant les types de placements, soit de réduire le risque pour un niveau de rentabilité donné, soit d'améliorer la rentabilité pour un niveau de risque donné. Pour un groupe la diversification permet de réduire le risque de volatilité des résultats.

La VaR mesure donc différents risques financiers, généralement classés en quatre grandes catégories :

Risques de marché

Il s’agit du risque de perte lié à l’évolution des niveaux ou à la volatilité des prix du marché. Les différents facteurs de risques liés au marché sont les taux, les cours de change, les cours des actions et les prix des matières premières. Toute variation de ces données a un impact sur les positions et les portefeuilles détenus par la salle. Il s’agit du principal champ d’utilisation de la VaR.

Risques de liquidité

Il est composé du risque de liquidité d’actifs (asset liquidity risk) et du risque de liquidité de financement (cash flow risk).

L’Asset Liquidity Risk est le risque de ne pouvoir vendre à son prix un titre financier. Il peut se traduire, soit par une impossibilité effective de le vendre, soit par une décote.

Le Cash Flow Risk est lié au fait que les banques reçoivent majoritairement des dépôts à court terme de leurs clients et font des prêts à moyen et long terme. Il peut donc se créer un décalage entre les sommes prêtées et les sommes disponibles, car

Page 8: Rmodel

8

ces dernières peuvent être insuffisantes. Dans ce cas on parle de manque de liquidités.

Risques de crédit

Il résulte de l'incertitude quant à la possibilité ou la volonté des contreparties ou des clients de remplir leurs obligations. Il existe un risque pour une banque, dès qu’elle se met en situation d’attendre une entrée de fonds de la part d’un client ou d’une contrepartie du marché.

Exemple 1 : Un client utilise son compte courant pour effectuer des paiements: si la banque autorise le client à être à découvert, il y a risque de crédit. Exemple 2 : La banque négocie sur le marché des changes une vente à terme d'euros contre dollars avec une autre banque. A l’échéance, la banque acheteuse émet son paiement eu euros en direction de sa contrepartie. Elle s’expose au risque que la banque émettrice ne paie pas les dollars.

Risques opérationnels

Le comité de Bâle définit le risque opérationnel comme le "risque de pertes provenant de processus internes inadéquats ou défaillants, de personnes et systèmes ou d'événements externes". Cette définition recouvre les erreurs humaines, les fraudes et malveillances, les défaillances des systèmes d'information, les problèmes liés à la gestion du personnel, les litiges commerciaux, les accidents, incendies, inondations, etc…

Des défaillances spectaculaires, comme celle de la Barings, ont attiré l'attention des autorités de tutelle sur la nécessité de doter les banques de mécanisme de prévention et de couverture contre les risques opérationnels, via la constitution de fonds propres dédiés.

Page 9: Rmodel

9

2.4 Comment adapter la VaR en assurance ?

Nous avons vu que la Value-at-Risk a été créée historiquement au sein de banques d’investissement pour contrôler le risque du marché. Comme ce sont en effet les opérations de trading qui génèrent la majeure partie du risque de marché d’une banque, la VaR est utilisée pour mesurer le risque des positions prises par les gérants de portefeuille. Ces positions changent fréquemment et peuvent être libérées rapidement. Par conséquent, les banques évaluent leur risque de marché pour des horizons courts. En pratique, la VaR est donc estimée pour une journée ou quelques jours. La méthodologie de calcul de la VaR a été étudiée pour le secteur bancaire, et elle n’est pas directement applicable dans le secteur de l’assurance.

2.4.1. Résumé du principe de fonctionnement d’une société d’assurance

Contre le versement d’une somme appelée prime, une société, soit une mutuelle, soit une société de capitaux, s’engage à procéder à une indemnisation en cas de réalisation d’un sinistre. Le risque couvert est donc transféré entièrement ou en partie de l’assuré à l’assureur. La société d’assurance peut se permettre d’assumer le risque dans la mesure où elle procède à une addition de nombreux risques similaires, cohérents et non corrélés entre eux. L’assureur bénéficie donc d’un effet de mutualisation des risques, qui est la base même de l’activité d’assurance.

Etant donné que les primes sont versées avant la réalisation du sinistre, l’assureur est en trésorerie positive. La compagnie d’assurance dispose donc de fonds qui doivent être placés à plus ou moins longue échéance sur les marchés financiers, afin de bénéficier d’un rendement intéressant. La compagnie d’assurance doit cependant s’assurer qu’elle dispose d’une certaine liquidité pour faire face au paiement des sinistres.

Les pouvoirs publics ont éprouvé le besoin de réguler ce secteur et d’assurer une supervision prudentielle. Toutes ces règles sont rassemblées dans le Code des Assurances. Le but de cette supervision est de permettre à la compagnie d’assurance de respecter ses engagements à l’égard des assurés.

Page 10: Rmodel

10

L’un des grands principes de la supervision concerne la qualité des actifs :

Règle de cumul Une société d’assurance doit limiter la part de chaque type de titres dans son portefeuille (ex : actions, obligations, placements immobiliers).

Règle de dispersion Une société d’assurance ne doit pas s’exposer à un seul émetteur. Elle ne doit pas posséder plus de 5% de titres d’un même émetteur.

Règle de congruence Une société d’assurance doit limiter le risque de change en établissant un lien entre les placements et les engagements en devise.

Page 11: Rmodel

11

2.4.2. Adaptation de la VaR en assurance

L’objectif de la gestion financière en assurance est donc l’optimisation du portefeuille, via le couple rendement/risque, tout en respectant les contraintes réglementaires et les engagements à l’égard des assurés et des actionnaires. Les sociétés d’assurance définissent donc une politique d’investissement prudente et à long terme.

Une société d’assurance achète donc des actifs financiers qui garantissent un rendement à long terme lui permettant de respecter ses engagements envers ses assurés et ses actionnaires. Son but n’est pas de spéculer. Le portefeuille d’une société d’assurance est par conséquent beaucoup plus stable dans le temps que celui d’une institution financière.

Néanmoins, les assureurs doivent obtenir un rendement à plus court terme de leur portefeuille d’actifs tout en maîtrisant son risque. Cela impacte aussi la politique financière à court et à long terme. Notamment, le risque de marché doit être évalué conformément au timing de reporting financier, généralement trimestriel et annuel. Cette évaluation du risque de marché peut être utilisée comme un indicateur de la solvabilité de l’entreprise face à de brutales évolutions du marché, et permettre de fixer le montant des fonds propres annuels. Par conséquent, les sociétés d’assurance devraient chercher à estimer leur risque de marché via la VaR pour des horizons allant de 3 mois à un an. Par conséquent, l’estimation de la VaR journalière dans le secteur de l’assurance n’a aucun sens.

Par ailleurs, une spécificité inhérente au secteur de l’assurance est la forte proportion des produits de dette (obligations, prêts et dépôts) dans les portefeuilles des sociétés.

Ces différentes caractéristiques influencent donc l’estimation du risque de marché. Pour adapter la VaR dans le domaine de l’assurance, il est nécessaire de modifier la méthodologie de calcul, en considérant des horizons plus longs, et un portefeuille stable sur la période d’estimation, comprenant une grande quantité de produits de taux.

Page 12: Rmodel

12

2.4.3. Utilisation de la VaR dans dans le calcul du besoin en fonds propres

Qu’est ce que le besoin en fonds propres ? Le besoin en fonds propres est dû à la fois à des contraintes de solvabilité et de rentabilité. Dans le domaine de l’assurance Non Vie, le besoin de fonds propres dépend de plusieurs points de vue :

celui des assurés, des organismes de contrôle et des agences de notations Contraintes de solvabilité

celui des actionnaires et du management de la compagnie Contraintes de rentabilité

Il peut être défini de façon interne ou externe :

Vision interne de la compagnie Il s’agit du niveau de capital dont souhaite disposer la compagnie, afin de respecter l’objectif de solvabilité qu’elle s’est fixée, i.e. pour maintenir son activité. Ce capital est évalué à partir des risques propres à la compagnie et est fondé sur ses propres estimations, issues de données qui peuvent être confidentielles.

Vision externe du besoin en capital Il s’agit du niveau de capital désiré par des acteurs extérieurs à l’entreprise, à savoir, les organismes de contrôle qui déterminent un capital réglementaire, et les agences de notations qui évaluent le niveau de capital exigé par le marché La Value-at-Risk, une mesure de risque pour évaluer le besoin en fonds

propres Une des mesures de risque permettant d’évaluer le besoin en fonds propres d’une compagnie d’assurance est donc la Value-at-Risk. Pour cela, on doit définir une probabilité de ruine : D’un point de vue probabiliste, on considère la variable aléatoire 𝑋, représentant le résultat de la compagnie (en assurance, 𝑋 peut également représenter la charge agrégée des sinistres). On définit alors la fonction de répartition 𝐹𝑋 de 𝑋 :

𝐹𝑋 𝑚 = 𝑃 𝑋 ≤ 𝑚 C’est la probabilité que le résultat de la compagnie soit inférieur à un certain montant 𝑚. La probabilité de ruine d’une compagnie est la probabilité que le capital initial 𝐶 connu, soit absorbé par un résultat déficitaire, i.e.

Page 13: Rmodel

13

𝐹𝑋 −𝐶 = 𝑃(𝑋 ≤ −𝐶)

La VaR correspond au capital minimal nécessaire pour ne pas être en ruine avec une probabilité supérieure à 1 − 𝛼.

𝐶 = 𝑉𝐴𝑅𝛼 𝑋 = 𝑖𝑛𝑓 𝑥 | 𝐹𝑋 −𝑥 ≤ 1 − 𝛼

Lien avec la réglementation européenne

Dans le prolongement de la réforme Bâle II pour les banques, l’Union Européenne a établi un nouveau cadre réglementaire en matière de gestion des risques pour les compagnies d’assurance, baptisé « Solvency II». Par rapport à la directive Solvency I, cette réforme est beaucoup plus sensible aux risques réels supportés par la compagnie. Différents niveaux d’adaptation sont possibles, jusqu’au développement de modèles internes. Solvency II impose ainsi un véritable dispositif de mesure et de supervision du risque.

L’un des piliers de cette réforme détermine des exigences quantitatives à respecter, notamment sur l’harmonisation des provisions et l’instauration de minima de fonds propres. Le Minimum de Solvabilité Requis est l’une de ces exigences. Son objectif est de renforcer les assurances contre la répétition de situations exceptionnelles.

Plusieurs méthodes de calcul sont à l’étude :

Risk-Based Capital Méthode factorielle, chaque type de risque est couvert par un montant de capital donné.

Value-at-Risk Montant de capital permettant d’avoir une probabilité de ruine inférieure à 0,5% sur une année, en prenant compte de l’ensemble des risques encourus par l’entité.

Page 14: Rmodel

14

III. Définition probabiliste de la Value-at-Risk

3.1 Définition de la VaR

La Value-at-Risk définie pour un taux de couverture de 𝛼 correspond au quantile d’ordre 𝛼 de la distribution de profits et pertes (profits and looses, P&L) associée à la détention d’un actif ou d’un portefeuille d’actifs sur une période donnée.

0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

-0,15 -0,1 -0,05 0 0,05 0,1 0,15

Fonction de répartition de rendements sous l'hypothèse gaussienneDonnées: Rendements AXA du 24-10-2007 au 23-10-2009

Probabilité cumulée F(x)

0

1

2

3

4

5

6

7

8

9

10

-0,15 -0,1 -0,05 0 0,05 0,1 0,15

Fonction de densité de rendements sous l'hypothèse gaussienneDonnées: Rendements AXA du 24-10-2007 au 23-10-2009

Densité de probabilité f(x)

Figure 1 : La VaR, un fractile de la distribution des P&L

Page 15: Rmodel

15

La VaR d'un portefeuille dépend essentiellement de 3 paramètres :

La distribution des profits et des pertes (P&L) du portefeuille ou de l’actif Souvent cette distribution est supposée gaussienne, mais beaucoup d'acteurs financiers utilisent des distributions historiques. La difficulté réside alors dans la taille de l'échantillon historique : s'il est trop petit, les probabilités de pertes élevées sont peu précises, et s'il est trop grand, la cohérence temporelle des résultats est perdue, car on compare des résultats non comparables. Les données de P&L à partir desquelles on calcule une VaR sont généralement exprimées sous forme de rendements.

Le niveau de confiance choisi (95 ou 99% en général) C'est la probabilité que les pertes éventuelles du portefeuille ou de l'actif ne dépassent pas la VaR.

L'horizon temporel choisi (période de détention de l’actif) Ce paramètre est très important car plus l'horizon est long plus les pertes peuvent être importantes.

Page 16: Rmodel

16

3.1.1. Distribution des profits et pertes (P&L)

On note :

𝑃𝑡 la valeur d’un actif ou d’un portefeuille à la date t

𝐷𝑡 l’ensemble des paiements intermédiaires obtenus entre les dates t-1 et t Les profits et pertes associés à la détention de l’actif ou du portefeuille sont alors définis par :

𝑃/𝐿𝑡 = 𝑃𝑡 − 𝑃𝑡−1 + 𝐷𝑡

Les valeurs positives indiquent des profits et les valeurs négatives indiquent des pertes.

Exemple : Dans le cas où l’on ne reçoit aucun paiement intermédiaire entre les dates t-1 et t : Si le prix de l’actif a augmenté :

𝑃𝑡 > 𝑃𝑡−1 donc 𝑃𝑡 − 𝑃𝑡−1 > 0 il s’agit d’un profit Si le prix de l’actif a baissé :

𝑃𝑡 < 𝑃𝑡−1 donc 𝑃𝑡 − 𝑃𝑡−1 < 0 il s’agit d’une perte

Les P&L sont généralement exprimés sous forme de rendements géométriques, notés 𝑅𝑡 , et définis par :

𝑅𝑡 = ln 𝑃𝑡 + 𝐷𝑡

𝑃𝑡−1

Les rendements géométriques supposent que les paiements intermédiaires 𝐷𝑡 sont ré-investis en continu, et garantissent que le prix des actifs n’est jamais négatif. Un rendement positif indique un gain (𝑅𝑡 > 0) et un rendement négatif indique une perte (𝑅𝑡 < 0). On suppose que 𝑅𝑡 est une variable aléatoire réelle, caractérisée par sa fonction de densité 𝑓𝑅𝑡

Cette fonction de densité est appelée la distribution des profits et pertes (P&L).

Page 17: Rmodel

17

3.1.2. Définition probabiliste de la VaR

On se fixe :

un horizon temporel d’une journée (détention de l’actif pendant 1 journée)

un taux de couverture 𝛼

La Value-at-Risk, notée 𝑉𝐴𝑅𝑡 𝛼 correspond à l’opposé du fractile d’ordre 𝛼 de la distribution des P&L.

𝑃 𝑅𝑡 ≤ −𝑉𝐴𝑅𝑡 𝛼 = 𝛼 ⟺ 𝑉𝐴𝑅𝑡 𝛼 = − 𝐹𝑅𝑡

−1 𝛼

où 𝐹𝑅𝑡

. désigne la fonction de répartition associée à la fonction de densité 𝑓𝑅𝑡 .

NB : La VaR correspond généralement à une perte, donc il s’agit d’une valeur négative. Pour simplifier, on définit donc la VaR en valeur positive, c’est pourquoi on prend l’opposé du fractile.

3.2 Comment estimer la Value-at-Risk ?

La VaR n’est donc rien d’autre qu’un fractile de la distribution de Profits et Pertes (P&L). Si la distribution est connue, on en déduit immédiatement la VaR.

L’estimation de la Value-at-Risk consiste donc à estimer la fonction de densité associée à la distribution P&L, ou les paramètres de cette densité, ou directement le fractile.

Page 18: Rmodel

18

Chapitre 2 Estimation de la Value-at-Risk

I. Introduction

Dans cette partie, nous allons présenter les différentes techniques d’estimation de la Value-at-Risk. Ces différentes méthodes sont réparties en 3 catégories :

les méthodes d’estimation paramétriques

les méthodes d’estimation non paramétriques

les méthodes d’estimation semi-paramétriques

II. Estimation paramétrique

Les méthodes d’estimation paramétriques de la VaR reposent sur 3 hypothèses simplificatrices :

1. Les distributions des rendements des actifs qui composent le portefeuille suivent une loi normale ;

2. La relation entre les variations de valeur du portefeuille et les variations des variables du marché sont linéaires ;

3. Les produits dérivés (Futures, Swaps, …) sont linéaires. (Une exception : les options)

Remarque : Ces hypothèses sont très contraignantes mais on peut corriger la non-normalité des distributions en introduisant des coefficients d’asymétrie (coefficient de Skewness) ou d’aplatissement (coefficient de Kurtosis).

Nous allons donc décrire dans cette partie trois approches d’estimation paramétrique de la VaR :

l’approche univariée

l’approche variance-covariance

La méthode RiskMetrics

Page 19: Rmodel

19

2.1 Préliminaires : Approche univariée

On considère la VAR associée à la distribution P&L d’un seul actif (change, action, obligation, etc.). En d’autres termes, on considère le rendement global du portefeuille comme celui d’un actif particulier et on calcule la VaR directement sur ce rendement agrégé.

(H1) On suppose que la distribution des P&L à la date 𝑡 est une distribution normale d’espérance 𝜇 et de variance 𝜍2

𝑅𝑡 ~ 𝒩 𝜇, 𝜍2

On cherche donc la valeur de la VAR à la date 𝑡 pour un taux de couverture de 𝛼 telle que :

𝑃 𝑅𝑡 ≤ −𝑉𝐴𝑅𝑡 𝛼 = 𝛼 ⇔ 𝑃 𝑅𝑡 − 𝜇

𝜍≤

−𝑉𝐴𝑅𝑡 𝛼 − 𝜇

𝜍 = 𝛼

D’après l’hypothèse (H1) :

𝑅𝑡 − 𝜇

𝜍~ 𝒩 0,1

Et par conséquent, si Φ désigne la fonction de répartition de la loi normale 𝒩 0,1 , on obtient :

Φ −𝑉𝐴𝑅𝑡 𝛼 − 𝜇

𝜍 = 𝛼 ⇔ 𝑉𝐴𝑅𝑡 𝛼 = −𝜇 − 𝜍Φ−1 𝛼

Sous l’hypothèse H1, la VaR associée à un taux de couverture de 𝛼 est définie par :

𝑉𝐴𝑅𝑡 𝛼 = −𝜇 − 𝜍Φ−1 𝛼

où : - 𝜇 espérance de la distribution des P&L - 𝜍2 variance de la distribution des P&L

Page 20: Rmodel

20

NB : En réalisant ces calculs sur une distribution journalière des rendements, on exprime une VaR à horizon d’un jour. Pour passer d’un horizon d’un jour à un horizon

de X jours, on utilisera la formule suivante : 𝑽𝑨𝑹𝑿 = 𝑽𝑨𝑹𝟏 𝑿

Page 21: Rmodel

21

2.2 Approche variance covariance

Il s’agit d’une approche multivariée de la VaR. Au lieu de considérer le rendement global du portefeuille comme celui d’un actif particulier, on prend en compte explicitement les corrélations entre les actifs du portefeuille.

On considère un portefeuille de 𝑁 actifs corrélés entre eux. Soit 𝑅𝑡 𝑃 le rendement du portefeuille d’actifs à la date 𝑡,

𝑅𝑡 𝑃 = 𝑥𝑡𝑖 𝑅𝑡

𝑖

𝑁

𝑖=1

L’hypothèse principale est donc que les distributions des rendements des actifs qui composent le portefeuille suivent une loi normale, i.e.

∀𝑖, 𝑅𝑡𝑖 ~ 𝒩 𝜇𝑡

𝑖 ,𝜍𝑡𝑖

On définit donc la rentabilité espérée du portefeuille, i.e. son espérance par :

𝐸 𝑅𝑡 𝑃 = 𝑥𝑡𝑖 𝐸 𝑅𝑡

𝑖

𝑁

𝑖=1

= 𝑥𝑡𝑖 𝜇𝑡

𝑖

𝑁

𝑖=1

= 𝑥𝑡′ 𝜇𝑡

où :

𝜇𝑡 = 𝜇𝑡1,𝜇𝑡

2, … , 𝜇𝑡𝑁 ′

𝑥𝑡 = 𝑥𝑡1, 𝑥𝑡

2,… , 𝑥𝑡𝑁 ′

On définit ensuite la volatilité du portefeuille, i.e. sa variance par :

𝑉𝑎𝑟 𝑅𝑡 𝑃 = 𝑥𝑡𝑖 𝑥𝑡

𝑗 𝑐𝑜𝑣 𝑅𝑡

𝑖 ,𝑅𝑡𝑗

𝑁

𝑖 ,𝑗=1

= 𝑥𝑡𝑖 𝑥𝑡

𝑗 𝛾𝑡

𝑖𝑗

𝑁

𝑖 ,𝑗=1

= 𝑥𝑡′ Γ𝑡 𝑥𝑡

où :

le vecteur 𝑥𝑡 représente le poids des actifs dans le portefeuille le vecteur 𝜇𝑡 représente l’espérance des rendements des actifs du portefeuille

la matrice Γ𝑡 = 𝛾𝑡𝑖𝑗

1≤𝑖 ,𝑗≤𝑁 est la matrice de covariance des actifs du

portefeuille

Page 22: Rmodel

22

On aboutit donc à la définition suivante :

Dans le cas d’un portefeuille d’actifs corrélés entre eux, la formule de calcul de la VaR associée à un taux de couverture de 𝛼 est la suivante :

𝑉𝐴𝑅𝑡 𝛼 = −𝐸 𝑅𝑡 𝑃 − 𝑉𝑎𝑟 𝑅𝑡 𝑃 Φ−1 𝛼

= −𝑥𝑡′ 𝜇𝑡 − 𝑥𝑡

′ Γ𝑡 𝑥𝑡 12 Φ−1 𝛼

où :

le vecteur 𝑥𝑡′ représente le poids des actifs dans le portefeuille

le vecteur 𝜇𝑡 représente l’espérance des rendements des actifs du portefeuille

la matrice Γ𝑡 est la matrice de covariance des actifs du portefeuille

En pratique, on estime 𝜇𝑡 et Γ𝑡 sur les données.

Page 23: Rmodel

23

2.3 Méthode RiskMetrics

Ce modèle a été développé par la banque JP Morgan au début des années 90. Il diffère de l’approche Variance-covariance au niveau du calcul de la volatilité des rendements du portefeuille.

La volatilité est estimée en utilisant ses valeurs passées ainsi que celles des rendements en accordant plus de poids aux valeurs les plus récentes. Ceci permet de pouvoir s’adapter plus facilement aux changements de conditions de marché et de pouvoir mieux tenir compte des évènements extrêmes.

On note 𝑣𝑡 la volatilité des rendements du portefeuille à la date 𝑡 :

𝑣𝑡 = 𝑉𝑎𝑟 𝑅𝑡 𝑃

La volatilité conditionnelle des rendements du portefeuille va être une combinaison linéaire de l’innovation passée et de la valeur passée de la volatilité :

𝑣𝑡 = 𝜆𝑣𝑡−1 + 1 − 𝜆 𝑟𝑡−1 𝑃 2

où 𝜆 est un paramètre de lissage (par exemple, 𝜆 = 0,97)

On aboutit donc à la définition suivante :

Dans le cas d’un portefeuille d’actifs corrélés entre eux, la VaR issue de RiskMetrics définie pour un taux de couverture de 𝛼 peut s’écrire sous la forme :

𝑉𝐴𝑅𝑡 𝛼 = −𝐸 𝑅𝑡 𝑃 − 𝑣𝑡 12 Φ−1 𝛼

où :

𝑣𝑡 est estimée à partir de la formule 𝑣𝑡 = 𝜆𝑣𝑡−1 + 1 − 𝜆 𝑟𝑡−1 𝑃 2

𝜆 paramètre de lissage (on fixe souvent 𝜆 = 0,97)

Page 24: Rmodel

24

2.4 Avantages et limites des méthodes d’estimation

paramétriques

Le principal avantage des méthodes d’estimation paramétriques est que les calculs sont simples et rapides, et nécessitent de connaître uniquement la matrice de variance-covariance des rendements du portefeuille.

Cependant, ces méthodes restent inadaptées aux portefeuilles non linéaires, aux queues de distribution épaisses et aux distributions non normales de rendements.

Page 25: Rmodel

25

III. Estimation non paramétrique

Dans cette partie, nous allons présenter différentes méthodes d’estimation non paramétrique de la Value-at-Risk.

Dans le cas de l’estimation non paramétrique, on n’impose a priori aucune distribution paramétrique de pertes et profits. Dans cette section, on considèrera une approche univariée de la VaR, i.e. le portefeuille est considéré comme un actif particulier possédant un rendement global.

3.1 Simulation historique (HS Historical Simulation)

Il s’agit de la méthode la plus simple à réaliser, et certainement la plus utilisée actuellement.

3.1.1. Principe et définition

Le principe de cette méthode est d’estimer la VaR par le fractile empirique des rendements passés. Soit 𝑅1,𝑅2 , … , 𝑅𝑇 une suite de rendements d’un actif ou d’un portefeuille, pour 𝑡 allant de 1 à 𝑇. On dispose d’une série de 𝑇 réalisations 𝑟1, 𝑟2 , … , 𝑟𝑇 associée à cette suite de variables aléatoires. Problème : On ne dispose que d’une seule réalisation 𝑟𝑖 pour chaque variable aléatoire 𝑅𝑖 . Il est donc impossible d’estimer la densité associée à chaque variable 𝑅𝑖 et par conséquent la VaR. La méthode de simulation historique va donc reposer sur l’hypothèse suivante :

(H1) On suppose que les rendements 𝑅𝑡 𝑡=1,…,𝑇 sont indépendants et

identiquement distribués i.e.

∀𝑡 = 1, … , 𝑇 𝑓𝑅𝑡 𝑥 = 𝑓𝑅 𝑥

∀𝑡 𝑉𝐴𝑅𝑡 𝛼 = 𝑉𝐴𝑅 𝛼

Page 26: Rmodel

26

Grâce à cette hypothèse, on dispose maintenant d’un échantillon de 𝑇 réalisations 𝑟1, 𝑟2 , … , 𝑟𝑇 d’une variable aléatoire 𝑅 de densité 𝑓𝑅 . . On peut donc estimer la VaR : Sous l’hypothèse H1, un estimateur convergent de la VaR pour un taux de couverture de 𝛼 est défini par le fractile empirique d’ordre 𝛼 associé aux 𝑇 réalisations historiques des rendements 𝑟1, 𝑟2, … , 𝑟𝑇

𝑉𝐴𝑅 𝛼 = 𝑝𝑒𝑟𝑐𝑒𝑛𝑡𝑖𝑙𝑒 𝑟𝑗 𝑗=1

𝑇, 100𝛼

𝑉𝐴𝑅 𝛼 𝑃 𝑉𝐴𝑅 𝛼 𝑞𝑢𝑎𝑛𝑑 𝑇 +∞

Page 27: Rmodel

27

3.1.2. Exemple d’utilisation : Cours de clôture AXA du 25/10/2007 au 23/10/2009

1ère étape : Télécharger les cours de bourse sur Internet en format TXT (URL : http://www.abcbourse.com ) 2ème étape : Enregistrer au format CSV afin de pouvoir exploiter les données sous Excel ou R 3ème étape : Exploitation des données On dispose donc du cours de clôture de l’action AXA du 25/10/2007 au 23/10/2009. A partir de ces valeurs, on calcule le rendement associé : Soit 𝑃𝑡 la valeur de l’actif à la date 𝑡, le rendement associé est défini par :

𝑅𝑡 = ln 𝑃𝑡

𝑃𝑡−1

Ensuite, on peut exploiter ces données sous Excel ou R A l’aide d’Excel

On peut ainsi visualiser le graphe des rendements quotidiens d’AXA du 25/10/2007 au 23/10/2009 :

On classe ensuite les valeurs des rendements par ordre croissant et on obtient alors le graphe des fractiles de la distribution des rendements.

Pour obtenir la VaR, il suffit de prendre en abscisse le taux de couverture souhaité (par exemple 5%) et en ordonnée on obtient le fractile correspondant i.e. la Value-at-Risk pour le taux de couverture considéré.

-0,3

-0,2

-0,1

0

0,1

0,2

0,3

Rendements quotidiens AXA du 25/10/2007 au 23/10/2009

Figure 2 : Rendements quotidiens du cours d’AXA sous Excel

Page 28: Rmodel

28

A l’aide du logiciel R

Script R

axa<-read.csv("C:/Users/Pauline/Desktop/PFE SVN/Fichiers de

données Excel/coursAXA.csv", header=TRUE, sep=";")

attach(axa)

#Représentation graphique du cours et des rendements du Nasdaq

du 22 juin 2004 au 20 juin 2006

plot(Cours,type="l",lwd=2,col="blue",xlab="Temps",ylab="Cours

de l'action AXA",main="Cours de l'action AXA \ndu 25/10/2007

au 23/10/2009",cex.main=0.9,cex.lab=0.8,cex.axis=0.8)

plot(Rendement,type="l",lwd=1.5,col="dark

magenta",xlab="Temps",ylab="Rendements de l'action

AXA",main="Rendements quotidiens AXA \ndu 25/10/2007 au

23/10/2009",cex.main=0.9,cex.lab=0.8,cex.axis=0.8)

-0,25

-0,2

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

0,2

0,25

Fractiles AXA

Figure 3 : Fractiles AXA sous Excel

Page 29: Rmodel

29

#Test de normalité

qqnorm(Rendement,col="dark blue",xlab="Fractiles théoriques

d'une loi Normale",ylab="Fractiles empiriques",main="QQ Plot

des rendements\ndu cours de l'action

AXA",cex.main=0.8,cex.axis=0.8,cex.lab=0.8,pch=20)

shapiro.test(Rendement)

# Shapiro-Wilk normality test

#data: Rendement

#W = 0.9471, p-value = 1.55e-12

Sorties obtenues

Figure 4 : Cours de l’action AXA

Figure 5 : Rendements quotidiens AXA

Page 30: Rmodel

Le test de Shapiro-Wilk et le QQ plot permettent de déterminer si les rendements du cours de l’action AXA suivent ou non une loi Normale. La tendance clairement non linéaire du QQ plot nous permet à première vue de rejeter l’hypothèse de normalité.

Le test de Shapiro-Wilk permet de renforcer cette idée : en effet, la p-value de 1.55e-12 est inférieure à 0.01 et 0.05, donc on rejette l’hypothèse de normalité aux risques 1% et 5%.

Figure 6 : QQ Plot des rendements du cours de l’action AXA

Page 31: Rmodel

31

On dispose dans ce cas d’un échantillon de 510 réalisations 𝑟1, 𝑟2 , … , 𝑟510 .

Pour un taux de couverture 𝛼 = 1%, la 𝑉𝐴𝑅 𝑡 1% va correspondre à la 6ème valeur :

𝑉𝐴𝑅 𝑡 1% = −0,113307885

i.e. si l’on dispose d’un portefeuille d’actions AXA d’un montant total d’1 million d’euros, si l’on détient ce portefeuille d’actions pendant 1 journée, il y a 1% de risque de réaliser une perte au moins égale à 113 308 euros. Pour un taux de couverture 𝛼 = 5%, la 𝑉𝐴𝑅𝑡 5% va correspondre à la 26ème valeur :

𝑉𝐴𝑅 𝑡 5% = −0,070793052

i.e. si l’on dispose d’un portefeuille d’actions AXA d’un montant total d’1 million d’euros, si l’on détient ce portefeuille d’actions pendant 1 journée, il y a 5% de risque de réaliser une perte au moins égale à 70 793 euros.

Page 32: Rmodel

32

Données :

date t valeur de l'actif 𝑷𝒕

rendement de l'actif 𝑹𝒕

25/10/2007 30,17 0,015364364 26/10/2007 29,96 -0,006984895 29/10/2007 30,35 0,012933359 30/10/2007 30,45 0,003289477 31/10/2007 30,86 0,013374853 01/11/2007 30,37 -0,016005568 02/11/2007 30,04 -0,010925452 05/11/2007 29,52 -0,017461827 06/11/2007 29,25 -0,009188426 07/11/2007 28,83 -0,014463062 08/11/2007 28 -0,029212001 09/11/2007 27,2 -0,028987537 12/11/2007 27,52 0,01169604 13/11/2007 27,58 0,002177859 14/11/2007 28,19 0,021876433 15/11/2007 27,57 -0,02223908 16/11/2007 27,14 -0,015719571 19/11/2007 26,28 -0,032200461 20/11/2007 26,46 0,006825965 21/11/2007 25,68 -0,02992168 22/11/2007 25,33 -0,013723015 23/11/2007 26,42 0,042131835 26/11/2007 25,88 -0,020650829 27/11/2007 26,58 0,026688584 28/11/2007 27,29 0,026361281 29/11/2007 27,4 0,004022679 30/11/2007 27,93 0,019158367

… … … … … … … … … … … … … … …

14/10/2009 19,49 0,028097582 15/10/2009 19,715 0,011478254 16/10/2009 19,2 -0,026469488 19/10/2009 19,5 0,015504187 20/10/2009 19,475 -0,001282874 21/10/2009 19,045 -0,022326992 22/10/2009 18,525 -0,027683429 23/10/2009 18,44 -0,004598953

Rendements ordonnés

-0,203500389 -0,140606455 -0,133914051 -0,114514778 -0,113309556

-0,113307885 = VAR(1%) -0,106264266 -0,099116434 -0,096209865 -0,095802912 -0,09476866

-0,093372315 -0,088769817 -0,08761261

-0,086511502 -0,085157808 -0,081563107 -0,081319684 -0,080866964 -0,080461556 -0,077648267 -0,077142876 -0,076743335 -0,074753115 -0,073570193

-0,070793052 = VAR(5%) -0,069851439

… … … … …

0,127392977 0,129299972 0,137792157 0,156309872 0,161480184 0,176197839 0,18223649

0,192679273

Page 33: Rmodel

33

3.1.3. Limites de la Simulation Historique

La VaR HS est l’estimateur d’une VaR associée à une distribution de P&L non conditionnelle.

En d’autres termes, cette distribution n’est pas calculée sachant un ensemble d’informations disponibles à la date 𝑡.

Par conséquent la prévision de la VaR selon la méthode de Simulation Historique sera invariante aux modifications de l’environnement économique. On qualifie donc les prévisions de la VaR selon la méthode de Simulation Historique de "plates" ou "pratiquement plates".

3.1.4. Prévision de la VaR selon la méthode de Simulation Historique

Principe : Utiliser le fractile empirique associé aux observations passées. En effet, puisque les rendements sont iid, 𝑅𝑇+1 a la même distribution que 𝑅1, … , 𝑅𝑇 et donc un estimateur de sa vaR peut être obtenu à partir de l’estimateur de la VaR des rendements passés. Le backtesting consiste à construire une suite de prévisions de la VaR. Pour ce faire, il existe 2 solutions : Prévision Glissante :

Construction d’un estimateur glissant (rolling estimate) de la VaR en T+1, à partir d’un ensemble d’informations récentes de taille fixe 𝑇𝑒 appelée largeur de fenêtre.

Les prévisions glissantes de la VaR pour un taux de couverture de 𝛼 par la méthode HS correspondent au fractile empirique d’ordre 𝛼 de la chronique des rentabilités passées observées sur une fenêtre de largeur 𝑇𝑒 .

𝑉𝐴𝑅𝑡 𝑡−1 𝛼 = 𝑝𝑒𝑟𝑐𝑒𝑛𝑡𝑖𝑙𝑒 𝑟𝑗 𝑗=𝑡−𝑇𝑒

𝑡−1, 100𝛼

Plus la largeur de fenêtre 𝑇𝑒 est petite, plus les prévisions sont volatiles. Plus la largeur de fenêtre 𝑇𝑒 est grande, plus les prévisions sont rigides. La VaR prévue convergera vers la VaR non conditionnelle et tendra donc vers une valeur constante dans le temps.

Page 34: Rmodel

34

Prévision non Glissante :

Construction d’une succession d’estimateurs de la VaR conditionnellement à toute l’information disponible. L’ensemble des observations connues croît donc au fur et à mesure du temps.

Généralement, on utilise la prévision glissante afin d’introduire un minimum de conditionnement et de limiter le poids des réalisations des rendements plus anciennes.

Page 35: Rmodel

35

3.1.5. Exemple de prévision de la VaR HS

L’objectif est de construire une suite de prévisions de la VaR HS à 5%, pour le cours du Nasdaq du 22 juin 2005 au 20 juin 2006. On utilise pour cela la méthode d’estimation glissante avec une fenêtre de 250 observations.

A l’aide d’Excel

Figure 7 : Cours du Nasdaq sous Excel

Figure 8 : Prévisions de la VaR HS pour le cours du Nasdaq sous Excel

1700

1800

1900

2000

2100

2200

2300

2400

22

/06

/20

04

22

/08

/20

04

22

/10

/20

04

22

/12

/20

04

22

/02

/20

05

22

/04

/20

05

22

/06

/20

05

22

/08

/20

05

22

/10

/20

05

22

/12

/20

05

22

/02

/20

06

22

/04

/20

06

Cours du Nasdaq du 22 juin 2004 au 20 juin 2006

Cours du Nasdaq

-0,03

-0,02

-0,01

0

0,01

0,02

0,03

0,04

Rendements historiques et Prévisions de la VaR HS à 5% Cours du NASDAQ du 22 juin 2005 au 20 juin 2006

Rendements

Prévisions de la VaR HS 5%

Page 36: Rmodel

36

3.2 Méthode Bootstrap de Simulation Historique

C’est une méthode stochastique alternative. L’idée consiste à construire plusieurs échantillons de rendements suivant la même loi que l’échantillon historique. Pour construire ses échantillons, on va tirer avec remise des observations au hasard dans l’échantillon historique.

A partir de chaque nouvel échantillon ainsi constitué, on estime alors la VaR par la méthode du percentile utilisée dans la Simulation Historique standard.

Au final, on dispose de 𝑆 estimations de la VaR et on définit une estimation en faisant la moyenne de ces estimations basées sur les ré-échantillonnages.

Soit 𝑟𝑗𝑠

𝑗=1

𝑇 une suite de rendements tirés au hasard avec remise dans

l’échantillon des rendements historiques, et soit 𝑉𝐴𝑅 𝑠 𝛼 la VaR-HS associée à cet échantillon de rendements bootstrappés (pour un taux de couverture de 𝛼). L’estimateur BHS de la VaR correspond à la moyenne empirique des VaR-HS obtenues à partir des 𝑆 échantillons bootstrap :

𝑉𝐴𝑅 𝛼 = 1

𝑆 𝑉𝐴𝑅 𝑠 𝛼

𝑆

𝑠=1

avec pour 𝑠 = 1, … , 𝑆

𝑉𝐴𝑅 𝑠 𝛼 = 𝑝𝑒𝑟𝑐𝑒𝑛𝑡𝑖𝑙𝑒 𝑟𝑗 𝑠

𝑗=1

𝑇, 100𝛼

Par ailleurs, on peut bâtir un intervalle de confiance pour la VaR pour un risque 𝛽 donné :

𝐼𝐶1−𝛽 𝑉𝐴𝑅 = 𝑉𝐴𝑅 𝛽/2 , 𝑉𝐴𝑅

1−𝛽/2

avec

𝑉𝐴𝑅 𝛽/2 = 𝑝𝑒𝑟𝑐𝑒𝑛𝑡𝑖𝑙𝑒 𝑉𝐴𝑅 𝑠 𝛼

𝑠=1

𝑆, 100 ∗ 𝛽/2

𝑉𝐴𝑅 1−𝛽/2 = 𝑝𝑒𝑟𝑐𝑒𝑛𝑡𝑖𝑙𝑒 𝑉𝐴𝑅 𝑠 𝛼

𝑠=1

𝑆, 100 ∗ 1 − 𝛽/2

Page 37: Rmodel

37

Remarque : On peut combiner la méthode de Bootstrap avec d’autres méthodes d’estimation de la VaR. Une fois les échantillons bootstrap constitués, on calcule la VaR avec la méthode désirée à partir des nouvelles distributions générées, et on définit une estimation de la VaR en faisant la moyenne des différentes estimations basées sur les ré-échantillonnages.

Page 38: Rmodel

38

3.3 Weighed Historical Simulation (WHS)

3.3.1. Les différentes pondérations possibles

Dans la méthode de Simulation Historique, si l’on considère une estimation de la VaR pour un taux de couverture de 1% à partir d’une fenêtre glissante de 500 réalisations, cela revient à sélectionner le 5ème rendement le plus faible parmi les 500 réalisations les plus récentes.

Parmi ces 500 réalisations, tous les rendements ont donc le même poids : le rendement de la veille va avoir la même importance que celui d’il y a 500 jours.

Une approche alternative consiste donc à attribuer aux observations de rendements des poids en fonction soit de leur ancienneté, soit de la volatilité observée des marchés, ou de tout autre facteur.

Cette méthode de Simulation Historique « Pondérée » est qualifiée de Weighted Historical Simulation (WHS) et recouvre différentes variantes selon le facteur de pondération utilisé :

La méthode Aged-weighted HS où les poids dépendent de l’ancienneté des observations ;

La méthode Volatility-weighted HS où les poids dépendent de la volatilité. L’objectif est de prendre en compte les changements récents de volatilité ;

La méthode Correlation-weighted HS où l’on ajuste les rendements passés de façon à ce qu’ils reflètent les changements entre les corrélations passées et futures.

Page 39: Rmodel

39

3.3.2. Aged-weighted HS ou Méthode Hybride

On exploite dans cette méthode une information supplémentaire, à savoir le caractère plus informatif des rentabilités les plus proches de l’horizon de prévision.

Méthodologie de calcul de la VaR Hybride

On considère une largeur de fenêtre 𝑇𝑒

1) On associe à chacune des 𝑇𝑒 rentabilités les plus récentes 𝑟𝑡−1 , 𝑟𝑡−2, … , 𝑟𝑡−𝑇𝑒

une pondération décroissante avec le temps, i.e. plus la rentabilité est ancienne, plus la pondération est faible. Les pondérations sont donc de la forme suivante :

1 − 𝜆

1 − 𝜆𝑇𝑒 𝑝𝑜𝑢𝑟 𝑟𝑡−1,

1 − 𝜆

1 − 𝜆𝑇𝑒 𝜆 𝑝𝑜𝑢𝑟 𝑟𝑡−2,

1 − 𝜆

1 − 𝜆𝑇𝑒 𝜆2 𝑝𝑜𝑢𝑟 𝑟𝑡−3 , … ,

1 − 𝜆

1 − 𝜆𝑇𝑒 𝜆𝑇𝑒−1 𝑝𝑜𝑢𝑟 𝑟𝑡−𝑇𝑒

𝑎𝑣𝑒𝑐 0 < 𝜆 < 1

2) On ordonne ensuite les rentabilités (et les pondérations qui leur sont associées) dans l’ordre croissant.

3) On somme les poids ordonnés suivant les niveaux de rentabilité croissants jusqu’à atteindre le taux de couverture de 𝛼 désiré. La VaR Hybride est alors égale à la rentabilité correspondant au dernier poids utilisé dans la sommation.

Page 40: Rmodel

40

3.4 Simulation Historique et Simulation Paramétrique de la densité

3.4.1. Principe et définition

On sait que l’histogramme associé aux réalisations historiques des rendements n’est pas un bon estimateur d’une fonction de densité. C’est un estimateur très facile à calculer mais il est peu régulier et présente une allure constante par morceaux.

On se propose donc d’utiliser les estimateurs obtenus par lissage, comme par exemple les estimateurs à noyaux, qui présentent de meilleures propriétés.

Le principe de la méthode d’estimation HS étendue est donc le suivant :

Estimer tout d’abord la densité conditionnelle des pertes et profits par une méthode de noyau.

Puis, calculer à partir de cette densité, le fractile correspondant à la Value-at-Risk voulue.

On peut ainsi estimer la Value-at-Risk pour n’importe quel niveau de confiance, indépendamment de la taille de l’échantillon. Avec la méthode de Simulation Historique, il est par exemple impossible de calculer la VaR sur un échantillon de 50 points pour un seuil de couverture de 1%. Le seuil de couverture minimal est en effet de 2%.

Cette méthode d’estimation possède cependant une limite. Les estimateurs à noyaux présentent des effets de bords. Leur précision est parfois faible sur les bords de l’échantillon, i.e. là où l’on souhaite estimer la VaR.

Un estimateur de la VaR pour un taux de couverture de 𝛼 peut être obtenu à partir de l’estimateur à noyau de la fonction de densité des pertes et profits :

𝑓 𝑅𝑇 𝑟0 =

1

𝑇𝜆 𝐾

𝑟𝑡 − 𝑟0

𝜆

𝑇

𝑡=1

Page 41: Rmodel

41

avec :

𝐾 le noyau 𝐾: ℝ ⟶ ℝ 𝐾+∞

−∞= 1

𝜆 le paramètre de lissage 𝑇 la taille de l’échantillon

On a donc :

𝛼 = 𝑓 𝑅𝑇 𝑟

−𝑉𝐴𝑅𝑡

−∞

𝑑𝑟

Exemples de noyau :

Noyau naïf 𝐾 𝑢 =1

2 1 −1;1 𝑢

Noyau triangulaire 𝐾 𝑢 = 1 − 𝑢 1 −1;1 𝑢

Noyau gaussien 𝐾 𝑢 = 1

2𝜋 𝑒𝑥𝑝

−𝑢2

2

Noyau d’Epanechnikov 𝐾 𝑢 =3

4 1 − 𝑢2 1 −1;1 𝑢

Noyau Triweight 𝐾 𝑢 =35

32 1 − 𝑢2 31 −1;1 𝑢

Page 42: Rmodel

42

3.4.2. Exemple d’application sous R

On utilise le cours du Nasdaq du 22 juin 2004 au 20 juin 2006 comme pour l’exemple précédent.

Script R : Import des données et graphes du cours et des rendements

#Import du cours et des rendements du Nasdaq

nasdaq<-read.csv("C:/Users/Pauline/Desktop/PFE SVN/Fichiers de données

Excel/coursNASDAQ.csv", header=TRUE, sep=";")

attach(nasdaq)

#Représentation graphique du cours et des rendements du Nasdaq du 22 juin

2004 au 20 juin 2006

plot(Cours,type="l",lwd=2,col="blue",xlab="Temps",ylab="Cours du

Nasdaq",main="Cours du Nasdaq \ndu 22 juin 2004 au 20 juin

2006",cex.main=0.9,cex.lab=0.8,cex.axis=0.8)

plot(Rendement,type="l",lwd=1.5,col="dark

magenta",xlab="Temps",ylab="Rendements du Nasdaq",main="Rendements

quotidients du cours du Nasdaq \ndu 22 juin 2004 au 20 juin

2006",cex.main=0.9,cex.lab=0.8,cex.axis=0.8)

Sorties obtenues :

Figure 10 : Cours du Nasdaq sous R Figure 9 : Rendements du Nasdaq sous R

Page 43: Rmodel

43

Script R : Test de normalité et estimateurs de densité

#Test de normalité

qqnorm(Rendement,col="dark blue",xlab="Fractiles théoriques d'une loi

Normale",ylab="Fractiles empiriques",main="QQ Plot des rendements\ndu

cours du Nasdaq",cex.main=0.8,cex.axis=0.8,cex.lab=0.8,pch=20)

shapiro.test(Rendement)

# Shapiro-Wilk normality test

# data: Rendement

#W = 0.9952, p-value = 0.1199

#Distribution normale

m<-mean(Rendement)

et<-sd(Rendement)

x<-seq(-1,1,by=0.001)

y<-dnorm(x,mean=m,sd=et)

fenetre<-et*503^(-0.15)

split.screen(c(2,1))

screen(1)

d1<-density(Rendement,bw=fenetre,kernel="gaussian")

plot(d1,col="blue",lwd=2,"Estimateur de Parzen-Rosenblatt\nde la fonction

de densité des

rendements",cex.main=0.8,cex.axis=0.8,cex.sub=0.8,cex.lab=0.8,sub="Noyau

Gaussien")

lines(x,y,col="red",lwd=2)

screen(2)

d2<-density(Rendement,bw=fenetre,kernel="epanechnikov")

plot(d2,col="blue",lwd=2,"Estimateur de Parzen-Rosenblatt\nde la fonction

de densité des

rendements",cex.main=0.8,cex.axis=0.8,cex.sub=0.8,cex.lab=0.8,sub="Noyau

d'Epanechnikov")

lines(x,y,col="red",lwd=2)

Sorties obtenues :

A première vue, la tendance linéaire

du QQ plot inciterait à accepter l’hypothèse de normalité.

Le test de Shapiro-Wilk permet de renforcer cette idée : en effet, la p-value de 0.1199 est supérieure à 0.01 et 0.05, donc on accepte l’hypothèse de normalité aux risques 1% et 5%.

Page 44: Rmodel

44

Sorties obtenues :

Page 45: Rmodel

45

IV. Estimation semi-paramétrique

4.1 Théorie des valeurs extrêmes

La théorie des valeurs extrêmes mesure le risque extrême directement à partir des queues de distribution, contrairement aux autres méthodes qui estiment la distribution dans son ensemble.

4.1.1. Cadre d’analyse

On considère un n-échantillons 𝑋1, 𝑋2, … , 𝑋𝑛 de variables aléatoires iid de fonction de répartition F.

Soit 𝑀𝑛 = max(𝑋1, … , 𝑋𝑛) représentant la plus grande perte observée sur les n pertes observées 𝑋1, … , 𝑋𝑛 .

Les variables aléatoires 𝑋1,… , 𝑋𝑛 étant iid, on peut facilement calculer la fonction de

répartition de 𝑀𝑛 :

𝑃 𝑀𝑛 ≤ 𝑥 = 𝑃 𝑋1 ≤ 𝑥, … , 𝑋𝑛 ≤ 𝑥 = 𝐹𝑛 𝑥

Cependant, si on considère right-end point de F, i.e. le point 𝑥𝐹 tel que :

𝑥𝐹 = 𝑠𝑢𝑝 𝑥 | 𝐹 𝑥 < 1

On remarque que :

∀𝑥 ≤ 𝑥𝐹 𝑃 𝑀𝑛 ≤ 𝑥 = 𝐹𝑛 𝑥 𝑛 ∞ 0 𝑐𝑎𝑟 𝐹 𝑥 < 1

∀𝑥 > 𝑥𝐹 𝑃 𝑀𝑛 ≤ 𝑥 = 𝐹𝑛 𝑥 𝑛 ∞ 1 𝑐𝑎𝑟 𝐹 𝑥 = 1

La loi de 𝑀𝑛 converge donc vers une loi dégénérée (prenant seulement les valeurs 0 ou 1) lorsque n tend vers l’infini.

Le principe de la théorie des valeurs extrêmes va donc être d’identifier la famille de loi vers laquelle 𝑀𝑛 va converger et d’estimer F par cette fonction, lorsque n tend vers l’infini.

On veut donc trouver les distributions limites telles que :

lim𝑛 ∞ 𝑃 𝑀𝑛−𝑑𝑛

𝑐𝑛≤ 𝑥 = 𝐻 𝑥 non dégénérée

Page 46: Rmodel

46

4.1.2. Théorème limite de Fisher-Tippett

Il s’agit du théorème fondamental de la théorie des valeurs extrêmes.

On considère des variables aléatoires 𝑋𝑛 𝑛 iid.

S’il existe des constantes 𝑐𝑛 > 0 et 𝑑𝑛 ∈ ℝ et 𝐻 une fonction de distribution non dégénérée telle que

lim𝑛 ∞

𝑃 𝑀𝑛 − 𝑑𝑛

𝑐𝑛≤ 𝑥 = 𝐻 𝑥

Alors 𝐻 appartient à l’un des 3 types suivants de distribution :

Type 1 : Fréchet 𝛼 > 0

Φ𝛼 𝑥 = 0 , 𝑥 ≤ 0

𝑒𝑥𝑝 −𝑥−𝛼 , 𝑥 > 0

Type 2 : reverse Weibull 𝛼 > 0

Ψ𝛼 𝑥 = 𝑒𝑥𝑝 − −𝑥 𝛼 , 𝑥 ≤ 0

1 , 𝑥 > 0

Type 3 : Gumbel

𝚲 𝒙 = 𝒆𝒙𝒑 −𝒆−𝒙

Ψ𝛼 , Φ𝛼 et Λ sont appelées les distributions standards de valeurs extrêmes.

Définition : On dit que la variable aléatoire 𝑋 (ou la fonction de répartition 𝐹) appartient au MDA (Maximum Domain of Attraction) de 𝐻, si

∃𝑐𝑛 > 0, 𝑑𝑛 ∈ ℝ 𝑡𝑒𝑙 𝑞𝑢𝑒 lim𝑛 ∞

𝑃 𝑀𝑛 − 𝑑𝑛

𝑐𝑛≤ 𝑥 = 𝐻 𝑥 ∀𝑥 ∈ ℝ

Dans la pratique, la majorité des lois usuelles appartiennent à l’un des 3 MDA de Gumbel, Fréchet ou Weibull.

Page 47: Rmodel

47

Exemple :

Les distributions exponentielles, Gamma et Log-normale appartiennent au MDA Gumbel (distributions à queues fines).

Les distributions de Pareto, Log-Gamma et de Student appartiennent au MDA Fréchet (distributions à queues lourdes).

Les distributions uniformes appartiennent au MDA Weibull (distributions sans queue).

Figure 11 : Densités des distributions standards de valeurs extrêmes

Proposition : [Jenkinson – Von Mises]

Ψ𝛼 , Φ𝛼 et Λ sont des cas particuliers de la distribution

𝐻𝜉 𝑥 = 𝑒𝑥𝑝 − 1 + 𝜉𝑥 − 𝜇

𝜍 −

1𝜉

Avec 𝜇 paramètre de localisation et 𝜍 paramètre de dispersion.

Cette fonction de distribution correspond à la loi de probabilité des valeurs extrêmes généralisée, appelée « Generalized Extreme Value distribution » (GEV).

On a les correspondances suivantes :

Fréchet : 𝜉 = 𝛼−1 > 0

Weibull : 𝜉 = 𝛼−1 < 0

Gumbel : 𝜉 0

Page 48: Rmodel

48

Remarque : En pratique, on ne connaît pas les valeurs de 𝜇, 𝜍 et 𝜉. Il faut donc les estimer à partir des données (par exemple par la méthode du maximum de vraisemblance) et les remplacer par leur estimation.

Le paramètre 𝜉 est couramment appelé « indice de queue » ou « indice de valeur extrême ». Plus cet indice est élevé en valeur absolue, plus le poids des extrêmes dans la distribution initiale est important. On parle alors de distributions à « queues épaisses ».

4.1.3. Méthode des excès et distribution de Pareto généralisée

La méthode des excès est également connue sous le nom de Peaks Over Threshold (POT). Elle permet de modéliser les queues de distribution d’une série de données. A partir de cette distribution, on peut alors estimer la probabilité d’occurrence d’évènements rares, au-delà des plus grandes valeurs observées.

Définition : Soit 𝑋 une variable aléatoire de fonction de répartition 𝐹 et 𝜇 un réel suffisamment grand appelé seuil.

On définit les excès au-delà du seuil 𝜇 comme l’ensemble des variables aléatoires Y telles que :

𝑦𝑖 = 𝑥𝑖 − 𝜇, 𝑥𝑖 > 𝜇

On appelle right-end point de F, le point 𝑥𝐹 tel que : 𝑥𝐹 = 𝑠𝑢𝑝 𝑥 | 𝐹 𝑥 < 1

On cherche donc à partir de la distribution F de X, à définir une distribution conditionnelle 𝐹𝜇 par rapport au seuil 𝜇 pour les variables aléatoires dépassant ce

seuil. On définit alors la distribution conditionnelle des excès 𝐹𝜇 par :

𝐹𝜇 𝑦 = 𝑃 𝑋 − 𝜇 < 𝑦 | 𝑋 > 𝜇 =𝐹 𝑦 + 𝜇 − 𝐹 𝜇

1 − 𝐹 𝜇

pour 0 ≤ 𝑦 ≤ 𝑥𝐹 − 𝜇

⟺ 𝐹𝜇 𝑥 = 𝑃 𝑋 < 𝑥| 𝑋 > 𝜇 =𝐹 𝑥 − 𝐹 𝜇

1 − 𝐹 𝜇

pour 𝑥 ≥ 𝜇

Page 49: Rmodel

49

L’objectif de la méthode POT est de déterminer par quelle loi de probabilité il est possible d’estimer cette distribution conditionnelle des excès.

Le théorème de Picklands, Balkema et Haan est le résultat théorique central de la théorie des valeurs extrêmes :

Théorème : [Picklands, Balkema et Haan]

Si F appartient à l’un des 3 MDA de Gumbel, Fréchet ou Weibull, alors il existe une fonction de répartition des excès au-delà du seuil 𝜇, notée 𝐹𝜇 qui peut être approchée

par une loi de Pareto Généralisée (GPD) telle que :

lim𝜇 𝑥𝐹

𝑠𝑢𝑝 𝐹𝜇 𝑦 − 𝐻𝜍 ,𝜉 𝑦 = 0

La loi de Pareto généralisée 𝐻𝜍 ,𝜉 𝑦 s’écrit sous la forme :

𝐻𝜍 ,𝜉 𝑦 = 1 + log 𝐻𝜉 𝑦

où 𝐻𝜉 𝑦 est la loi de probabilité des valeurs extrêmes généralisée.

En considérant le modèle GEV avec le paramètre de localisation 𝜇 = 0 (car pour les excès l’effet de ce paramètre est pris en compte dans la suite 𝑑𝑛 𝑛 ), on montre que la loi GPD correspond à :

𝐻𝜍 ,𝜉 𝑦 =

1 − 1 + 𝜉𝑦

𝜍 −

1𝜉

𝑠𝑖 𝜉 ≠ 0

1 − 𝑒𝑥𝑝 −𝑦

𝜍 𝑠𝑖 𝜉 = 0

𝑦 ∈ 0;𝑥𝐹 − 𝜇 𝑠𝑖 𝜉 ≥ 0

𝑦 ∈ 0; −𝜍

𝜉 𝑠𝑖 𝜉 < 0

On a vu que plus l’indice de queue 𝜉 est élevé, plus la distribution considérée a des queues épaisses.

Page 50: Rmodel

50

Par conséquent, 𝜉 > 0 signifie que la probabilité d’occurrences de rentabilités extrêmes et notamment le risque de pertes extrêmes est plus importante que ce que prévoit la loi normale.

Ainsi, le risque d’investissement, i.e. des pertes extrêmes est d’autant plus important que l’indice de queue correspondant à ses plus faibles rentabilités (queue de gauche) est élevé.

A partir de ces résultats, il est possible d’évaluer la perte maximale pour une probabilité donnée et sous des conditions extrêmes de marché.

Un estimateur de la distribution conditionnelle des excès et donc un estimateur de la VaR avec 𝑁𝜇 le nombre d’excès au-delà du seuil 𝜇 sont ainsi donnés par :

𝐹 𝑥 = 1 −𝑁𝜇

𝑛 1 + 𝜉

𝑥 − 𝜇

𝜍 −

1

𝜉

et donc :

𝑉𝐴𝑅𝛼 = 𝜇 +

𝜍

𝜉

𝑛

𝑁𝜇

1 − 𝛼

−𝜉

− 1

Page 51: Rmodel

51

Chapitre 3 Limites de la Value-at-Risk

I. Introduction

La Value-at-Risk présente l’avantage indéniable d’être simple à interpréter. Elle permet d’obtenir une vision globale du risque en l’exprimant sous la forme d’une seule valeur, correspondant à la perte maximale encourue.

Cependant, cette mesure de risque ne donne aucune information sur la sévérité de la perte, ou de la ruine dans le cas de son utilisation pour l’évaluation du besoin en fonds propres d’une compagnie d’assurance. Elle ne permet pas de connaître l’ampleur des pertes extrêmes au-delà de la Value-at-Risk.

Ainsi, deux positions, que ce soit des portefeuilles dans le cas d’une approche bancaire, ou des centres de profit dans le cas d’une approche assurance, peuvent avoir la même Value-at-Risk, et cependant des risques extrêmes complètement différents.

Figure 12 : Pertes extrêmes au-delà de la VaR

Cette mesure de risque peut donc entraîner des agents à prendre de mauvaises décisions d’investissement ou à prendre volontairement plus de risques.

Page 52: Rmodel

52

II. La Value-at-Risk, une mesure de risque cohérente ?

2.1 Définition d’une mesure de risque cohérente

Définition : [Denuit et Charpentier 2004]

On appelle mesure de risque toute application 𝜌 associant un risque 𝑋 à un réel 𝜌 𝑋 ∈ ℝ

Soient X et Y :

Les distributions de pertes et profits associées à deux portefeuilles (approche bancaire)

Les résultats de deux centres de profit de sociétés d’assurance (approche assurance)

Soit 𝜌 . une mesure de risque sur un horizon donné,

Dans l’approche bancaire, 𝜌 𝑋 représente le risque associé à la possession du portefeuille X pendant une certaine durée (souvent exprimé en montant de perte maximal).

Dans l’approche assurance, 𝜌 𝑋 représente le besoin en fonds propres.

Cette mesure de risque est dite cohérente si elle satisfait les axiomes suivants :

i. Invariance par translation :

∀𝑐 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝜌(𝑋 + 𝑐) = 𝜌(𝑋) − 𝑐

Interprétation : Si on ajoute (respectivement retranche) un certain montant c au résultat d’un centre de profit, le besoin en capital doit décroître (respectivement augmenter) du même montant.

ii. Sous-additivité :

𝜌 𝑋 + 𝑌 ≤ 𝜌 𝑋 + 𝜌 𝑌

Interprétation : Un portefeuille constitué de sous-portefeuilles ne doit pas être plus risqué que la somme des risques associés aux sous-portefeuilles. De même en assurance, la fusion de deux centres de profit ne crée pas de risque supplémentaire. La diversification tend à diminuer le risque global.

Page 53: Rmodel

53

iii. Homogénéité positive :

∀𝑕 ≥ 0 𝜌 𝑕𝑋 = 𝑕𝜌 𝑋

Interprétation : Une fusion de portefeuilles (ou de centres de profit en assurance) sans diversification ne réduit pas le risque (ou le besoin en capital).

iv. Monotonie :

𝑋 ≤ 𝑌 ⟹ 𝜌 𝑋 ≥ 𝜌 𝑌

Interprétation : Si les résultats du centre de profit X sont toujours inférieurs à ceux de Y, le besoin en capital pour X doit être supérieur à celui de Y.

L’axiome de sous-additivité est le plus important.

En effet, si les risques sont sous-additifs, l’addition des risques individuels donne une sorte d’enveloppe ou borne supérieure des risques. Si ce n’est pas le cas, l’utilisation du risque agrégé comme indicateur de risque global peut entraîner une sous évaluation de ce risque global.

Page 54: Rmodel

54

2.2 Non sous-additivité de la Value-at-Risk

La Value-at-Risk est sous–additive seulement si la distribution de profits et pertes est normale (ou de manière générale elliptique). Dans les autres cas, ce n’est donc pas une mesure de risque cohérente.

Exemple :

Considérons l’ensemble des scénarios équiprobables suivants pour deux portefeuilles X et Y.

Scénarios X Y X+Y

1 7 -5 2

2 27 26 53

3 37 34 71

4 16 -3 13

5 32 17 49

6 -19 -11 -30

7 -7 42 35

8 22 12 34

9 -13 -26 -39

10 -2 5 3

VaR à 90% 13 11 30

NB : Dans cet exemple, les données correspondent à des pertes ou profits et non à des rendements.

On a : 𝑉𝐴𝑅90% 𝑋 + 𝑉𝐴𝑅90% 𝑌 = 13 + 11 = 24 et 𝑉𝐴𝑅90% 𝑋 + 𝑌 = 30

Donc 𝑉𝐴𝑅90% 𝑋 + 𝑉𝐴𝑅90% 𝑌 ≤ 𝑉𝐴𝑅90% 𝑋 + 𝑌

L’agrégation des 2 portefeuilles X et Y entraîne une augmentation du risque.

Page 55: Rmodel

55

Chapitre 4 Etude d’un article de recherche

Charpentier Arthur, Oulidi Abder : Beta kernel quantile estimators of heavy-tailed loss distributions. Statistics and Computing, Volume 20, 35-55 (2009)

I. Introduction

Le quatrième chapitre de ce projet consiste en l’étude de l’article de recherche intitulé « Beta kernel quantile estimators of heavy-tailed loss distributions » écrit par Arthur Charpentier et Abder Oulidi et publié dans la revue Statistics and Computing.

Cet article propose une nouvelle méthode d’estimation de quantiles extrêmes

basée sur l’estimation non paramétrique de la fonction de densité à l’aide de noyaux Bêta.

Dans une première partie, les différentes méthodes actuellement utilisées pour

estimer les quantiles extrêmes d’une distribution sont présentées. On distingue trois grandes catégories de méthodes d’estimation : l’estimation paramétrique, la théorie des valeurs extrêmes et l’estimation non paramétrique. Ces différentes méthodes ont été étudiées en détail dans le deuxième chapitre de ce rapport.

Dans une deuxième partie, l’approche non paramétrique d’estimation de

quantiles est étudiée plus en détail et deux classes d’estimateurs sont distinguées. La première classe d’estimateurs, appelée classe « explicite », est basée sur les statistiques d’ordre. Dans cette classe figurent l’estimateur empirique et les estimateurs de Padgett, Harrell-Davis et Park, que nous étudierons dans la suite de ce chapitre. La seconde classe d’estimateurs, appelée classe « non-explicite », est basée sur l’inversion de l’estimateur de la fonction de répartition. On trouve l’estimateur de la fonction de répartition de la distribution en intégrant l’estimateur à noyau de la densité, puis on inverse cette fonction afin d’obtenir le quantile associé au niveau de confiance voulu. Dans cette classe figurent l’inverse de la fonction de répartition estimée à partir du noyau d’Epanechnikov, ainsi que quatre nouveaux estimateurs calculés à partir de noyaux Bêta.

Dans cet article, les performances de ces nouveaux estimateurs basés sur des

noyaux Bêta sont étudiées, et comparées avec les performances des cinq autres estimateurs. Pour cela, des simulations ont été réalisées sur cinq distributions, 2 à queues fines (normale, Weibull), moyennes (lognormale) et 2 à queues épaisses (mélange Pareto/lognormal).

Page 56: Rmodel

56

Pour chaque distribution, les performances des neuf estimateurs proposés ont pu être comparées avec le critère de l’erreur quadratique moyenne (MSE Mean Squared Error) :

𝑀𝑆𝐸 = 𝔼 𝑄 𝑛 𝑝 − 𝑄 𝑝 2

≈ 1

𝑚 𝑄 𝑛

𝑘 𝑝 − 𝑄 𝑝 2

𝑚

𝑘=1

où :

𝑚 est le nombre d’échantillons simulés (ici, 𝑚 = 2000)

𝑛 est la taille des échantillons simulés (ici 𝑛 = 200 )

𝑝 est l’ordre du quantile recherché, ou niveau de confiance (ici 𝑝 = 0,95 )

𝑄 𝑛 𝑘 𝑝 est le quantile estimé d’ordre 𝑝 obtenu à partir du 𝑘ème échantillon

simulé de la distribution considérée

𝑄 𝑝 est le quantile théorique d’ordre 𝑝 de la distribution considérée

Dans ce chapitre, on se propose de refaire ce travail de simulation à l’aide du

logiciel R. Cependant, nous nous intéresserons seulement aux quantiles d’ordre proche de 1. En particulier dans ce compte rendu, les résultats seront donnés pour 𝑝 = 0,95, ce qui correspond à un risque de 5%.

La suite du chapitre est organisée de la manière suivante : Dans un premier temps, nous allons procéder à une description des neuf

estimateurs étudiés. Ensuite, les cinq distributions sur lesquelles les performances de ces estimateurs vont être étudiées seront décrites. Enfin, nous nous intéresserons aux résultats obtenus lors des simulations, et nous les comparerons à ceux obtenus dans l’article.

Page 57: Rmodel

57

II. Description des estimateurs étudiés

Pour chacun des 9 estimateurs décrits ci-dessous, on considère :

𝑋1, … , 𝑋𝑛 l’échantillon simulé de taille 𝑛 (ici 𝑛 = 200 )

𝑝 l’ordre du quantile recherché, ou niveau de confiance (ici 𝑝 = 0,95 )

Les 9 estimateurs étudiés sont les suivants (on reprendra les notations utilisées dans l’article) :

2.1 Quantile empirique (R)

Il s’agit du quantile suggéré par le logiciel R (fonction quantile).

2.2 Estimateur de quantile Epanechnikov (E)

Il est obtenu en inversant l’estimateur de la fonction de répartition, obtenue avec le noyau d’Epanechnikov.

𝑄𝑛 𝑝 = 𝐹 𝑛−1 𝑝

𝐹 𝑛 𝑥 = 𝑓 𝑛 𝑡 𝑑𝑡

𝑥

−∞

𝑓 𝑛 𝑡 =1

𝑛

3

4 1 −

𝑡 − 𝑋𝑖

𝑕

2

1 𝑡−𝑋𝑖 ≤𝑕

𝑛

𝑖=1

où 𝐹 𝑛−1 est l’inverse de la fonction de répartition, obtenue avec une méthode

numérique

2.3 Estimateur d’Harrel-Davis (HD)

Il s’agit d’une somme pondérée des statistiques d’ordre. Le principe de cet estimateur consiste à donner plus de poids aux statistiques d’ordres 𝑋 𝑖 où 𝑖 est

proche de 𝑛𝑝. Dans le cas de l’estimateur d’Harrel-Davis, on utilise un noyau Bêta asymétrique.

𝑄𝑛 𝑝 = 𝑓 𝑛+1 𝑝 , 𝑛+1 𝑞

𝑖𝑛

𝑖−1𝑛

𝑦 𝑑𝑦 𝑋 𝑖

𝑛

𝑖=1

𝑄𝑛 𝑝 = Γ 𝑛 + 1

Γ 𝑛 + 1 𝑝 Γ 𝑛 + 1 𝑞 𝑦 𝑛+1 𝑝−1 1 − 𝑦 𝑛+1 𝑞−1𝑑𝑦

𝑖𝑛

𝑖−1𝑛

𝑋 𝑖

𝑛

𝑖=1

où :

𝑓 𝑛+1 𝑝 , 𝑛+1 𝑞 est la densité de la distribution Bêta avec 𝛼 = 𝑛 + 1 𝑝

𝛽 = 𝑛 + 1 𝑞 les 𝑋 𝑖 pour 𝑖 = 1, … , 𝑛 sont les statistiques d’ordre

Page 58: Rmodel

58

2.4 Estimateur de Padgett (PDG)

Tout comme l’estimateur d’Harrel-Davis, il s’agit d’une somme pondérée des statistiques d’ordre. Dans le cas de l’estimateur de Padgett, le noyau utilisé pour la pondération est un noyau gaussien, donc symétrique.

𝑄𝑛 𝑝 = 𝑊𝑖 ,𝑛 ,𝑝𝑋 𝑖

𝑛

𝑖=1

= 𝜙

𝑖𝑛

𝑖−1𝑛

𝑡 − 𝑝

𝑕 𝑑𝑡 𝑋 𝑖

𝑛

𝑖=1

= Φ

𝑖𝑛− 𝑝

𝑕 − Φ

𝑖 − 1𝑛

− 𝑝

𝑕 𝑋 𝑖

𝑛

𝑖=1

où :

𝜙 𝑥 est la densité de la loi normale centrée réduite

Φ est la fonction de répartition de la loi normale centrée réduite les 𝑋 𝑖 pour 𝑖 = 1, … , 𝑛 sont les statistiques d’ordre

𝑕 représente la largeur de fenêtre. Pour la simulation, la largeur de fenêtre suggérée par Harrel et Davis (1982) est

𝑕 = 𝑝 1 − 𝑝

𝑛 + 1

Page 59: Rmodel

59

2.5 Estimateur de Park (PRK)

L’estimateur de Park est très similaire à l’estimateur d’Harrel-Davis car il s’agit encore d’une somme pondérée des statistiques d’ordre. Le noyau utilisé est un noyau Bêta asymétrique.

𝑄𝑛 𝑝 = 𝕃𝛼 ,𝛽

𝑖𝑛− 𝑝

𝑏 − 𝕃𝛼 ,𝛽

𝑖 − 1𝑛

− 𝑝

𝑏 𝑋 𝑖

𝑛

𝑖=1

où :

𝕃𝛼 ,𝛽 𝑥−𝑝

𝑏 est la fonction de répartition de la distribution Bêta de

paramètres avec 𝛼 et 𝛽 avec

𝛼 =𝑥

𝑏+ 1 𝛽 =

1 − 𝑥

𝑏+ 1

les 𝑋 𝑖 pour 𝑖 = 1, … , 𝑛 sont les statistiques d’ordre

𝑏 représente la largeur de fenêtre. Pour la simulation, la largeur de fenêtre suggérée par Harrel et Davis (1982) est

𝑏 = 𝑝 1 − 𝑝

𝑛 + 1

Les 4 estimateurs restants ont été élaborés par Charpentier et Oulidi. Ils sont construits à partir des estimateurs à noyau de la densité de la distribution, et utilisent des noyaux Bêta asymétriques.

Pour ces 4 estimateurs, il est nécessaire de transformer préalablement l’échantillon initial 𝑋1, … , 𝑋𝑛 afin d’obtenir un échantillon transformé 𝑌1, … , 𝑌𝑛 = 𝐻(𝑋1), … , 𝐻(𝑋𝑛) ayant une distribution proche de la distribution uniforme sur l’intervalle 0; 1 (cf. Annexe du chapitre 4 §5.2 Simulation : Explication du code R – Distribution de Champernowne).

Page 60: Rmodel

60

2.6 Estimateur utilisant le noyau Bêta1 (B1)

La première étape consiste à estimer la densité de la distribution de l’échantillon transformé, à l’aide d’un estimateur à noyau de la densité. Le noyau utilisé est un noyau Bêta asymétrique.

𝑓 𝑛 ,𝑌 𝑦 =1

𝑛 𝑘𝛽1

𝑌𝑖 ;𝑏; 𝑦 ∀0 < 𝑦 < 1

𝑛

𝑖=1

où :

𝑘𝛽1 𝑢; 𝑏; 𝑦 représente la fonction de densité de la distribution Bêta de

paramètres 𝛼 et 𝛽 avec

𝛼 =𝑦

𝑏+ 1 𝛽 =

1 − 𝑦

𝑏+ 1

𝑏 représente la largeur de fenêtre. Pour la simulation, la largeur de fenêtre suggérée par Harrel et Davis (1982) est

𝑏 = 𝑝 1 − 𝑝

𝑛 + 1

Ensuite, l’estimateur de la fonction de répartition de l’échantillon 𝑌1, … , 𝑌𝑛 est décrit par :

𝐹 𝑛 ,𝑌 𝑦 =1

𝑛 𝑘𝛽1

𝑌𝑖 ;𝑏; 𝑡 𝑑𝑡𝑦

0

𝑛

𝑖=1

On obtient le quantile d’ordre p de la distribution de l’échantillon 𝑌1, … , 𝑌𝑛 en

inversant l’estimateur de la fonction de répartition 𝐹 𝑛 ,𝑌 à l’aide d’une méthode

numérique. Pour obtenir le quantile de l’échantillon initial 𝑋1, … , 𝑋𝑛 , il suffit d’appliquer finalement la transformation inverse 𝐻−1 au quantile obtenu précédemment.

𝑄 𝑋1, … , 𝑋𝑛 , 𝑝 = 𝐻−1 𝑄 𝐻(𝑋1), … , 𝐻(𝑋𝑛) , 𝑝

Page 61: Rmodel

61

2.7 Estimateur utilisant le noyau modifié Bêta2 (B2)

Le principe est le même que pour l’estimateur utilisant le noyau Bêta1, cependant le noyau Bêta a été modifié afin de réduire le biais sur les bords. On utilise donc le noyau suivant :

𝑘𝛽2 𝑌𝑖 ;𝑏; 𝑦 =

𝑘𝑦𝑏

, 1−𝑦𝑏

𝑌𝑖 𝑠𝑖 𝑦 ∈ 2𝑏, 1 − 2𝑏

𝑘𝜌𝑏 𝑦 ,

1−𝑦𝑏

𝑌𝑖 𝑠𝑖 𝑦 ∈ 0, 2𝑏

𝑘𝑦𝑏

, 𝜌𝑏 1−𝑦 𝑌𝑖 𝑠𝑖 𝑦 ∈ 1 − 2𝑏, 1

où 𝜌𝑏 𝑦 = 2𝑏2 + 2.5 − 4𝑏4 + 6𝑏2 + 2.25 − 𝑦2 −𝑦

𝑏

2.8 Estimateur MACRO-Bêta de Gouriéroux et Montfort (2006)

utilisant les noyaux Bêta1 et Bêta2 (MACRO B1 et MACRO B2)

Lorsque 𝑛 est plutôt petit (30 ou 50), il arrive que la masse totale de la densité ne soit pas exactement égale à 1. L’approche de Gouriéroux et Monfort consiste donc à diviser la valeur estimée de la densité ∀𝑦 ∈ 0,1 par la masse totale de la densité estimée. Cette transformation assure ainsi un poids total de 1.

On transforme donc les 2 densités précédentes (l’une estimée à l’aide du noyau Bêta1 et l’autre estimée à l’aide du noyau Bêta2) de la manière suivante :

𝑓 𝑛 ,𝑌𝑀𝐴𝐶𝑅𝑂 𝑦 =

𝑓 𝑛 ,𝑌 𝑦

𝑓 𝑛 ,𝑌 𝑡 𝑑𝑡1

0

∀𝑦 ∈ 0,1

Page 62: Rmodel

62

III. Etude des 5 distributions utilisées pour la simulation

Les performances des neuf estimateurs seront étudiées en considérant les quantiles des cinq distributions suivantes :

Deux distributions à queues fines

La distribution Normale de paramètres 𝜇 = 5 et 𝜍 = 1

La distribution de Weibull de paramètres 𝜆 = 1 et 𝜅 = 1.5

Une distribution à queue moyenne

La distribution Log normale de paramètres 𝜇 = 0 et 𝜍 = 0.5

Deux distributions à queues épaisses

La distribution 30% Pareto et 70% Log normale de paramètres

o 𝜇 = 0 et 𝜍 = 0.5 pour la distribution Log normale

o 𝜆 = 1 et 𝜌 = 1.5 pour la distribution de Pareto

La distribution 70% Pareto et 30% Log normale de paramètres

o 𝜇 = 0 et 𝜍 = 0.5 pour la distribution Log normale

o 𝜆 = 1 et 𝜌 = 1.5 pour la distribution de Pareto

On présente dans ce qui suit les principales caractéristiques de chacune des distributions étudiées. Le script détaillé et expliqué de cette étude est visible en annexe du chapitre 4 §5.1.

Page 63: Rmodel

63

3.1 Etude la distribution normale

Les principales caractéristiques de cette distribution sont regroupées dans le tableau ci-dessous.

Carte d’identité de la distribution normale

Moyenne 𝜇 = 5

Ecart-type 𝜍 = 1

Fonction de densité 𝑓𝑁 𝑥 =1

𝜍 2𝜋𝑒−

12 𝑥−𝜇𝜍

2

∀𝑥 ∈ ℝ

Queue de distribution fine

Symétrie de la distribution symétrique

VaR(95%) 6,644854

Les 2 graphiques ci-dessous représentent les fonctions de densité et de répartition de la distribution normale de paramètres 𝜇 = 5 et 𝜍 = 1.

Page 64: Rmodel

64

3.2 Etude la distribution de Weibull

Les principales caractéristiques de cette distribution sont regroupées dans le tableau ci-dessous.

Carte d’identité de la distribution de Weibull

Paramètre de forme 𝜅 = 1,5

Paramètre d’échelle 𝜆 = 1

Fonction de densité 𝑓𝑊 𝑥 =𝜅

𝜆 𝑥

𝜆 𝜅−1

𝑒− 𝑥𝜆 𝜅

∀𝑥 ∈ ℝ+

Queue de distribution fine

Symétrie de la distribution asymétrique

VaR(95%) 2,078111

Les 2 graphiques ci-dessous représentent les fonctions de densité et de répartition de la distribution de Weibull de paramètres 𝜅 = 1,5 et 𝜆 = 1.

Page 65: Rmodel

65

3.3 Etude de la distribution lognormale

Les principales caractéristiques de cette distribution sont regroupées dans le tableau ci-dessous.

Carte d’identité de la distribution lognormale

Moyenne 𝜇 = 0

Ecart-type 𝜍 = 0.5

Fonction de densité 𝑓𝐿𝑁 𝑥 =1

𝑥𝜍 2𝜋𝑒−

12 𝑙𝑜𝑔 𝑥 −𝜇

𝜍

2

∀𝑥 ∈ 0; +∞

Queue de distribution moyenne

Symétrie de la distribution asymétrique

VaR(95%) 2,276017

Les 2 graphiques ci-dessous représentent les fonctions de densité et de répartition de la distribution lognormale de paramètres 𝜇 = 0 et 𝜍 = 0.5.

Page 66: Rmodel

66

3.4 Etude de la distribution 30% Pareto et 70% lognormale

Les principales caractéristiques de cette distribution sont regroupées dans le tableau ci-dessous.

Carte d’identité de la distribution 30% Pareto et 70% lognormale

Moyenne 𝜇 = 0

Ecart-type 𝜍 = 0.5

Paramètre de forme 𝜌 = 1.5

Paramètre d’échelle 𝜆 = 1

Fonction de densité 𝑓𝑃𝐿𝑁 𝑥 =0,70

𝑥𝜍 2𝜋𝑒−

12 𝑙𝑜𝑔 𝑥 −𝜇

𝜍

2

+0,30𝜌𝜆𝜌

𝑥 + 𝜆 𝜌+1 ∀𝑥 ∈ 0; +∞

Queue de distribution épaisse

Symétrie de la distribution asymétrique

VaR(95%) 2,917

Les 2 graphiques ci-dessous représentent les fonctions de densité et de répartition de la distribution 30% Pareto et 70% lognormale de paramètres :

o 𝜇 = 0 et 𝜍 = 0.5 pour la distribution lognormale o 𝜆 = 1 et 𝜌 = 1.5 pour la distribution de Pareto

Page 67: Rmodel

67

3.5 Etude de la distribution 70% Pareto et 30% lognormale

Les principales caractéristiques de cette distribution sont regroupées dans le tableau ci-dessous.

Carte d’identité de la distribution 70% Pareto et 30% lognormale

Moyenne 𝜇 = 0

Ecart-type 𝜍 = 0.5

Paramètre de forme 𝜌 = 1.5

Paramètre d’échelle 𝜆 = 1

Fonction de densité 𝑓𝑃𝐿𝑁 𝑥 =0,30

𝑥𝜍 2𝜋𝑒−

12 𝑙𝑜𝑔 𝑥 −𝜇

𝜍

2

+0,70𝜌𝜆𝜌

𝑥 + 𝜆 𝜌+1 ∀𝑥 ∈ 0; +∞

Queue de distribution épaisse

Symétrie de la distribution asymétrique

VaR(95%) 4,828

Les 2 graphiques ci-dessous représentent les fonctions de densité et de répartition de la distribution 70% Pareto et 30% lognormale de paramètres :

o 𝜇 = 0 et 𝜍 = 0.5 pour la distribution lognormale o 𝜆 = 1 et 𝜌 = 1.5 pour la distribution de Pareto

Page 68: Rmodel

68

3.6 Fonctions de densité et de répartition des 5 distributions

Page 69: Rmodel

69

IV. Simulations

Le travail de réalisation a été réalisé à l’aide du logiciel R. Pour plus de détails concernant l’explication du code, se référer à l’annexe §5.2 du chapitre 4.

On rappelle ci-dessous le nom des différents estimateurs utilisés.

R : Quantile empirique suggéré par le logiciel R

E : Quantile obtenu en inversant l’estimateur à noyau de la fonction de répartition obtenu avec le noyau d’Epanechnikov

HD : Estimateur d’Harrel-Davis

PDG : Estimateur de Padgett

PRK : Estimateur de Park

B1 : Estimateur utilisant le noyau Bêta1

MACRO B1 : Estimateur MACRO-Bêta de Gouriéroux et Montfort (2006) utilisant le noyau Bêta1

B2 : Estimateur utilisant le noyau Bêta2

MACRO B2 : Estimateur MACRO-Bêta de Gouriéroux et Montfort (2006) utilisant le noyau Bêta2

On présente dans ce qui suit les résultats obtenus pour chaque distribution étudiée.

Page 70: Rmodel

70

4.1 Estimation de la VaR dans le cas de la distribution normale

On étudie ici la distribution normale. Les informations principales relatives à cette distribution sont résumées dans le tableau ci-dessous : Carte d’identité de la distribution normale

Moyenne 𝝁 = 𝟓

Ecart-type 𝜍 = 1

Densité 𝑓𝑁 𝑥 =1

𝜍 2𝜋𝑒−

12 𝑥−𝜇𝜍

2

∀𝑥 ∈ ℝ

Type de la distribution Distribution symétrique à queue fine

VAR(95%) 6,644854

Sur le graphique ci-dessous, le quantile théorique de 6,644854 est représenté

par la ligne verticale en trait plein.

Page 71: Rmodel

71

La comparaison des boîtes à moustaches des différents estimateurs montre que les valeurs prises par ces estimateurs s’étalent sur des intervalles similaires (les valeurs des estimateurs des quantiles varient approximativement entre 6 et 7,3) et leur médiane est centrée sur le quantile théorique, excepté les estimateurs d’Epanechnikov et de Park dont la médiane est légèrement excentré vers la droite. A priori les estimateurs B1, B2 et MACRO B2 semblent les plus performants.

Estimateur Rapport MSE

E 0.9657184 HD 0.8751344 PDG 0.8640298 PRK 2.067519 B1 0.752854 MACRO B1 0.8831294 B2 0.7008016 MACRO B2 0.7539837 Meilleur B2

Le tableau ci-dessus présente des rapports de MSE. La MSE de chaque estimateur est divisée par la MSE du quantile empirique calculé avec la fonction quantile sous R. Le fait de considérer le rapport et non la MSE va permettre d’homogénéiser les résultats obtenus pour les cinq distributions. En effet, si on considère uniquement la MSE individuelle des estimateurs pour chaque distribution, l’ordre de grandeur va différer d’une distribution à l’autre et il sera difficile de faire des comparaisons.

L’estimateur utilisant le noyau Bêta2 est le plus performant du point de vue du critère de la MSE, car le rapport de MSE obtenu égal à 0,7008016 est le plus proche de 0. Les autres estimateurs, excepté l’estimateur de Park, ont des performances très acceptables avec un rapport de MSE compris entre 0,75 et 0,97. On remarque par ailleurs que l’estimateur de Park est un peu moins performant avec un rapport de 2,067519. La MSE confirme donc ce que l’observation des boîtes à moustache avait mis en évidence.

Page 72: Rmodel

72

4.2 Estimation de la VaR dans le cas de la distribution lognormale

On étudie ici la distribution lognormale. Les informations principales relatives à cette distribution sont résumées dans le tableau ci-dessous : Carte d’identité de la distribution lognormale

Moyenne 𝝁 = 𝟎

Ecart-type 𝜍 = 0,5

Densité 𝑓𝐿𝑁 𝑥 =1

𝑥𝜍 2𝜋𝑒−

12 𝑙𝑜𝑔 𝑥 −𝜇

𝜍

2

∀𝑥 ∈ 0; +∞

Type de la distribution Distribution asymétrique à queue moyenne

VAR(95%) 2,276017

Sur le graphique ci-dessous, le quantile théorique de 2,276017 est représenté

par la ligne verticale en trait plein.

Page 73: Rmodel

73

La comparaison des boîtes à moustaches des différents estimateurs montre que les valeurs prises par ces estimateurs s’étalent sur des intervalles similaires (les valeurs des estimateurs des quantiles varient approximativement entre 1,7 et 3) et sont centrées sur le quantile théorique, excepté l’estimateur de Park qui est légèrement excentré. Sa médiane est proche de 2,5, alors que celles des autres estimateurs fluctuent autour de 2,3, valeur très proche du point 2,276017. A priori les estimateurs B2 et MACRO B2 semblent les plus performants.

Estimateur Rapport MSE

E 0.9288698 HD 0.9911004 PDG 0.995089 PRK 2.55509 B1 0.911929 MACRO B1 0.7464002 B2/R 0.5906554 MACRO B2 0.7471264 Meilleur B2

Du point de vue du critère de la MSE, l’estimateur utilisant le noyau Bêta2 est le plus performant, car le rapport de MSE obtenu égal à 0,5906554 est le plus proche de 0. Les autres estimateurs, excepté l’estimateur de Park, ont des performances semblables et très acceptables. On peut distinguer 2 classes d’estimateurs :

𝑅𝑎𝑝𝑝𝑜𝑟𝑡 𝑀𝑆𝐸 ∈ 0,74; 0,75 : estimateurs MACRO B1 et MACRO B2

𝑅𝑎𝑝𝑝𝑜𝑟𝑡 𝑀𝑆𝐸 ∈ 0,91; 1 : estimateurs E, HD, PDG et B1 On remarque par ailleurs que l’estimateur de Park est un peu moins performant

avec un rapport de MSE de 2,55509. La MSE confirme donc ce que l’observation des boîtes à moustache avait mis en évidence.

Page 74: Rmodel

74

4.3 Estimation de la VaR dans le cas de la distribution de Weibull

On étudie ici la distribution de Weibull. Les informations principales relatives à cette distribution sont résumées dans le tableau ci-dessous : Carte d’identité de la distribution de Weibull

Paramètre de forme 𝜿 = 𝟏, 𝟓

Paramètre d’échelle 𝜆 = 1

Densité 𝑓𝑊 𝑥 =𝜅

𝜆 𝑥

𝜆 𝜅−1

𝑒− 𝑥𝜆 𝜅

∀𝑥 ∈ ℝ+

Type de la distribution Distribution asymétrique à queue fine

VAR(95%) 2,078111

Sur le graphique ci-dessous, le quantile théorique de 2,078111 est représenté

par la ligne verticale en trait plein.

Page 75: Rmodel

75

La comparaison des boîtes à moustaches des différents estimateurs montre que les valeurs prises par ces estimateurs s’étalent sur des intervalles similaires (les valeurs des estimateurs des quantiles varient approximativement entre 1,5 et 3) et sont centrées sur le quantile théorique, excepté l’estimateur de Park qui est plus excentré que les autres. Sa médiane est proche de 2,25, alors que celles des autres estimateurs fluctuent autour de 2,8, en restant très proche du quantile théorique égal à 2, 078111. A priori les estimateurs B2 et MACRO B2 semblent les plus performants, car leur médiane coïncide quasiment parfaitement avec la valeur théorique du quantile.

Estimateur Rapport MSE

E 0.8860268 HD 0.9150579 PDG 0.909908 PRK 2.268103 B1 0.8177963 MACRO B1 0.8372592 B2 0.7371448 MACRO B2 0.7823687 Meilleur B2

Du point de vue du critère de la MSE, l’estimateur utilisant le noyau Bêta2 est le plus performant, car le rapport de MSE obtenu égal à 0,7371448 est le plus proche de 0. Les autres estimateurs, excepté l’estimateur de Park, ont des performances semblables et très acceptables avec un rapport de MSE compris entre 0,78 et 0,92. On remarque par ailleurs que l’estimateur de Park est un peu moins performant avec un rapport de MSE de 2,268103. La MSE confirme donc ce que l’observation des boîtes à moustache avait mis en évidence.

Page 76: Rmodel

76

4.4 Estimation de la VaR dans le cas de la distribution 30% Pareto

70% lognormale

On étudie ici la distribution 30% Pareto 70% lognormale. Les informations principales relatives à cette distribution sont résumées dans le tableau ci-dessous : Carte d’identité de la distribution de 30% Pareto 70% lognormale

Distribution de Pareto

Paramètres de forme 𝝆 = 𝟏, 𝟓

Paramètre d’échelle 𝜆 = 1

Distribution lognormale

Moyenne 𝜇 = 0

Ecart-type 𝜍 = 0,5

Densité 𝑓𝑃𝐿𝑁 𝑥 =0,70

𝑥𝜍 2𝜋𝑒−

12 𝑙𝑜𝑔 𝑥 −𝜇

𝜍

2

+0,30𝜌𝜆𝜌

𝑥 + 𝜆 𝜌+1 ∀𝑥 ∈ 0; +∞

Type de la distribution Distribution asymétrique à queue épaisse

VAR(95%) 2,917

Sur le graphique ci-dessous, le quantile théorique de 2,917 est représenté par

la ligne verticale en trait plein.

Page 77: Rmodel

77

La comparaison des boîtes à moustaches des différents estimateurs montre que les valeurs prises par ces estimateurs s’étalent sur des intervalles similaires (les valeurs des estimateurs des quantiles varient approximativement entre 2 et 6) et sont centrées sur le quantile théorique, excepté pour l’estimateur de Park qui est plus excentré que les autres vers la droite et dont l’étendue est plus importante (son maximum est proche de 9) et l’estimateur MACRO B1 qui est légèrement excentré vers la gauche, même si son étendue est restreinte à l’intervalle 2; 4 . A priori les estimateurs B2 et MACRO B2 semblent les plus performants : ils sont concentrés sur un intervalle plus restreint de valeurs et leur médiane est très proche de la valeur théorique du quantile.

Estimateur Rapport MSE

E 3.792388 HD 1.435686 PDG 2.766881 PRK 4.126024 B1 0.7621095 MACRO B1 0.7570776 B2 0.6684107 MACRO B2 0.6098167 Meilleur MACRO B2

Du point de vue du critère de la MSE, l’estimateur MACRO utilisant le noyau

Bêta2 est le plus performant, car le rapport de MSE obtenu égal à 0,6098167 est le plus proche de 0. Les autres estimateurs utilisant les noyaux Bêta1 et Bêta2 obtiennent également de bons résultats avec des rapports de MSE compris entre 0,66 et 0,76. Les estimateurs d’Epanechnikov, Harrel-Davis, Padgett et Park obtiennent quant à eux des résultats plutôt médiocres avec un rapport de MSE allant de 1,435686 pour Harrel-Davis à 4,126024 pour Park. Le critère de la MSE confirme donc ce que l’observation des boîtes à moustache avait mis en évidence.

Page 78: Rmodel

78

4.5 Estimation de la VaR dans le cas de la distribution 70% Pareto

30% log normale

On étudie ici la distribution 70% Pareto 30% lognormale. Les informations principales relatives à cette distribution sont résumées dans le tableau ci-dessous : Carte d’identité de la distribution de 70% Pareto 30% lognormale

Distribution de Pareto

Paramètres de forme 𝝆 = 𝟏, 𝟓

Paramètre d’échelle 𝜆 = 1

Distribution lognormale

Moyenne 𝜇 = 0

Ecart-type 𝜍 = 0,5

Densité 𝑓𝑃𝐿𝑁 𝑥 =0,30

𝑥𝜍 2𝜋𝑒−

12 𝑙𝑜𝑔 𝑥 −𝜇

𝜍

2

+0,70𝜌𝜆𝜌

𝑥 + 𝜆 𝜌+1 ∀𝑥 ∈ 0; +∞

Type de la distribution Distribution asymétrique à queue épaisse

VAR(95%) 4,828

Sur le graphique ci-dessous, le quantile théorique de 4,828 est représenté par la

ligne verticale en trait plein.

Page 79: Rmodel

79

La comparaison des boîtes à moustaches des différents estimateurs montre que les valeurs prises par ces estimateurs s’étalent sur des intervalles similaires (les valeurs des estimateurs des quantiles varient approximativement entre 2 et 10) et sont centrées sur le quantile théorique, excepté pour l’estimateur de Park qui est plus excentré que les autres vers la droite et dont l’étendue est plus importante (son maximum est proche de 20) et l’estimateur MACRO B1 qui est légèrement excentré vers la gauche, même si son étendue est restreinte à l’intervalle 2; 10 . L’estimateur B1 semble à première vue le plus performant : ses valeurs sont concentrées sur un intervalle plus restreint de valeurs et sa médiane est très proche de la valeur théorique du quantile.

Estimateur Rapport MSE

E 1.214980 HD 1.443129 PDG 1.742604 PRK 4.280306 B1 0.6804064 MACRO B1 1.313138 B2 1.412731 MACRO B2 1.031424 Meilleur B1

Du point de vue du critère de la MSE, l’estimateur utilisant le noyau Bêta1 est le

plus performant, car le rapport de MSE obtenu égal à 0,6804064 est le plus proche de 0. L’estimateur le moins performant est encore l’estimateur de Park avec un rapport de MSE égal à 4,280306. Les résultats des autres estimateurs sont comparables et fluctuent entre 1 et 2.

Page 80: Rmodel

80

4.6 Conclusion finale

Estimateur Normale Lognormale Weibull 30%Pareto

70% Lognormale 70%Pareto

30% Lognormale

E 0.9657184 0.9288698 0.8860268 3.792388 1.214980 HD 0.8751344 0.9911004 0.9150579 1.435686 1.443129 PDG 0.8640298 0.995089 0.909908 2.766881 1.742604 PRK 2.067519 2.55509 2.268103 4.126024 4.280306 B1 0.752854 0.911929 0.8177963 0.7621095 0.6804064 MACB1 0.8831294 0.7464002 0.8372592 0.7570776 1.313138 B2 0.7008016 0.5906554 0.7371448 0.6684107 1.412731 MACB2 0.7539837 0.7471264 0.7823687 0.6098167 1.031424 Meilleur B2 B2 B2 MACRO B2 B1

On peut voir que les estimateurs utilisant les noyaux Bêta1 et Bêta2 sont les plus performants. Ils donnent de bons résultats à la fois pour les distributions à queues fines moyennes ou épaisses. Dans tous les cas de figure, l’estimateur de Park est le moins performant. Le rapport de MSE pour cet estimateur varie entre 2,067519 et 4,280306. Par ailleurs, on peut remarquer que les estimateurs d’Harrel-Davis, Epanechnikov et Padgett donnent globalement de meilleurs résultats sur les distributions à queues fines ou moyennes. Enfin, on peut également remarquer que les résultats ne sont pas uniformément les mêmes. On observe plus de différences entre les estimateurs pour les distributions à queues épaisses : l’intervalle de variation des valeurs des estimateurs est beaucoup plus large pour les 2 distributions à queues épaisses, à savoir le mélange 70% Pareto/30% Log normale et le mélange 30% Pareto/70% Log normale.

Les conclusions que nous pouvons tirer de cette simulation rejoignent donc celles émises dans l’article par Charpentier et Oulidi. Cependant, on observe des divergences dans les résultats concernant l’estimateur de Padgett. En effet, cet article montre que cet estimateur a de très mauvaises performances pour les trois catégories de distribution, avec un rapport de MSE atteignant 2.542 ∗ 103 pour le mélange 70% Pareto 30% Log normale, pour 𝑛 = 200 et 𝑝 = 0,95 (cf. Table 18 de l’article), alors que dans notre étude, les résultats sont bien meilleurs.

Page 81: Rmodel

81

V. Annexes du chapitre 4

5.1 Description des 5 distributions : Explication du code R

Avant de commencer le travail de simulation proprement dit, nous allons étudier les 5 distributions considérées. Ce script R permet pour chaque distribution de :

représenter graphiquement la fonction de densité

représenter graphiquement la fonction de répartition

calculer le quantile d’ordre 𝑝 = 0,95 et le représenter sur le graphe de la fonction de répartition

Script R – Calcul des densités, fonctions de répartition et du quantile d’ordre 0.95

library(actuar)

x1<-seq(0,10,0.001)

x2<-seq(0,5,0.001)

x3<-seq(0.001,5,0.001)

x4<-seq(0.001,7,0.001)

#Normal distribution

d1<-dnorm(x1,mean=5,sd=1)

fdr1<-pnorm(x1,mean=5,sd=1)

q1<-qnorm(0.95,mean=5,sd=1) #6.644854

#Weibull distribution

d2<-dweibull(x2,shape=1.5,scale=1)

fdr2<-pweibull(x2,shape=1.5,scale=1)

q2<-qweibull(0.95,shape=1.5,scale=1) #2.078111

#Lognormal distribution

d3<-dlnorm(x3,meanlog=0,sdlog=0.5)

fdr3<-plnorm(x3,meanlog=0,sdlog=0.5)

q3<-qlnorm(0.95,meanlog=0,sdlog=0.5) #2.276017

#Mixture Pareto/lognormal

#30%-70%

d4<-0.7*dlnorm(x4,meanlog=0,sdlog=0.5)+0.3*dpareto(x4,shape=1.5,scale=1)

fdr4<-0.7*plnorm(x4,meanlog=0,sdlog=0.5)+0.3*ppareto(x4,shape=1.5,scale=1)

quantiles4<-cbind(x4,fdr4)

q4<-quantiles4[fdr4>0.95][1] #2.917

#70%-30%

d5<-0.3*dlnorm(x4,meanlog=0,sdlog=0.5)+0.7*dpareto(x4,shape=1.5,scale=1)

fdr5<-0.3*plnorm(x4,meanlog=0,sdlog=0.5)+0.7*ppareto(x4,shape=1.5,scale=1)

quantiles5<-cbind(x4,fdr5)

q5<-quantiles5[fdr5>0.95][1] #4.828

Page 82: Rmodel

82

Script R - Graphiques

#Densités

plot(x1,d1,type="l",main="Normal distribution",sub="mean=5 sd=1",col="dark

magenta", xlab="",ylab="Normal

density",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)

plot(x2,d2,type="l",main="Weibull distribution",sub="shape=1.5 scale=1",col="dark

magenta",xlab="",ylab="Weibull

density",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)

plot(x3,d3,type="l",main="Lognormal distribution",sub="mean=0 sd=0.5",col="dark

magenta",xlab="",ylab="Lognormal

density",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)

plot(x4,d4,type="l",main="30% Pareto / 70% Lognormal distribution",sub="Lognormal :

mean=0 sd=0.5\nPareto : shape=1.5 scale=1 ",ylab="Pareto/Lognormal

density",xlab="",col="dark

magenta",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)

plot(x4,d5,type="l",main="70% Pareto / 30% Lognormal distribution",sub="Lognormal :

mean=0 sd=0.5\nPareto : shape=1.5 scale=1 ",ylab="Pareto/Lognormal

density",xlab="",col="dark

magenta",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)

#Fonctions de répartition

plot(x1,fdr1,type="l",main="Normal distribution",sub="mean=5 sd=1",col="dark

magenta",xlab="",ylab="Normal cumulative

df",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)

abline(v=q1,col="red",lty=3)

abline(h=0.95,col="red",lty=3)

plot(x2,fdr2,type="l",main="Weibull distribution",sub="shape=1.5 scale=1",col="dark

magenta",xlab="",ylab="Weibull cumulative

df",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)

abline(v=q2,col="red",lty=3)

abline(h=0.95,col="red",lty=3)

plot(x3,fdr3,type="l",main="Lognormal distribution",sub="mean=0 sd=0.5",col="dark

magenta",xlab="",ylab="Lognormal cumulative

df",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)

abline(v=q3,col="red",lty=3)

abline(h=0.95,col="red",lty=3)

plot(x4,fdr4,type="l",main="30% Pareto / 70% Lognormal distribution",sub="Lognormal

: mean=0 sd=0.5\nPareto : shape=1.5 scale=1 ",ylab="Pareto/Lognormal cumulative

df",xlab="",col="dark

magenta",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)

abline(v=q4,col="red",lty=3)

abline(h=0.95,col="red",lty=3)

plot(x4,fdr5,type="l",main="70% Pareto / 30% Lognormal distribution",sub="Lognormal

: mean=0 sd=0.5\nPareto : shape=1.5 scale=1 ",ylab="Pareto/Lognormal cumulative

df",xlab="",col="dark

magenta",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)

abline(v=q5,col="red",lty=3)

abline(h=0.95,col="red",lty=3)

Page 83: Rmodel

83

Remarque : Pour les lois usuelles le logiciel R donne directement le quantile d’ordre 𝑝 recherché. Exemples :

Distribution normale q1<-qnorm(0.95,mean=5,sd=1)

Distribution de Weibull q2<-qweibull(0.95,shape=1.5,scale=1)

Distribution log normale q3<-qlnorm(0.95,meanlog=0,sdlog=0.5)

Cependant, pour le cas du « mélange Pareto/Log normale », on ne peut pas

utiliser ces fonctions car le quantile d’une somme de distributions est différent de la somme des quantiles des distributions prises séparément. Soit 𝑋 une variable aléatoire, et 𝐹𝑋 sa fonction de répartition :

𝐹𝑋 𝑥 = ℙ 𝑋 ≤ 𝑥

La fonction quantile est 𝐹𝑋−1.

Si on considère 2 variables aléatoires 𝑋 et 𝑌 alors :

𝐹𝑋−1 𝑝 + 𝐹𝑌

−1 𝑝 ≠ 𝐹𝑋+𝑌−1 𝑝

Source : Blog personnel d’Arthur Charpentier URL : http://blogperso.univ-rennes1.fr/arthur.charpentier/index.php/post/2009/07/16/Quantile-de-somme-ou-somme-de-quantiles

Par conséquent, on utilise la méthode suivante pour approcher le quantile. On considère :

𝒙 = 𝒙𝒊 𝟏≤𝒊≤𝒏 un vecteur de valeurs ordonnées à partir duquel la fonction de répartition est calculée

𝒇𝒅𝒓 le vecteur contenant les valeurs de la fonction de répartition On recherche la plus petite valeur du vecteur 𝒙 = 𝒙𝒊 𝟏≤𝒊≤𝒏 telle que la valeur de 𝒇𝒅𝒓 associée soit supérieure à 0,95, ie :

inf

1≤𝑖≤𝑑 𝑥𝑖 | 𝑓𝑑𝑟 𝑥𝑖 ≥ 0,95

Exemple :

Mélange Pareto/ Log normale 30%/70%

fdr4<-0.7*plnorm(x4,meanlog=0,sdlog=0.5)+0.3*ppareto(x4,shape=1.5,scale=1)

quantiles4<-cbind(x4,fdr4)

q4<-quantiles4[fdr4>0.95][1]

Page 84: Rmodel

84

5.2 Simulations : Explication du code R

Déclaration des variables nécessaires au stockage des données

#Les vecteurs Q1 à Q9 contiennent les valeurs des quantiles estimés à partir

des different estimateurs

Q1<-c(1,2000) #Quantiles historiques (function quantile de R)

Q2<-c(1,2000) #Estimateur à noyau d’Epanechnikov de la densité

Q3<-c(1,2000) #Méthode: Estimateur de Harrel-Davis

Q4<-c(1,2000) #Méthode: Estimateur de Padgett

Q5<-c(1,2000) #Méthode: Estimateur de Park

Q6<-c(1,2000) #Estimateur à noyau Beta1 de la densité

Qest6<-c(1,2000)

Q7<-c(1,2000) #Estimateur à noyau MACRO-Beta1 de la densité

Qest7<-c(1,2000)

Q8<-c(1,2000) #Estimateur à noyau Beta2 de la densité

Qest8<-c(1,2000)

Q9<-c(1,2000) #Estimateur à noyau MACRO-Beta2 de la densité

Qest9<-c(1,2000)

B<-c(1,200)

K1<-c(1,200)

BPark<-c(1,200)

FB1<-c(1,999)

FBBis1<-c(1,999)

FBMACRO1<-c(1,999)

FBBisMACRO1<-c(1,999)

densNoyauBeta1<-c(1,999)

densNoyauBetaBis1<-c(1,999)

densNoyauBetaMACRO1<-c(1,999)

densNoyauBetaBisMACRO1<-c(1,999)

La première étape du script R consiste à déclarer tous les vecteurs nécessaires

au stockage des données. On réalise une simulation sur 2000 échantillons, les quantiles estimés des 2000 échantillons pour chaque type d’estimateur sont stockés dans des vecteurs de dimension (1,2000).

Les quantiles 𝑄1à 𝑄5 sont estimés directement à partir de l’échantillon original

𝑋1, … , 𝑋𝑛 .

𝑄1 représente le vecteur des quantiles historiques (fonction quantile de R)

𝑄2 représente le vecteur des quantiles estimés à partir de l’estimateur à noyau de la densité avec le noyau d’Epanechnikov

𝑄3 représente le vecteur des quantiles estimés avec l’estimateur de Harrel-Davis

𝑄4 représente le vecteur des quantiles estimés avec l’estimateur de Padgett

𝑄5 représente le vecteur des quantiles estimés avec l’estimateur de Park

Page 85: Rmodel

85

Les quantiles 𝑄6à 𝑄9 sont estimés à partir de l’échantillon transformé 𝑌1, … , 𝑌𝑛 , où 𝑌𝑖 = 𝐹𝛼 ,𝑀 ,𝑐 𝑋𝑖 , 𝑖 = 1, … , 𝑛 et 𝐹𝛼 ,𝑀 ,𝑐 est la fonction de répartition de la distribution

de Champernowne. Nous verrons plus en détail dans la suite de l’algorithme, comment sont estimés les paramètres de cette fonction.

𝑄6 représente le vecteur des quantiles estimés à partir de l’estimateur à noyau de la densité avec le noyau Beta1

𝑄7 représente le vecteur des quantiles estimés à partir de l’estimateur à noyau MACRO-Beta1 de la densité (transformation globale de la l’estimateur à noyau de la densité afin d’assurer un poids total de 1)

𝑄8 représente le vecteur des quantiles estimés à partir de l’estimateur à noyau de la densité avec le noyau Beta2

𝑄9 représente le vecteur des quantiles estimés à partir de l’estimateur à noyau MACRO-Beta2 de la densité (transformation globale de la l’estimateur à noyau de la densité afin d’assurer un poids total de 1)

Déclaration des constantes et fonctions utilisées dans l’algorithme

#Champernowne function

#density

dchampernowne<-function(y,a,M,c)

{return ((a*(y+c)^(a-1)*((M+c)^a-c^a))/(((y+c)^a +(M+c)^a -(2*c^a))^2))}

#df

pchampernowne<-function(y,a,M,c)

{return (((y+c)^a-c^a)/((y+c)^a+(M+c)^a-2*c^a))}

#Log vraisemblance

LChamp<-function(par,X)

{ a<-par[1]

c<-par[2]

logvrais<-log(prod(dchampernowne(X,a,median(X),c)))

return(-logvrais)}

#Beta function HD estimate

Beta<-function(x)

{dbeta(x,201*0.95,201*0.05)}

#Quantile d’ordre p=0.95 de la distribution considérée

VraiQuantile<-qnorm(0.95,mean=5,sd=1)

#Largeur de fenêtre b

b<-sqrt(0.95*0.05/201)

#Fonction ro utilisée dans le noyau Bêta 2

ro<-function(x)

{2*b^2+2.5-sqrt(4*b^4+6*b^2+2.25-x^2-(x/b))}

Page 86: Rmodel

86

Dans l’algorithme de simulation plusieurs fonctions et constantes sont nécessaires :

Distribution de Champernowne

L’idée consiste à transformer l’échantillon initial 𝑋1, … , 𝑋𝑛 en un nouvel échantillon 𝑌1, … , 𝑌𝑛 où 𝑌𝑖 = 𝐹𝛼 ,𝑀 ,𝑐 𝑋𝑖 , 𝑖 = 1, … , 𝑛. On doit estimer les paramètres 𝛼, 𝑀, 𝑐 de

cette distribution de telle sorte que la distribution de Champernowne ainsi estimée soit proche de la distribution de l’échantillon original 𝑋1, … , 𝑋𝑛 . Ainsi, l’échantillon transformé 𝑌1, … , 𝑌𝑛 aura une distribution proche de la distribution uniforme sur l’intervalle 0; 1 . Ceci peut être justifié par le théorème suivant :

Pour une variable aléatoire de fonction de répartition 𝐹, on note 𝐺 son inverse :

𝐺 𝑝 = 𝑖𝑛𝑓 𝑥 ∈ ℝ 𝐹 𝑥 ≥ 𝑝

Si 𝑈 désigne une variable aléatoire réelle uniforme sur 0; 1 , alors 𝑋 = 𝐺 𝑈 a pour fonction de répartition 𝐹 .

La fonction de répartition de la distribution de Champernowne est :

∀𝑦 ≥ 0 𝐹𝛼 ,𝑀,𝑐 𝑦 = 𝑦 + 𝑐 𝛼 − 𝑐𝛼

𝑦 + 𝑐 𝛼 + 𝑀 + 𝑐 𝛼 − 2𝑐𝛼

où 𝛼 > 0, 𝑐 ≥ 0 et 𝑀 > 0 La densité associée est définie par :

∀𝑦 ≥ 0 𝑓𝛼 ,𝑀,𝑐 𝑦 =𝛼 𝑦 + 𝑐 𝛼−1 𝑀 + 𝑐 𝛼 − 𝑐𝛼

𝑦 + 𝑐 𝛼 + 𝑀 + 𝑐 𝛼 − 2𝑐𝛼 2

On remarque que 𝐹𝛼 ,𝑀,𝑐 𝑀 =1

2. On estime donc le paramètre 𝑀 par la médiane

empirique de l’échantillon 𝑋1, … , 𝑋𝑛 . Les estimateurs des deux autres paramètres 𝛼 et 𝑐 sont obtenus avec la méthode du maximum de vraisemblance.

Largeur de fenêtre 𝒃

La constante 𝑏 correspond à la largeur de fenêtre utilisée dans les estimateurs à noyaux de Padgett, Park et les estimateurs basés sur des noyaux Bêta. On prend :

𝑏 = 𝑝 1−𝑝

𝑛+1

1/2

Page 87: Rmodel

87

Algorithme de simulation

for(i in 1:2000)

{

#Normal distribution

BootX1<-rnorm(200,mean=5,sd=1)

#Estimation des paramètres de la fonction de Champernowne

#La fonction LChamp représente l’opposé de la log vraisemblance de la

distribution de Champernowne

#La fonction permet de trouver les paramètres a et C qui minimise cette

fonction et donc maximise la vraisemblance. Le vecteur c(1,1) correspond

aux valeurs initiales des paramètres dans l’algorithme de la fonction nlm.

est1<-nlm(LChamp,c(1,1),X=BootX1)

#Statistiques ordonnées

X1ord<-sort(BootX1,decreasing=FALSE)

#Empirical quantile

Q1[i]<-quantile(BootX1,0.95)

#E estimate

dens_ep1<-density(BootX1,kernel="epanechnikov")

FnEp1<-cumsum(dens_ep1$y)/sum(dens_ep1$y)

FFEp1<-cbind(dens_ep1$x,FnEp1)

Q2[i]<-FFEp1[FnEp1>=0.95][1]

#HD estimate

for(j in 1:200){B[j]<-(integrate(Beta,(j-1)/200,j/200))$value}

Q3[i]<-t(B) %*% X1ord

#PDG Padgett

for(j in 1:200)

{

K1[j]<-pnorm(((j/200)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/200)-0.95)/b,

mean=0,sd=1)

K2[j]<-pnorm(((j/200)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/200)-0.95)/b,

mean=0,sd=1)

}

Q4[i]<-t(K1) %*% X1ord

#PRK Park

for(j in 1:200)

{BPark[j]<-pbeta(j/200,((j/200)/b)+1,((1-(j/200))/b)+1)-pbeta((j-1)/200,

(((j-1)/200)/b)+1,((1-((j-1)/200))/b)+1)}

Q5[i]<-t(BPark) %*% X1ord

#Transformation de l'échantillon

Y1<-pchampernowne(BootX1,est1$estimate[1],median(BootX1),est1$estimate[2])

#Inverse de la fonction de Champernowne

xx<-seq(0,50,0.005)

Yref1<-pchampernowne(xx,est1$estimate[1],median(BootX1),est1$estimate[2])

InvChamp1<-cbind(xx,Yref1)

Page 88: Rmodel

88

#Beta1 B1

for(d in 1:999)

{x<-d/1000

densNoyauBeta1[d]<-1/200*sum(dbeta(Y1,(x/b)+1,((1-x)/b)+1))/999}

YY<-seq(0.001,0.999,0.001)

for(m in 1:999) {FB1[m]<-sum(densNoyauBeta1[1:m])}

FFB1<-cbind(YY,FB1)

Qest6[i]<-FFB1[FB1>=0.95][1]

Q6[i]<-InvChamp1[Yref1>=Qest6[i]][1]

#Beta1 MACRO

for(d in 1:999)

{x<-d/1000

densNoyauBetaMACRO1[d]<-densNoyauBeta1[d]/sum(densNoyauBeta1)}

for(m in 1:999) {FBMACRO1[m]<-sum(densNoyauBetaMACRO1[1:m])}

FFBMACRO1<-cbind(YY,FBMACRO1)

Qest7[i]<-FFBMACRO1[FBMACRO1>=0.95][1]

Q7[i]<-InvChamp1[Yref1>=Qest7[i]][1]

#Beta2 B2

for(d in 1:999)

{

x<-d/1000

if(x<2*b){densNoyauBetaBis1[d]<-1/200*sum(dbeta(Y1,ro(x),(1-x)/b))/999}

if(x>2*b && x<(1-2*b)){densNoyauBetaBis1[d]<-1/200*sum(dbeta(Y1,x/b,(1-x)

/b))/999}

if(x>1-2*b){densNoyauBetaBis1[d]<-1/200*sum(dbeta(Y1,x/b,ro(1-x)))/999}

}

for(m in 1:999) {FBBis1[m]<-sum(densNoyauBetaBis1[1:m])}

FFB1<-cbind(YY,FBBis1)

Qest8[i]<-FFB1[FBBis1>=0.95][1]

Q8[i]<-InvChamp1[Yref1>=Qest8[i]][1]

#Beta2 MACRO

for(d in 1:999)

{x<-d/1000

densNoyauBetaBisMACRO1[d]<-densNoyauBetaBis1[d]/sum(densNoyauBetaBis1)}

for(m in 1:999){FBBisMACRO1[m]<-sum(densNoyauBetaBisMACRO1[1:m])}

FFBBisMACRO1<-cbind(YY,FBBisMACRO1)

Qest9[i]<-FFBBisMACRO1[FBBisMACRO1>=0.95][1]

Q9[i]<-InvChamp1[Yref1>=Qest9[i]][1]

}

Page 89: Rmodel

89

Boxplots des 9 estimateurs de quantiles

boxplot(Q1,Q3,Q5,Q7,Q9,Q11,Q13,Q15,Q17,main="Boxplot for the 9 quantile

estimators\n Normal Distribution",col=c("light blue","light

green","purple","light

gray","pink","red","blue","yellow","green"),horizontal=TRUE,ylim=c(4,10))

legend("bottomright",inset=0.05,c("R","E","HD","PDG","PRK","B1","MACRO

B1","B2","MACRO B2"),fill=c("light blue","light green","purple","light

gray","pink","red","blue","yellow","green"),horiz=FALSE)

abline(v=VraiQuantile,lty=3,lwd=2,col="dark gray")

Calcul de la MSE pour chaque estimateur

#MSE pour m=2000 n=200 p=0.95

#R empirical quantile

MSE1<-1/2000*sum((Q1-VraiQuantile)^2)

#E inverse of the smoothed df with Epanechnikov kernel

MSE3<-1/2000*sum((Q3-VraiQuantile)^2)

#HD Harell-Davis estimate

MSE5<-1/2000*sum((Q5-VraiQuantile)^2)

#PDG Padgett estimate

MSE7<-1/2000*sum((Q7-VraiQuantile)^2)

#PRK Park estimate

MSE9<-1/2000*sum((Q9-VraiQuantile)^2)

#B1

MSE11<-1/2000*sum((Q11-VraiQuantile)^2)

#MACB1 MACRO-Beta estimate with beta1 kernel

MSE13<-1/2000*sum((Q13-VraiQuantile)^2)

#B2

MSE15<-1/2000*sum((Q15-VraiQuantile)^2)

#MACB2 MACRO-Beta estimate with beta2 kernel

MSE17<-1/2000*sum((Q17-VraiQuantile)^2)

Page 90: Rmodel

90

Chapitre 5 Estimation de la VaR sur des données réelles

I. Etude descriptive des données

1.1 Etude de la variable Montant

On dispose d’un échantillon de données réelles. Ces données ont été collectées auprès de la compagnie de réassurance de Copenhage (Copenhagen reinsurance). Elles sont constituées des montants de 2167 sinistres de type incendie sur la période 1980-1990. Ces données ont été ajustées à l’inflation et sont exprimées en millions de DK (Danish Krone).

On peut d’hors et déjà remarquer que la majorité des sinistres ont un montant compris entre 0 et 50 millions de DK. Les sinistres de montant très élevé constituent donc des faits rares. On en distingue 3 principaux sur la période 1980-1990 :

un sinistre d’un montant d’environ 270 Millions de DK en 1980

un sinistre d’un montant d’environ 150 Millions de DK en 1989

un sinistre d’un montant d’environ 140 Millions de DK en 1990

Page 91: Rmodel

91

Parmi les sinistres restants on peut distinguer 2 classes de sinistres :

les sinistres dont le montant est compris entre 0 et 10 Millions de DK, qui sont les plus nombreux

les sinistres dont le montant est compris entre 10 et 60 Millions de DK

Enfin on ne dénote a priori aucune tendance dans cette série, et aucun phénomène de saisonnalité non plus.

On se propose maintenant d’étudier les statistiques descriptives de la variable Montant regroupées dans le tableau ci-dessous.

Statistiques descriptives de la variable Montant

Taille de l’échantillon 2167

Minimum 1,000

1er Quartile 1,321

Médiane 1,778

Moyenne 3,385

3ème Quartile 2,967

Maximum 263,300

Ecart-type 8,507452

Kurtosis 482,198

Skewness 18,73685

La moyenne est 2 fois supérieure à la médiane. Comme l’on pouvait s’y attendre

en observant la série temporelle, la distribution des montants est donc clairement asymétrique.

Le coefficient de Skewness de 18,74 (coefficient de dissymétrie) confirme cette

idée. En effet, un coefficient positif indique une distribution étalée vers la gauche, et donc une queue de distribution étalée vers la droite. Ici le coefficient est très élevé, ce qui indique une concentration forte de la distribution sur la gauche. La distribution des montants a très peu de valeurs élevées. L’observation des quartiles permet de préciser cette asymétrie : 75% des valeurs sont comprises entre 1 et 2,967 Millions de DK, tandis que les 25% restants sont compris entre 2,967 et 263,30 Millions de DK.

Le coefficient de Kurtosis quant à lui indique un excès d’aplatissement positif

très élevé (482,198 − 3 = 479,198), qui est la caractéristique d’une distribution très « pointue ».

Page 92: Rmodel

92

L’observation des deux graphiques ci-après (histogramme et boîtes à moustaches) permet de visualiser l’asymétrie et le caractère « pointu » de la distribution des montants.

Page 93: Rmodel

93

Page 94: Rmodel

94

Les deux graphiques ci-dessous représentent la fonction de répartition de la variable Montant. Le 2ème graphique est un zoom du premier pour des pertes comprises entre 0 et 50 Millions de DK, afin de mieux visualiser la VaR d’ordre 𝑝 = 0,95.

Comme l’on pouvait s’y attendre en observant l’histogramme, le quantile d’ordre 0,95 de la distribution des pertes appartient aux montants peu élevés. Il est d’environ 10 Millions de DK.

Etant donné que la distribution des montants est très concentrée sur la gauche, on se propose d’étudier la distribution des log montants afin de diminuer l’étendue de la distribution, et d’obtenir ainsi une distribution plus régulière, plus aplatie, et dont les quantiles extrêmes seront sans doute plus simple à estimer.

Page 95: Rmodel

95

1.2 Etude de la variable log(Montant)

On se propose maintenant d’étudier les statistiques descriptives de la variable log(Montant) regroupées dans le tableau ci-dessous.

Statistiques descriptives de la variable log(Montant)

Taille de l’échantillon 2167

Minimum 0,000

1er Quartile 0,2785

Médiane 0,5756

Moyenne 0,7870

3ème Quartile 1,0880

Maximum 5,5730

Ecart-type 0,7167199

Kurtosis 4,179029

Skewness 1,761092

La moyenne et la médiane sont différentes mais néanmoins beaucoup plus proches que pour la variable Montant. La distribution des log montants est donc légèrement asymétrique.

Le coefficient de Skewness de 1,761092 confirme cette idée. Il est positif mais assez faible, ce qui indique une concentration de la distribution sur la gauche et une queue de distribution étalée vers la droite. L’observation des quartiles permet de préciser cette asymétrie : 75% des valeurs sont comprises entre 0 et 1,0880, tandis que les 25% restants sont compris entre 1,0880 et 5,5730.

Le coefficient de Kurtosis quant à lui indique un excès d’aplatissement positif faible (4,179029 − 3 = 1,179029). La distribution est donc légèrement plus pointue qu’une distribution normale.

L’observation des deux graphiques ci-après (histogramme et boîtes à moustaches) permet de visualiser l’asymétrie et l’aplatissement de la distribution des log montants.

Page 96: Rmodel

96

Page 97: Rmodel

97

Le graphique ci-dessous représente la fonction de répartition de la variable log(Montant).

Le quantile d’ordre 0,95 de la distribution des log montants est d’environ 2,3.

Dans ce qui suit, on se propose d’estimer les quantiles d’ordre 0,95 de ces deux distributions à l’aide des neuf estimateurs que nous avons étudiés dans le chapitre précédent.

Page 98: Rmodel

98

II. Résultats obtenus

2.1 Variable Montant

Le tableau ci-dessous regroupe les valeurs des différents estimateurs de la VaR à 95% pour la distribution des montants.

Estimateur VaR(95%) MSE

R 9,972647 -

E 10,09040 0,01386577

HD 9,837975 0,01813655

PDG 9,836038 0,01866202

PRK 10,69525 0,5221551

B1 9 0,94604219

MACRO B1 9,845 0,01629376

B2 10,24 0,07147763

MACRO B2 9,625 0,12085844

Si on prend comme référence le quantile empirique retourné par le logiciel R, les estimateurs les plus performants du point de vue du critère de la MSE sont les estimateurs d’Epanechnikov, d’Harrel-Davis, de Padgett et l’estimateur MACRO utilisant le noyau Bêta2. Leur MSE est proche de 0,02.

Comme l’on pouvait s’y attendre aux vues des simulations réalisées dans le chapitre précédent, l’estimateur de Park donne un résultat plutôt médiocre avec une MSE de 0,5221551. Cependant, l’estimateur utilisant le noyau Bêta1 qui donnait des résultats très acceptables dans les simulations précédentes, est ici le moins performant avec une MSE de 0,94604219.

Il faut néanmoins nuancer ces observations et souligner qu’ici le quantile de référence n’est qu’un quantile empirique parmi tant d’autres et non pas le quantile théorique d’une distribution donnée et que nous ne disposons que d’une estimation de la VaR.

Page 99: Rmodel

99

2.2 Variable log(Montant)

Le tableau ci-dessous regroupe les valeurs des différents estimateurs de la VaR à 95% pour la distribution des log montants.

Estimateur VaR(95%) MSE

R 2,299829 -

E 2,276961 0,000522945

HD 2,282039 0,000316484

PDG 2,281806 0,000324829

PRK 2,369797 0,004895521

B1 2,32 0,000406869

MACRO B1 2,32 0,000406869

B2 2,41 0,012137649

MACRO B2 2,275 0,000616479

Si on prend comme référence le quantile empirique retourné par le logiciel R, les estimateurs les plus performants du point de vue du critère de la MSE sont les estimateurs d’Epanechnikov, d’Harrel-Davis, de Padgett, l’estimateur utilisant le noyau Bêta1 et les estimateurs MACRO utilisant les noyaux Bêta1 et Bêta2. Leur MSE est en effet de l’ordre de 10−4.

Les autres estimateurs ont des performances toutes aussi acceptables avec une MSE de 0,005 pour l’estimateur de Park, et de 0,012 pour l’estimateur utilisant le noyau Bêta2.

Comme l’on pouvait s’y attendre, on obtient de bien meilleurs résultats avec la distribution des log montants qu’avec la distribution des montants. Le changement de variable que nous avons utilisé est donc a priori judicieux.

Page 100: Rmodel

100

III. Annexes du chapitre 5

Statistiques descriptives sur les données de perte

#Danish data

danish<-read.csv(file="C:/Users/Pauline/Desktop/PFE SVN/Articles de

recherche/Article 1Beta kernel/DanishData.csv",header=TRUE,sep=";")

danish

names(danish)

attach(danish)

#Descriptive statistics

#Loss

library(fBasics)

length(Loss)

summary(Loss)

sd(Loss)

kurtosis(Loss)

skewness(Loss)

#Results

#Length 2167

#Min. 1.000

#1st Qu. 1.321

#Median 1.778

#Mean 3.385

#3rd Qu. 2.967

#Max. 263.300

#Sd 8.507452

#Kurtosis 482.198

#Skewness 18.73685

#LLoss

length(LLoss)

summary(LLoss)

sd(LLoss)

kurtosis(LLoss)

skewness(LLoss)

#Results

#Length 2167

#Min. 0.000

#1st Qu. 0.2785

#Median 0.5756

#Mean 0.7870

#3rd Qu. 1.0880

#Max. 5.5730

#Sd 0.7167199

#Kurtosis 4.179029

#Skewness 1.761092

Page 101: Rmodel

101

Graphiques

#Plots

#Loss

TSLoss<-ts(Loss,start=1980,frequency=205) #Environ 17 obs par mois donc

205 par an

plot(TSLoss,type="h",col="dark blue",main="Série temporelle des montants

de 2167 sinistres incendie\n(1980-1990)",xlab="Temps",ylab="Montants en

Millions de DK")

Fn<-ecdf(Loss)

plot(Fn,main="Fonction de répartition des montants des sinistres

incendie",xlab="Montants en Millions de DK",ylab="Fonction de répartition

des montants",col="dark blue",pch="",lwd=3)

plot(Fn,main="Fonction de répartition des montants des sinistres

incendie",xlab="Montants en Millions de DK",ylab="Fonction de répartition

des montants",xlim=c(0,50),col="dark blue",pch="",lwd=3)

abline(h=0.95,col="red",lty=3,lwd=2)

abline(v=quantile(Loss,0.95),col="red",lty=3,lwd=2)

#Boxplot + hist

xhist<-hist(Loss,nclass=40,plot=FALSE)

top <- max(c(xhist$counts))

nf <- layout(c(2,1),c(2,2),TRUE)

par(mar=c(5,2,1,1))

boxplot(Loss,col="light blue",xlab="Montants en Millions de

DK",horizontal=TRUE)

par(mar=c(0,2,4,1))

barplot(xhist$counts, ylim=c(0, top), space=0,col="light

green",main="Variable Montant des sinistres incendie\nHistogramme et boîte à

moustaches")

#LLoss

LLoss<-log(Loss)

plot(ecdf(LLoss),main="Fonction de répartition des log montants\nDanish

Data",xlab="log(Montants)",ylab="Fonction de répartition des log

montants",col="dark blue",pch="",lwd=3)

abline(h=0.95,col="red",lty=3,lwd=2)

abline(v=quantile(LLoss,0.95),col="red",lty=3,lwd=2)

#Boxplot + hist

xhist<-hist(LLoss,nclass=30,plot=FALSE)

top <- max(c(xhist$counts))

nf <- layout(c(2,1),c(4,1),TRUE)

par(mar=c(5,2,1,1))

boxplot(LLoss,col="light blue",xlab="log Montants en Millions de

DK",horizontal=TRUE)

par(mar=c(0,2,5,1))

barplot(xhist$counts, ylim=c(0, top), space=0,col="light

green",main="Variable log Montant des sinistres incendie\nHistogramme et

boîte à moustaches")

Page 102: Rmodel

102

Estimation de la VaR sur la distribution des pertes

#Estimation de la VaR sur données réelles : Loss

B<-c(1,2167)

K1<-c(1,2167)

BPark<-c(1,2167)

FB1<-c(1,999)

FBBis1<-c(1,999)

FBMACRO1<-c(1,999)

FBBisMACRO1<-c(1,999)

densNoyauBeta1<-c(1,999)

densNoyauBetaBis1<-c(1,999)

densNoyauBetaMACRO1<-c(1,999)

densNoyauBetaBisMACRO1<-c(1,999)

#Champernowne function

#density

dchampernowne<-function(y,alpha,M,cst)

{

return ((alpha*(y+cst)^(alpha-1)*(((M+cst)^alpha)-

(cst^alpha)))/((((y+cst)^alpha)+((M+cst)^alpha)-(2*cst^alpha))^2))

}

#df

pchampernowne<-function(y,alpha,M,cst)

{

return (((y+cst)^alpha-cst^alpha)/((y+cst)^alpha+(M+cst)^alpha-

2*cst^alpha))

}

#Log vraisemblance

LChamp<-function(par,X)

{alpha<-par[1]

cst<-par[2]

logvrais<-log(prod(dchampernowne(X,alpha,median(X),cst)))

return(-logvrais)}

#Beta function HD estimate

Beta<-function(x)

{dbeta(x,2167*0.95,2167*0.05)}

b<-sqrt(0.95*0.05/2168)

ro<-function(x)

{2*b^2+2.5-sqrt(4*b^4+6*b^2+2.25-x^2-(x/b))}

#Estimation des paramètres de la fonction de Champernowne

try(est1<-nlm(LChamp,c(1,1),X=Loss))

#Statistiques ordonnées

X1ord<-sort(Loss,decreasing=FALSE)

#Empirical quantile

Q1<-quantile(Loss,0.95)

Page 103: Rmodel

103

#Inverse of the smoothed cumulative distribution function with

Epanechnikov kernel

dens_ep1<-density(Loss,kernel="epanechnikov")

FnEp1<-cumsum(dens_ep1$y)/sum(dens_ep1$y)

FFEp1<-cbind(dens_ep1$x,FnEp1)

Q3<-FFEp1[FnEp1>=0.95][1]

#HD estimate

for(j in 1:2167)

{B[j]<-(integrate(Beta,(j-1)/2167,j/2167))$value}

Q5<-t(B) %*% X1ord

#PDG Padgett

for(j in 1:2167)

{K1[j]<-pnorm(((j/2167)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/2167)-

0.95)/b,mean=0,sd=1)

K2[j]<-pnorm(((j/2167)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/2167)-

0.95)/b,mean=0,sd=1)}

Q7<-t(K1) %*% X1ord

#PRK Park

for(j in 1:2167)

{

x1<-((j/2167)-0.95)/b

x2<-((j-1)/2167-0.95)/b

BPark[j]<-pbeta(x1,((j/2167)/b)+1,((1-(j/2167))/b)+1)-pbeta(x2,(((j-

1)/2167)/b)+1,((1-((j-1)/2167))/b)+1)

}

Q9<-t(BPark) %*% X1ord

#Transformation de l'échantillon

Y1<-pchampernowne(Loss,est1$estimate[1],median(Loss),est1$estimate[2])

#Inverse de la fonction de Champernowne

xx<-seq(0,50,0.005)

Yref1<-pchampernowne(xx,est1$estimate[1],median(Loss),est1$estimate[2])

InvChamp1<-cbind(xx,Yref1)

#Beta1 B1

for(d in 1:999)

{x<-d/1000

densNoyauBeta1[d]<-1/2167*sum(dbeta(Y1,(x/b)+1,((1-x)/b)+1))/999}

YY<-seq(0.001,0.999,0.001)

for(m in 1:999)

{FB1[m]<-sum(densNoyauBeta1[1:m])}

FFB1<-cbind(YY,FB1)

Qest11<-FFB1[FB1>=0.95][1]

Q11<-InvChamp1[Yref1>=Qest11][1]

#Beta1 MACRO

for(d in 1:999)

{x<-d/1000

densNoyauBetaMACRO1[d]<-densNoyauBeta1[d]/sum(densNoyauBeta1)}

for(m in 1:999)

Page 104: Rmodel

104

{FBMACRO1[m]<-sum(densNoyauBetaMACRO1[1:m])}

FFBMACRO1<-cbind(YY,FBMACRO1)

Qest13<-FFBMACRO1[FBMACRO1>=0.95][1]

Q13<-InvChamp1[Yref1>=Qest13][1]

#Beta2 B2

for(d in 1:999)

{

x<-d/1000

if(x<2*b){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,ro(x),(1-x)/b))/999}

if(x>2*b && x<(1-2*b)){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,x/b,(1-

x)/b))/999}

if(x>1-2*b){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,x/b,ro(1-x)))/999}

}

for(m in 1:999)

{FBBis1[m]<-sum(densNoyauBetaBis1[1:m]) }

FFB1<-cbind(YY,FBBis1)

Qest15<-FFB1[FBBis1>=0.95][1]

Q15<-InvChamp1[Yref1>=Qest15][1]

#Beta2 MACRO

for(d in 1:999)

{x<-d/1000

densNoyauBetaBisMACRO1[d]<-densNoyauBetaBis1[d]/sum(densNoyauBetaBis1) }

for(m in 1:999)

{FBBisMACRO1[m]<-sum(densNoyauBetaBisMACRO1[1:m])}

FFBBisMACRO1<-cbind(YY,FBBisMACRO1)

Qest17<-FFBBisMACRO1[FBBisMACRO1>=0.95][1]

Q17<-InvChamp1[Yref1>=Qest17][1]

#Q1 9.972647

#Q3 10.09040

#Q5 9.837975

#Q7 9.836038

#Q9 10.69525

#Q11 9

#Q13 9.845

#Q15 10.24

#Q17 9.625

Page 105: Rmodel

105

Estimation de la VaR sur la distribution des log Pertes

#Estimation de la VaR sur données réelles : LLoss

#Estimation des paramètres de la fonction de Champernowne

try(est1<-nlm(LChamp,c(1,1),X=LLoss))

#Statistiques ordonnées

X1ord<-sort(LLoss,decreasing=FALSE)

#Empirical quantile

Q1<-quantile(LLoss,0.95)

#Inverse of the smoothed cumulative distribution function with

Epanechnikov kernel

dens_ep1<-density(LLoss,kernel="epanechnikov")

FnEp1<-cumsum(dens_ep1$y)/sum(dens_ep1$y)

FFEp1<-cbind(dens_ep1$x,FnEp1)

Q3<-FFEp1[FnEp1>=0.95][1]

#HD estimate

for(j in 1:2167)

{B[j]<-(integrate(Beta,(j-1)/2167,j/2167))$value}

Q5<-t(B) %*% X1ord

#PDG Padgett

for(j in 1:2167)

{K1[j]<-pnorm(((j/2167)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/2167)-

0.95)/b,mean=0,sd=1)

K2[j]<-pnorm(((j/2167)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/2167)-

0.95)/b,mean=0,sd=1)}

Q7<-t(K1) %*% X1ord

#PRK Park

for(j in 1:2167)

{

x1<-((j/2167)-0.95)/b

x2<-((j-1)/2167-0.95)/b

BPark[j]<-pbeta(x1,((j/2167)/b)+1,((1-(j/2167))/b)+1)-pbeta(x2,(((j-

1)/2167)/b)+1,((1-((j-1)/2167))/b)+1)

}

Q9<-t(BPark) %*% X1ord

#Transformation de l'échantillon

Y1<-pchampernowne(LLoss,est1$estimate[1],median(LLoss),est1$estimate[2])

#Inverse de la fonction de Champernowne

xx<-seq(0,50,0.005)

Yref1<-pchampernowne(xx,est1$estimate[1],median(LLoss),est1$estimate[2])

InvChamp1<-cbind(xx,Yref1)

#Beta1 B1

for(d in 1:999)

{x<-d/1000

densNoyauBeta1[d]<-1/2167*sum(dbeta(Y1,(x/b)+1,((1-x)/b)+1))/999}

Page 106: Rmodel

106

YY<-seq(0.001,0.999,0.001)

for(m in 1:999)

{FB1[m]<-sum(densNoyauBeta1[1:m])}

FFB1<-cbind(YY,FB1)

Qest11<-FFB1[FB1>=0.95][1]

Q11<-InvChamp1[Yref1>=Qest11][1]

#Beta1 MACRO

for(d in 1:999)

{x<-d/1000

densNoyauBetaMACRO1[d]<-densNoyauBeta1[d]/sum(densNoyauBeta1)}

for(m in 1:999)

{FBMACRO1[m]<-sum(densNoyauBetaMACRO1[1:m])}

FFBMACRO1<-cbind(YY,FBMACRO1)

Qest13<-FFBMACRO1[FBMACRO1>=0.95][1]

Q13<-InvChamp1[Yref1>=Qest13][1]

#Beta2 B2

for(d in 1:999)

{

x<-d/1000

if(x<2*b){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,ro(x),(1-x)/b))/999}

if(x>2*b && x<(1-2*b)){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,x/b,(1-

x)/b))/999}

if(x>1-2*b){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,x/b,ro(1-x)))/999}

}

for(m in 1:999)

{FBBis1[m]<-sum(densNoyauBetaBis1[1:m]) }

FFB1<-cbind(YY,FBBis1)

Qest15<-FFB1[FBBis1>=0.95][1]

Q15<-InvChamp1[Yref1>=Qest15][1]

#Beta2 MACRO

for(d in 1:999)

{x<-d/1000

densNoyauBetaBisMACRO1[d]<-densNoyauBetaBis1[d]/sum(densNoyauBetaBis1) }

for(m in 1:999)

{FBBisMACRO1[m]<-sum(densNoyauBetaBisMACRO1[1:m])}

FFBBisMACRO1<-cbind(YY,FBBisMACRO1)

Qest17<-FFBBisMACRO1[FBBisMACRO1>=0.95][1]

Q17<-InvChamp1[Yref1>=Qest17][1]

#Q1 2.299829

#Q3 2.276961

#Q5 2.282039

#Q7 2.281806

#Q9 2.369797

#Q11 2.32

#Q13 2.32

#Q15 2.41

#Q17 2.275

Page 107: Rmodel

107

Chapitre 6 La VaR Monte Carlo

I. Principe

Nous avons défini précédemment la Value-at-Risk comme la perte potentielle maximale sur un titre ou un portefeuille, sur un horizon de temps avec un degré de confiance. La méthode de calcul de la VaR Monte Carlo est utilisée en général quand le portefeuille contient des produits dérivés. Le principe de cette méthode consiste à simuler un grand nombre 𝑁 de trajectoires possibles d’un actif financier donné. Pour obtenir la Value-at-Risk pour un niveau de confiance de (100 − 𝛼)% , il suffit ensuite de sélectionner le 𝛼% ∗ 𝑁 pire scénario, i.e. la 𝛼% ∗ 𝑁 ième plus mauvaise valeur. Pour simuler les différentes trajectoires possibles d’un actif financier donné, on suit en général les trois étapes suivantes:

1. Choisir un modèle susceptible de décrire l’évolution de l’actif d’une manière assez fiable,

2. Déterminer les paramètres de ce modèle,

3. Simuler le nombre de trajectoires voulu du processus choisi avec les paramètres déterminés précédemment.

1.3 Quel modèle utiliser ?

Dès qu’il s’agit d’actions, d’indices actions ou de matières premières, le processus utilisé est le mouvement brownien géométrique. Soit 𝑆 𝑡 le cours de l’actif à la date 𝑡, l’évolution du cours de l’actif est donnée par le modèle suivant ::

𝑆 𝑡 + ∆𝑡 = 𝑆 𝑡 𝑒𝑥𝑝 𝜇 −𝜍2

2 ∆𝑡 + 𝜍𝜀 ∆𝑡

𝜇 est estimé par la moyenne empirique de la distribution de l’actif

𝜍 est estimé par l’écart-type empirique de la distribution de l’actif

𝜀 suit une loi normale 𝒩 0,1

Page 108: Rmodel

108

1.4 Algorithme de simulation

Supposons qu’on veuille déterminer la VaR 95% sur une durée de 5 jours d’un portefeuille 𝑃 donné. L’algorithme est alors le suivant:

1. Valoriser le portefeuille à la date t=0, 𝑃0

2. Générer une trajectoire des différents actifs composants le portefeuille à la date 𝑡 = 5 𝑗𝑜𝑢𝑟𝑠,

3. Réévaluer le portefeuille à la date 𝑡 = 5 𝑗𝑜𝑢𝑟𝑠, 𝑃5. On obtient ainsi :

𝛥𝑃 = 𝑃5 − 𝑃0.

4. Répéter les étapes 2 et 3 autant de fois que souhaité.

Si on réalise par exemple 10 000 simulations, la VaR à 95% est la 500ème plus faible valeur de 𝛥𝑃.

II. Exemple d’application

2.1 Travail préliminaire

On considère un portefeuille consisté de :

50% DOW JONES

50% S&P 500 La première étape consiste à télécharger les cours de ces indices sur Yahoo finance par exemple. Ici, on télécharge donc les cours journaliers du DOW JONES et du S&P500 du 31 décembre 1969 au 1er janvier 2006. La Value-at-Risk étant calculée à partir de la distribution des rendements, on transforme ces données afin d’obtenir les rendements quotidiens de ces 2 indices du 1er janvier 1970 au 1er janvier 2006. Soit 𝑃𝑡 le cours de l’indice à la date 𝑡, le rendement quotidien de cet indice à la date 𝑡 est défini par :

𝑅𝑡 =𝑃𝑡

𝑃𝑡−1

− 1

On obtient ainsi 2 distributions de rendements :

𝑅𝑡1

𝑡 la distribution des rendements quotidiens du DOW JONES

𝑅𝑡2

𝑡 la distribution des rendements quotidiens du S&P 500

Page 109: Rmodel

109

Afin d’obtenir les paramètres de la distribution du portefeuille nous avons besoin de calculer :

le coefficient de corrélation linéaire entre les distributions 𝑅𝑡1

𝑡 et 𝑅𝑡

2 𝑡

la moyenne et l’écart-type empiriques de chacune des distributions Soient :

𝜇1 ⇔ la moyenne empirique de la distribution 𝑅𝑡1

𝑡

𝜇2 ⇔ la moyenne empirique de la distribution 𝑅𝑡2

𝑡

𝜍1 ⇔ l’écart-type empirique de la distribution 𝑅𝑡1

𝑡

𝜍2 ⇔ l’écart-type empirique de la distribution 𝑅𝑡2

𝑡

𝑟12 le coefficient de corrélation linéaire entre les distributions 𝑅𝑡1

𝑡 et 𝑅𝑡

2 𝑡

La moyenne et l’écart-type empirique 𝜇𝑃 et 𝜍𝑃 de la distribution des rendements quotidiens du portefeuille sont définis par :

𝜇𝑃 =𝜇1 + 𝜇2

2

𝜍𝑃 = 𝜍1

2 + 𝜍22 + 2𝑟12𝜍1𝜍2

2

Les valeurs numériques obtenues à partir des données sont regroupées dans les deux tableaux ci-dessous : Coefficient de corrélation DJ

SP500 0,962 Paramètres DJ SP500 Portefeuille

Moyenne 0,00031 0,00031 0,0003 Ecart-type 0,01080 0,01078 0,0107

Page 110: Rmodel

110

2.2 Simulation des trajectoires

Nous disposons maintenant de tous les paramètres nécessaires pour simuler le processus 𝑃𝑡 décrivant les rendements du portefeuille défini par :

𝑃𝑡+∆𝑡 = 𝑃𝑡 𝑒𝑥𝑝 𝜇𝑃 −𝜍𝑃

2

2 ∆𝑡 + 𝜍𝑃𝜀 ∆𝑡

La valeur initiale 𝑃0 n’a pas d’importance, étant donné qu’on travaille directement sur les distributions de rendements. On prend donc 𝑃0 = 1. On cherche la Value-at-Risk à 2 mois sur ce portefeuille pour un niveau de confiance de 99%. On considère une distribution de rendements quotidiens donc la volatilité et la moyenne que nous avons calculées précédemment sont des paramètres journaliers. On doit donc prendre :

soit ∆𝑡 = 42 : dans ce cas on obtient directement le rendement du portefeuille dans 1 an. En effet, les places boursières sont fermées les week-ends et les jours fériés, donc en comptant 9 jours fériés (il s’agit d’une convention bien entendu), on obtient 365 − 2 ∗ 52 − 9 = 252 jours, ce qui donne 42 jours pour 2 mois.

soit ∆𝑡 = 1 : dans ce cas, on calcule chaque jour de proche en proche le rendement du portefeuille.

2.2.1. Algorithme pour ∆𝒕 = 𝟒𝟐

On désire effectuer 1000 simulations. La procédure à suivre sur Excel est la suivante :

1) On génère un vecteur 𝜀𝑖 𝑖=1,…,1000 de variables aléatoires suivant une loi

normale 𝒩 0,1

Fonction Excel : LOI.NORMALE.STANDARD.INVERSE(ALEA()) sur 1000 cellules

2) Pour chaque valeur de 𝜀𝑖 on calcule le rendement du portefeuille dans 2 mois

noté 𝑃𝑖2 𝑚𝑜𝑖𝑠

𝑃𝑖2 𝑚𝑜𝑖𝑠 = 𝑒𝑥𝑝 𝜇𝑃 −

𝜍𝑃2

2 42 + 𝜍𝑃𝜀𝑖 42

3) Pour 𝑖 = 1, … ,1000 on calcule la variation du rendement du portefeuille :

∆𝑃𝑖 = 𝑃𝑖2 mois − 𝑃0 = 𝑃𝑖

2 mois − 1

Page 111: Rmodel

111

4) On obtient la Value-at-Risk sur ce portefeuille pour un niveau de confiance de 99% et un horizon d’1 an en sélectionnant le 10ème plus faible rendement

Fonction Excel : CENTILE(J6:J1005;0,01) où J6:J1005 est la matrice contenant les valeurs ∆𝑃𝑖 i=1,…,1000

On obtient ainsi le résultat suivant :

Value-at-Risk(99%, 2 mois) -13,93%

Cela signifie qu’une personne possédant un portefeuille constitué à 50% de DOW JONES et à 50% de S&P 500 a 1% de risque de réaliser dans 2 mois une perte de 13,93% sur ce portefeuille. Ce résultat est raisonnable car on parle ici de pertes extrêmes.

2.2.2. Algorithme pour ∆𝒕 = 𝟏

1) On génère une matrice 𝜀𝑖𝑗 𝑖=1,…,1000𝑗=1,…,42

de variables aléatoires suivant une loi

normale 𝒩 0,1

2) Pour chaque trajectoire (i.e. pour 𝑖 fixé), on calcule de proche en proche les

valeurs de 𝑃𝑖𝑗 pour 𝑗 = 1, … ,42 .

𝑃𝑖𝑗

= 𝑃𝑖𝑗−1

𝑒𝑥𝑝 𝜇𝑃 −𝜍𝑃

2

2 1 + 𝜍𝑃𝜀𝑖𝑗 1

avec : 𝑃𝑖0 = 1 ∀𝑖 = 1, … ,1000

𝑃𝑖42 rendement du portefeuille dans 2 mois pour la 𝑖ème trajectoire

3) Pour 𝑖 = 1, … ,1000 on calcule la variation du rendement du portefeuille :

∆𝑃𝑖 = 𝑃𝑖42 − 𝑃0 = 𝑃𝑖

42 − 1

4) On obtient la Value-at-Risk sur ce portefeuille pour un niveau de confiance de 99% et un horizon d’1 an en sélectionnant le 10ème plus faible rendement

Page 112: Rmodel

112

On obtient ainsi le résultat suivant :

Value-at-Risk(99%, 2 mois) -13,78%

Cela signifie qu’une personne possédant un portefeuille constitué à 50% de DOW JONES et à 50% de S&P 500 a 1% de risque de réaliser dans 2 mois une perte de 13,78% sur ce portefeuille. L’intérêt du 2ème algorithme est qu’il permet de visualiser les différentes trajectoires

possibles du rendement du portefeuille. Le graphique ci-dessous a été réalisé à partir

des 100 premières trajectoires simulées du rendement du portefeuille constitué à

50% de DOW JONES et à 50% de S&P 500.

Cependant, on remarque qu’on obtient des valeurs très proches pour la VaR :

-13,93% pour la simulation « directe »

-13,78% pour la simulation de proche en proche Il est donc plus intéressant d’utiliser la 1ère méthode, beaucoup moins coûteuse en calculs.

0,8

0,85

0,9

0,95

1

1,05

1,1

1,15

1,2

P0 P2 P4 P6 P8 P10 P12 P14 P16 P18 P20 P22 P24 P26 P28 P30 P32 P34 P36 P38 P40 P42

Page 113: Rmodel

113

Chapitre 7 Etude du package VaR du logiciel R

I. Données

Le package VaR du logiciel R comporte 2 jeux de données :

Le premier jeu de données, noté DJIA, est composé des cours de clôture quotidiens des 30 entreprises de l’indice Dow Jones. Les données couvrent la période du 30 août 1993 au 29 août 2003, ce qui correspond à 2521 observations par entreprises.

Voici la liste des 30 compagnies ainsi que le nom de variable correspondant :

Nom de variable Compagnie

AA ALCOA INC.

AXP AMERICAN EXPRESS CO.

BA BOEING CO.

C CITIGROUP INC.

CAT CATERPILLAR INC.

DD DUPONT E I DE NEMOURS CO.

DIS DISNEY CO WALT HLDG CO.

EK EASTMAN KODAK CO.

GE GENERAL ELECTRIC CO.

GM GENERAL MOTORS CORP.

HD HOME DEPOT INC.

HON HONEYWELL INTERNATIONAL.

HPQ HEWLETT-PACKARD CO.

IBM INTERNATIONAL BUSINESS MACHINES CO.

INTC INTEL CO.

IP INTERNATIONAL PAPER CO.

JNJ JOHNSON & JOHNSON.

JPM JP MORGAN CHASE AND CO.

KO COCA COLA CO.

MCD MCDONALDS CORP.

MMM 3M COMPANY.

MO ALTRIA GROUP INC.

MRK MERCK & CO INC.

MSFT MiCROSOFT CORPORATION.

PG PROCTER & GAMBLE CO.

SBC SBC COMMUNICATIONS INC.

T AT & T CORP.

UTX UNITED TECHNOLOGIES CORP.

WMT WAL-MART STORES INC.

XOM EXXON MOBIL CORP.

Page 114: Rmodel

114

On peut observer ci-dessous 2 graphiques représentant l’évolution du cours des actions BOEING et IBM sur la période du 30 août 1993 au 29 août 2003.

Le second jeu de données est composé des taux de change entre 5 devises : o Japan Yen (JPY) o Euro (EUR) o US dollar (USD) o Franc Suisse (CHF) o La Livre Sterling (GBP)

Les données couvrent la période du 3 janvier 2000 au 22 août 2003. On considère 4 taux de change explicités dans le tableau ci-dessous :

Nom de variable Taux de change Exemple au 17-02-2008

EURUSD EUR sur USD 1 EUR = 1,3773 USD

USDJPY USD sur JPY 1 USD = 90,6207522 JPY

USDCHF USD sur CHF 1 USD = 1,06610035 CHF

GBPUSD GBP sur USD 1 GBP = 1,5771 USD

Les 4 graphiques ci-après décrivent l’évolution de ces 4 taux de change sur la période du 3 janvier 2000 au 22 août 2003.

Page 115: Rmodel

115

Page 116: Rmodel

116

II. Fonctions

Deux fonctions permettent ensuite de donner une estimation de la VaR et l’Expected Shortfall pour une série de données présentant un risque. L’Expected Shortfall correspond à la perte moyenne en cas de dépassement de la VaR.

𝐸𝑆𝛼 = 𝐸 𝑋|𝑋 > 𝑉𝐴𝑅𝛼 = 𝑉𝐴𝑅𝛼 + 𝐸 𝑋 − 𝑉𝐴𝑅𝛼 | 𝑋 > 𝑉𝐴𝑅𝛼

2.1 Fonction VaR.gpd

Cette fonction estime la Value-at-Risk et l’Expected Shortfall (ES) d’un vecteur de données pour un niveau de confiance donné. Concernant le vecteur de données, il peut s’agir de l’évolution du cours d’une action ou de l’évolution d’un taux de change sur une période de 10 ans. Cependant, il doit s’agir de données « brutes » et non de rendements car la fonction va procéder elle-même à cette transformation.

L’algorithme d’estimation est le suivant :

1) Les données initiales sont transformées en rendements (quotidiens ici). 2) Les rendements ainsi obtenus sont triés dans l’ordre décroissant et on

sélectionne seulement la partie des rendements excédant un certain seuil donné.

3) A l’aide des techniques du maximum de vraisemblance, on ajuste une distribution de Pareto Généralisée (GPD) sur la queue de distribution précédemment sélectionnée.

4) Les valeurs de la VaR et de l’ES ainsi que les intervalles de confiance pour ces valeurs sont calculées à partir de cette distribution.

Cette méthode d’estimation utilise donc la théorie des valeurs extrêmes. Pour plus de détails concernant le calcul de la VaR, se reporter au Chapitre 2 Estimation de la Value-at-Risk – paragraphe 4.1 Théorie des valeurs extrêmes. Utilisation de la fonction VaR.gpd(ydat,p=0.01,p.tr=0.97,init=c(1,0.3),cflevel=0.95)

Arguments

ydat Vecteur de données sur lesquelles la VaR et l’ES vont être calculés p Niveau de confiance pour le calcul de la VaR et de l’ES p.tr Seuil pour l’ajustement du modèle GPD init Valeurs initiales pour l’algorithme du maximum de vraisemblance pour

l’ajustement du modèle GPD. cflevel Niveau de confiance pour les intervalles de confiance de la VaR et de l’ES

Page 117: Rmodel

117

2.2 Fonction VaR.norm

Cette fonction estime la VaR pour un facteur de risque unique 𝑆 𝑡 à l’aide d’une approximation lognormale. Il existe 2 expressions de la VaR ainsi calculée, suivant qu’elle soit de type court ou long :

𝑉𝑎𝑅𝑙𝑜𝑛𝑔 𝑐 = 𝑆 𝑡 1 − 𝑒𝜇∆𝑡 + Φ 1−𝑐 𝜍 Δ𝑡

𝑉𝑎𝑅𝑠𝑕𝑜𝑟𝑡 𝑐 = −𝑆 𝑡 1 − 𝑒𝜇∆𝑡 − Φ 1−𝑐 𝜍 Δ𝑡

𝑐 est le niveau de confiance souhaité

Φ 1 − 𝑐 est le quantile d’ordre 1 − 𝑐 de la loi normale centrée réduite

∆𝑡 est la période de liquidation

𝜇 et 𝜍 sont la moyenne et l’écart-type de Δ𝑆 𝑡 si drift.appx=FALSE : 𝜇 = 0 si lin.appx=TRUE : 𝑒𝑥~1 + 𝑥 Utilisation de la fonction VaR.norm( ydat , p=0.99 , dt=1 , type="long" , drift.appx=FALSE ,

lin.appx=TRUE )

Arguments

ydat Vecteur de données sur lesquelles la VaR va être calculée p Niveau de confiance pour le calcul de la VaR dt Période de liquidation type Chaîne décrivant le type de VaR calculé : "long" ou "short" lin.appx Si TRUE, la VaR est calculée à l’aide d’une approximation linéaire

drift.appx Si TRUE, la VaR est calculée à l’aide d’une approximation de moyenne non nulle

Que signifie de type court ou long ???

Page 118: Rmodel

118

Exemple

#VaR GPD et lognorm pour les 4 taux de change

z1<-VaR.gpd(USDJPY[!is.na(USDJPY)])

z2<-VaR.norm(USDJPY[!is.na(USDJPY)])

z1$VaR

z2$VaR

z1$VaR.interval

z1$ES

z1$ES.interval

x1<-VaR.gpd(EURUSD[!is.na(EURUSD)])

x2<-VaR.norm(EURUSD[!is.na(EURUSD)])

x1$VaR

x2$VaR

x1$VaR.interval

x1$ES

x1$ES.interval

y1<-VaR.gpd(USDCHF[!is.na(USDCHF)])

y2<-VaR.norm(USDCHF[!is.na(USDCHF)])

y1$VaR

y2$VaR

y1$VaR.interval

y1$ES

y1$ES.interval

s1<-VaR.gpd(GPDUSD[!is.na(GPDUSD)])

s2<-VaR.norm(GPDUSD[!is.na(GPDUSD)])

s1$VaR

s2$VaR

s1$VaR.interval

s1$ES

s1$ES.interval

Résultats obtenus

Fonction utilisée

VaR.gpd VaR.norm

Taux de change

VaR ES IC VaR IC ES VaR

USD/JPY 1,636566 2,112686 1,485; 1,882 1,343 ; 1,600 1,674734

EUR/USD 1,609425 1,866881 1,516 ; 1,760 1,709 ; 2,121 0,0167368

USD/CHF 1,619008 1,917267 1,518 ; 1,785 1,734 ; 2,219 0,02180417

GBP/USD 1,262735 1,437066 1,201 ; 1,369 1,343 ; 1,600 0,01844153

Je ne vois pas comment interpréter ces résultats … S’agit-il de pourcentage, de rendements … ? 1,63 = 163% de pertes ? ou 63% de pertes … ? ou 1,63 points de pertes sur le taux ?

Page 119: Rmodel

119

2.3 Fonction VaR.backtest

Cette fonction effectue un test de proportion entre l’échantillon de données initiales et la VaR calculée à l’aide d’une des 2 fonctions précédentes. Il calcule la proportion d’observations dépassant la VaR estimée, et le compare avec le niveau de confiance utilisé dans l’estimation de la VaR.

𝐻0 : la proportion empirique de l’échantillon est égale au niveau de confiance

𝐻1 : la proportion empirique de l’échantillon est différente du niveau de confiance Donc si la p-value < 0,01 la proportion d’observations dans l’échantillon dépassant la VaR est différente du niveau de confiance utilisé dans l’estimation de la VaR. Utilisation de la fonction VaR.backtest(x, VaR, p)

Arguments

x Vecteur d’observations VaR Estimation de la VaR pour un niveau de confiance p p Niveau de confiance utilisé pour l’estimation de la VaR

Exemple

i<-EURUSD[!is.na(EURUSD)]

i1<-VaR.gpd(i)

i2<-VaR.norm(i)

i1$VaR

i2$VaR

i1$VaR.interval

i1$ES

i1$ES.interval

VaR.backtest(i,i1$VaR,p=0.01)

VaR.backtest(i,i2$VaR,p=0.01)

Page 120: Rmodel

120

Bibliographie

Université d’Orléans Master ESA - Cours d’économétrie pour la finance de Christophe Hurlin - Introduction à la Value-at-Risk : http://www.univ-orleans.fr/deg/masters/ESA/CH/churlin_E.htm Résumé de la thèse d’actuariat de F. Dumontaux et B. Sellam - Value-at-Risk et allocation de capital : http://www.acam-france.fr/?action=download&fileName=T-Dumontaux_et_Sellam_100.pdf Les différents types de risques financiers : http://www.fimarkets.com/pages/suivi_risques.htm Lexique de la finance : http://www.vernimmen.net/ Solvency II : Contexte et enjeux de la réforme : http://www.fimarkets.com/documents/La+nouvelle+reforme+de+Solvabilite+II.pdf La VaR en assurance : http://www.ica2006.com/Papiers/3128/3128.pdf Optimisation de portefeuille selon le critère de la Value-at-Risk : http://www.maroc-inge.com/download/repports/33608e3bc953c32e24bb7fd8082ebe39.pdf