32
1/32 VALUE AT RISK ET HYPOTHESE DE NORMALITE Responsable de thèse professionnelle M. Lucien RAZAFINIMARO Florent Berthe MS Finance de Marché et Gestion de Patrimoine Mai 2005

Excellent Rapport de Stage VaR 2

Embed Size (px)

Citation preview

Page 1: Excellent Rapport de Stage VaR 2

1/32

VALUE AT RISK ET HYPOTHESE DE NORMALITE

Responsable de thèse professionnelle M. Lucien RAZAFINIMARO

Florent Berthe MS Finance de Marché et Gestion de Patrimoine

Mai 2005

Page 2: Excellent Rapport de Stage VaR 2

2/32

PLAN

INTRODUCTION ........................................................................................3

PARTIE 1 LES METHODES DE DETERMINATION DE LA VAR ET HYPOTHESE DE NORMALITE ........................................................................................8 11 LES SOLUTIONS EXISTANTES .....................................................................9 12 LE CONCEPT DE LA LOI NORMALE.............................................................14 13 LE MODELE CHOISI .................................................................................15

PARTIE 2 DETERMINATION DE L’ECART CONSTATE ENTRE VAR CALCULEE AVEC HYPOTHESE DE NORMALITE ET UNE VAR CALCULEE AVEC DISTRIBUTION CORRIGEE ....................................................................16 21 LE CHOIX DES DONNEES .........................................................................17 22 METHODOLOGIE.....................................................................................19 23 RESULTAT ET INTERPRETATIONS SUR L’HYPOTHESE DE NORMALITE DE LA DISTRIBUTION DES RENTABILITES ..................................................................23 CONCLUSION .........................................................................................28 BIBLIOGRAPHIE .....................................................................................31 ANNEXES .....................................ERROR! BOOKMARK NOT DEFINED.

Page 3: Excellent Rapport de Stage VaR 2

3/32

INTRODUCTION

Page 4: Excellent Rapport de Stage VaR 2

4/32

Jusqu’au début des années 90, les méthodes utilisées pour détecter et gérer

les risques de marché n’étaient adaptées qu’à des produits spécifiques. Il était

alors impossible de comparer les mesures de risques entre les différentes

activités de marché. L’accroissement de la volatilité des marchés financiers, le

développement spectaculaire des produits dérivés et, surtout, une série de

désastres (les plus connus étant ceux de la banque Baring, Krach boursier de

1987, Krach obligataire de 1993) ont poussé les instituts financiers à

rechercher un indicateur global et synthétique des risques financiers.

En 1995, réunis en comité à la Banque des règlements internationaux à Bâle,

les représentants des banques centrales des dix plus grandes économies

mondiales ont proposé de nouvelles règles1 imposant aux établissements

financiers un niveau de fonds propres proportionnel aux risques résultant de

leurs engagements. Officiellement adoptée en 1996, cette proposition a incité

les banques à développer des systèmes internes sophistiqués d’indicateurs de

gestion des risques.

Cette recommandation a été très largement suivie et s’est concrétisée par

l’émergence d’un nouvel indicateur de risque : la Value at Risk. La VAR est

ainsi devenue, en quelques années, un standard pour l’évaluation des risques

financiers.

Deux évènements majeurs ont favorisé son adoption généralisée par la

communauté financière:

-Janvier 1996: le Comité de Bâle adopte l’amendement «Risques de marché»

aux Accords de Bâle de 1988. Cet amendement permet aux banques de

choisir entre la méthode standardisée et leur propre modèle pour calculer la

consommation en fonds propres de leurs activités de négociation.

Contrairement aux méthodes de la VaR, la méthode standardisée ne tient pas

compte des effets de diversification et implique en pratique une plus grande

consommation de fonds propres.

1 Amendement de l'accord de Bâle de 1988

Page 5: Excellent Rapport de Stage VaR 2

5/32

-Octobre 1994: la banque américaine JP Morgan dévoile sa méthodologie

RiskMetrics et la met gratuitement à disposition sur Internet.

RiskMetrics fournit les données financières et la méthodologie nécessaire au

calcul de la VaR d'un portefeuille. Les autres établissements financiers et les

entreprises pouvaient utiliser le calculateur de VaR de RiskMetrics ou

télécharger les données sur leurs propres systèmes de gestion des risques.

Très vite sont apparus de nouveaux fournisseurs de programmes de gestion

des risques exploitant RiskMetrics, transformant cette méthodologie en

référence incontournable.

Nous pouvons résumer l'évolution de la gestion du risque financier de ces cinq

dernières années comme la recherche d'une description concise du risque par

un seul chiffre, celui de la Value-at-Risk

Dans le monde bancaire, la VaR permet d’optimiser la gestion des risques

financiers dus aux opérations initiées par les salles de marché. Elle permet

également de donner au client une image claire du risque financier pris

indirectement par lui.

Cette mesure de risque s’adresse ainsi :

aux professionnels de marchés : opérateurs de marché, gestionnaires

de fonds privés, gestionnaires de fonds institutionnels et gestionnaires

de fonds de pension,

aux Risk Managers : responsables de la gestion des risques et du

contrôle de la gestion des risques2,

aux comptables,

aux clients institutionnels.

Un grand nombre d’entreprises disposent actuellement de services de Risk

Management3. Ces services ont comme missions principales la réévaluation

quotidienne aux prix de marché (market-to-market) de toutes les positions et

l’appréhension des risques de marché par des méthodes de sensibilité ou

2 Middle offices et back-offices 3 Annexe 6, Etude Ernst & Young 2000

Page 6: Excellent Rapport de Stage VaR 2

6/32

probabilistes comme la VaR et la mise en place de limites tant internes

qu’externes. Le concept de la VaR provient du fait qu’il est nécessaire de

réévaluer des positions au prix de marché qui sont à l’origine de pertes ou de

profits. Si les prix de marchés changent, la réévaluation se trouve donc

affectée. La réévaluation des positions à ces nouveaux prix donne une idée de

la sensibilité des portefeuilles de la banque en termes de pertes et profits à

une variation des prix de marché. Ces prix peuvent varier de manière inégale,

parfois même de manière dramatique et imprévue, d’où la nécessité de

réévaluer les positions en se fixant des scénarios de marché. A partir de cette

réévaluation, on peut calculer le montant de pertes potentielles donc la VaR.

Bien que la VaR puisse en théorie être utilisée pour la quantification des

risques de marché, des risques de crédit, des risques de liquidité, des risques

opérationnels, seule son application au risque de marché est aujourd’hui

réellement opérationnelle.

La détermination de la Value at Risk repose sur l’hypothèse de normalité des

distributions considérées.

Notre étude va permettre de déterminer , l’écart constaté entre le calcul d’une

VAR théorique et le calcul d’une VAR basée sur une distribution normale

corrigée, pour pouvoir appréhender l’impact de cette différence sur son

interprétation actuelle.

Il faut noter qu’il existe, à l’heure actuelle, plusieurs publications sur les

difficultés, inhérentes à l’utilisation de l’hypothèse de normalité, dans le calcul

de la VAR. L’apport notable de notre travail est de présenter de manière

concrète, au travers d’une étude de cas pratique, les conséquences de

l’hypothèse de normalité sur le calcul de la VAR d’un portefeuille d’action.

Dans une première partie, nous détaillerons les hypothèses et le modèle de

calcul d’une VAR en considérant les hypothèses de normalité comme exact.

Dans une deuxième partie nous effectuerons le calcul de la VAR d’un

portefeuille action en tenant compte de la distribution réelle des rentabilités.

Page 7: Excellent Rapport de Stage VaR 2

7/32

Nous pourront ainsi déterminer si la VAR à distribution corrigée sur pondère ou

sous pondère, une VAR pure.

Page 8: Excellent Rapport de Stage VaR 2

8/32

PARTIE 1

LES METHODES DE DETERMINATION DE LA VAR ET HYPOTHESE DE NORMALITE

Page 9: Excellent Rapport de Stage VaR 2

9/32

Il existe à l’heure actuelle différents types d’approche de détermination de la

VAR. La critique principale de l’ensemble de ces méthodes est qu’elles

reposent toutes sur l’hypothèse de normalité des distributions. Notre objectif

est de calculer l’écart constaté entre une VAR d’un portefeuille d’action,

calculée sur une hypothèse de normalité de distribution des rentabilités et

d’une VAR basée sur une distribution empirique corrigée.

Au préalable, dans cette partie, nous recenserons et expliquerons les

différentes méthodes utilisées, nous mettrons en avant leurs principales

faiblesses et déterminerons la méthode que nous utiliserons pour la suite de

notre étude.

11 Les solutions existantes

Nous nous intéresserons, ici, uniquement à deux types de méthodes de calcul

de la VAR : la méthode standard et celle des variances covariances (ou

méthode Riskmétrics). Plusieurs autres méthodes d’estimation de la Var sont

utilisées, comme la méthode de Monte Carlo, ou l’approche par simulation

historique, toutefois face à la diffusion massive dans le milieu bancaire de la

méthode Riskmétrics et par soucis de coller au plus près à la réalité, nous

décrirons uniquement l’approche standard et celle développée par rikmetrics.

111 L’approche standard

La Value-at-Risk est le quantile d'une distribution de profits et de pertes dans

un temps donné. Elle permet de mesurer le risque d'un portefeuille d'actifs

financiers composé, par exemple, de devises, d'obligations, d'actions, de

produits dérivés ou d'un panachage de ces éléments.

Nous pouvons expliquer le fonctionnement de la VAR de manière plus simple :

Il s’agit dans un premier temps de fixer une période dans laquelle étudier le

risque, deux semaines par exemple. Nous pouvons ensuite nous demander

quelle serait la perte maximale que nous pourrions subir sur ce portefeuille

Page 10: Excellent Rapport de Stage VaR 2

10/32

dans cet intervalle de temps. La réponse est une perte totale : par définition,

nous pouvons être certains à 100 % que les pertes du portefeuille ne

dépasseraient pas le montant d’investissement initial. Même si cette

information est vraie, nous pouvons grâce aux outils statistiques modernes

être plus précis puisque la pire issue possible ne se produira probablement

pas. L’objectif est alors de déterminer un montant (en dollars ou en euro par

exemple), tel que nous pouvons être sûrs à 95 % (par exemple) que les pertes

lui seront inférieures, c'est ce que la Value-at-Risk va déterminer.

Pour mieux comprendre le concept de la méthode VaR faisons l’hypothèse

simplificatrice d’un portefeuille composé d’un seul actif quelconque A, nous

pouvons définir la perte subit par cet actif pendant la période [0,t] comme

étant :

P (0, t) = A(0) – A(t)

Selon Esch, Kieffer et Lopez [1997] et Jorion [2000], la VaR de l’actif en

considération, pour une durée t et un niveau de probabilité q se définit comme

le montant de perte attendue de façon que ce montant, pendant la période [0,t]

, ne devrait pas être plus important que la VaR qu’avec une probabilité de (1-q)

Autrement dit :

Pr [Pt > VaR] = 1 – q

Avec,

q, le niveau de probabilité

t, la durée (ou l’horizon)

Pr, la probabilité Pt, les cours de l’action

VaR, la variable recherchée

Ou alternativement :

Pr [Pt < VaR] = q

Page 11: Excellent Rapport de Stage VaR 2

11/32

Nous faisons, ici, l’hypothèse que la distribution des cours de l’actif A suit une

loi normale, entièrement caractérisée donc par sa moyenne (rendement

espéré) et son écart type (volatilité du titre A). Il est important, afin de cerner le

concept d’exposition au risque et de mieux comprendre la méthode VaR, de

comprendre le concept de distribution normale. Nous y reviendrons dans la

suite de l’étude.

Pt étant la perte sur le titre à l’instant t.

Le centrage et la réduction de cette relation nous donnent :

qPt

PtEVaRPtPtEPt q =

≤−)(

)()(

)(Prσσ

Nous pouvons donc écrire que :

zqPt

PtEVaRq =−)(

)(σ

En isolant VaRq, nous obtenons donc :

)(*)( PtzqPtEVARq σ+= Compte tenu de l’hypothèse de normalité de la distribution des cours, le

coefficient multiplicateur zq, sera déterminé par les tables de la loi normale.

Afin d’illustrer, de manière plus concrète la Value-at-Risk, nous l’appliquerons

pour un portefeuille d’action.

Selon les travaux de Markowitz sur l’optimisation de portefeuille, le choix de

l’investisseur va être déterminé par la maximisation de la rentabilité moyenne

(l’espérance) et la minimisation du risque (la variance). Ainsi, le calcul de la

Var d’un portefeuille d’action doit prendre en compte ces deux facteurs.

Comme nous l’avons vu précédemment, outre la détermination de l’horizon t,

et du degré de confiance, qui influent directement sur les calculs de la Value-

Page 12: Excellent Rapport de Stage VaR 2

12/32

at-Risk, l’hypothèse de normalité de la distribution des cours (ou des

rentabilités), si elle n’est pas vérifiée risque de biaiser le résultat.

112 L’approche Riskmétrics

RiskMetrics, lancé en 1994, connu un succès immédiat, puisqu’il répondait aux

besoins du marché, et notamment à la nécessaire quantification du risque. Les

acteurs du marché ont notamment compris que le rendement n'est que la

moitié des informations clés pour réaliser un bon investissement, l'autre moitié

étant le risque.

RiskMetrics fut le premier logiciel à prendre en compte ce double aspect en

fournissant une approche transparente et cohérente de la quantification du

risque et en le comparant au rendement associé. Mais répondre à la demande

ne suffit pas à bâtir un succès : la réussite de RiskMetrics est aussi due à la

qualité de ses résultats. Grâce à des bases de données et une méthodologie

performante, ce logiciel fournit des estimations d'une grande qualité,

notamment concernant le risque. J.P. Morgan fut en effet la première banque à

utiliser et à imposer la mesure du risque qui est aujourd'hui la plus utilisée : la

Value-at-Risk. La convivialité et la relative facilité d'utilisation du logiciel sont

aussi un atout. Enfin c’est la démarche commerciale de J.P. Morgan qui fit de

RiskMetrics la référence de mesure du risque de marché. En effet, alors que

les autres banques qui développaient des logiciels de traitement du risque,

gardaient secrètes leurs méthodes de calcul, J.P. Morgan décida, en lançant

RiskMetrics, de fournir un logiciel, mais aussi une documentation technique

détaillée expliquant la méthodologie et les modèles mathématiques utilisés

pour la prédiction du risque. C’est cette transparence qui fut la clef du succès :

en effet, le domaine de la mesure du risque en étant à ces balbutiements lors

du lancement de RiskMetrics, les investisseurs étaient alors à la recherche

d'une référence nécessaire pour pouvoir comparer les performances des

nombreux portefeuilles proposés par les gestionnaires. Il est en effet difficile de

choisir une stratégie d'investissement si les acteurs utilisent des mesures

différentes. Ceci est d'autant plus vrai que les institutions financières

Page 13: Excellent Rapport de Stage VaR 2

13/32

internationales, et particulièrement le Comité de Bâle, ont favorisé la

standardisation des mesures du risque.

Cette transparence, notamment concernant les méthodes utilisées, remporta

également un grand succès populaire en permettant aux utilisateurs de

comprendre l'outil qu'ils utilisent pour leurs investissements. J.P. Morgan avait

bien compris qu’on ne peut pas avoir une confiance aveugle en un logiciel aux

méthodes inconnues. Le succès de RiskMetrics poussa J.P. Morgan à créer

une filière du même nom (RiskMetrics) chargée de la commercialisation, du

développement et des extensions de ce logiciel. Cette société propose donc

aujourd’hui de nombreux services en ligne.

Le fondement de la méthodologie de calcul de la Var par RiskMetrics est la

suivante :

λ=VAR tel que

ελ =≤ )(rendementP

où ε dépend de l'aversion au risque de l'investisseur.

Plaçons nous dans le cas où un investisseur voudrait constituer un

portefeuille : pour calculer la VaR, définissons quelques variables :

Rendement d'un actif : si le prix de l'actif à la date t est Pt, le rendement à la

date t est :

=

−1ln

t

tt P

Pr

La VAR calculé par Riskmetrics s’exprime comme suit :

QXXkXRVAR TT )(ε−=

Avec,

R : vecteur des rendements des actifs. X : vecteur d'allocations des actifs (proportion d'investissement que l'on

place dans chaque actif).

Q : matrice de covariance des actifs

k(ε) : fonction de ε. Cette fonction dépend de la distribution des actifs.

Page 14: Excellent Rapport de Stage VaR 2

14/32

Si ε = 5%, le rendement prédit à l'investisseur est XRT , tout en lui

garantissant que, dans 95% des cas, le rendement sera au moins égal à VaR.

La VaR est donc en quelque sorte une marge de sécurité. La VaR est d'autant

plus éloignée du rendement prédit que le portefeuille est risqué.

Le premier défaut est intimement lié au choix stratégique de RiskMetrics : en

voulant proposer un outil applicable dans la plupart des domaines et sur la

majorité des outils financiers (options, actions, obligations...), l’approche de

RiskMetrics se devait d’être simplificatrice, ce qui peut apparaître comme un

défaut. En effet, la plupart des cas demandent des modélisations propres qui

nécessitent de nombreuses modifications au fil du temps et des

bouleversements boursiers4, ce que ne fait pas RiskMetrics. L’approximation la

plus flagrante, et sans doute la plus fausse, est l’hypothèse selon laquelle les

actions suivent une loi normale (même si cette hypothèse est largement

utilisée dans le milieu financier).

C’est ce que nous démontrerons dans la deuxième partie de notre étude.

Avant d’aller plus loin dans notre étude il m’a semblé important de revenir sur

le concept de la loi normale.

12 Le concept de la loi normale

La distribution normale peut être également nommée loi de Laplace Gauss.

C'est la courbe en forme de cloche bien connue, qui sert à décrire aussi bien la

taille de la population française que les résultats des examens. En statistique,

nous admettons souvent qu'une bonne partie des systèmes complexes

obéissent plus ou moins à cette loi, et c'est particulièrement vrai pour les

systèmes vivants, pour autant qu'une perturbation significative n'y soit pas

introduite.

Une distribution normale est dite centrée réduite, lorsque l’espérance

mathématique de cette loi est nulle et que son écart type égal 1. Cette loi,

4 Exemple : inversion des courbes de taux

Page 15: Excellent Rapport de Stage VaR 2

15/32

notée N(0;1), peut être représentée de la manière suivante, considération faite

d'un seuil de confiance de 99% par exemple.

En présence d’une loi normale centrée réduite symétrique nous avons donc,

pour un seuil de confiance de 99%, 1% de chance d’obtenir un tirage supérieur

à Z1 ou un inférieur à Z2.

13 Le modèle choisi

Etant donné que le modèle de calcul Riskmétrics présente les mêmes défauts

que le modèle de calcul standard de la value at risque, son estimation, lors de

notre démarche empirique se fera par la méthode standard par soucis de

simplicité.

0,5% 0,5%

Moyenne=0 Z1

Caractéristiques :

2

2

21)(

x

exf−

E(x)=0 V(x)=1

Page 16: Excellent Rapport de Stage VaR 2

16/32

PARTIE 2

DETERMINATION DE L’ECART CONSTATE ENTRE VAR CALCULEE AVEC HYPOTHESE

DE NORMALITE ET UNE VAR CALCULEE AVEC DISTRIBUTION CORRIGEE

Page 17: Excellent Rapport de Stage VaR 2

17/32

Dans un premier temps, nous montrerons que la loi normale ne peut pas être

considérée comme totalement satisfaisante pour le calcul de la Value-at-Risk.

Pour ce faire nous effectuerons un test empirique de normalité sur un

portefeuille fictif que nous allons constituer. Dans un deuxième temps, nous

déterminerons l’écart de résultat constaté entre une VAR calculée avec

hypothèse de normalité et VAR avec distribution corrigée. Ensuite nous

interprèterons le résultat

21 Le choix des données

Afin de respecter les principes fondamentaux de gestion de portefeuille, la

constitution du portefeuille doit atteindre un niveau de diversification

acceptable pour réduire le risque spécifique. Par soucis de simplification, les

titres constituant le portefeuille, au nombre de cinq, ne seront que des actions

françaises du CAC 40, considérées sans dividende.

Leur pondération se fera en fonction du niveau de capitalisation constaté au 31

Mars 2005.

Le détermination des actions sera effectuée en choisissant des titres dans des

secteurs différents et faiblement corrélés entre eux5.

Euronext recense 10 secteurs d’activité correspondant chacun à une

classification spécifique, nous avons donc le choix entre :

5 Voir annexe 4

Page 18: Excellent Rapport de Stage VaR 2

18/32

Compte tenu, de leurs coefficients de corrélations 6et de leur variété

sectorielle7, le portefeuille sera constitué des titres : ARCELLOR (sect.10),

AXA (sect. 80), CARREFOUR (sect. 60), CAP GEMINI (sect. 90), et

LAGARDERE (sect. 50).

6 Cf. Annexe 4 7 Cf. Annexe 2

Code de classification Secteurs d’activité

00 Ressources

10 Industries de base

20 Industries généralistes

30 Biens de consommation

cycliques

40 Biens de consommation

non cycliques

50 Services cycliques

60 Services non cycliques

70 Services aux collectivités

80 Sociétés financières

90 Technologies de

l’information

Page 19: Excellent Rapport de Stage VaR 2

19/32

La base de donnée à ma disposition est constituée de l’ensemble des cours

hebdomadaires, des titres constituant le CAC 40. La période traitée débute le

07/01/1994 et se termine le 07/01/2005, soit une période d’étude de 10 ans.

Le traitement des données sera effectué informatiquement. La programmation

du logiciel de statistique MATLAB8, me permet en insérant la rentabilité

calculée de mon portefeuille de tracer l’histogramme de répartition des

rentabilités et de calculer les indicateurs de détection de normalité ainsi que

les coefficients d’aplatissement et de symétrie.

Le logiciel Matlab, d’utilisation simple permet un résultat propre, et reste très

souple dans son utilisation.

22 Méthodologie

Comme nous l’avons vu précédemment, il va s’agir de déterminer si la

distribution des rentabilités de notre portefeuille fictif peut être modélisée par la

distribution normale. Notre démonstration s’effectuera en trois étapes. Nous

calculerons dans un premier temps le Skewness pour chiffrer l’écart de

symétrie constatée entre la loi normale et la distribution de notre portefeuille.

Dans un deuxième temps, nous calculerons le Kurtosis pour vérifier si la

8 Cf. Annexe 5

Page 20: Excellent Rapport de Stage VaR 2

20/32

distribution du portefeuille est plus ou moins tassée par rapport à la loi

normale. Enfin, nous effectuerons le test de normalité de Jarque et Bera.

Détermination du coefficient d’asymétrie de Fischer

Pour commencer, nous allons déterminer si la distribution des rentabilités de

notre portefeuille est une distribution symétrique, comme celle de la loi

normale. Le Skweness, ou coefficient d’asymétrie de Fischer, est un outil

statistique qui va permettre de mesurer le coefficient d’asymétrie de la

distribution.

[ ]

Txxt

S

Txxt

xExE

S

3

3

3

3

33

33

)(

)(

)(

σ

µ

µ

σµ

−=

−=

−=

=

Avec µ3 correspondant au moment centré d’ordre 3

σ, correspondant à l’écart type

x les rentabilités

T, le nombre de période.

Interprétations du coefficient d’asymétrie de Fischer

Si S= 0, la distribution est symétrique comme la loi normale

Si S>0, la distribution penche à droite

Si S<0 la distribution penche à gauche

Page 21: Excellent Rapport de Stage VaR 2

21/32

Détermination du Coefficient d’aplatissement

L’objectif est de mesurer le niveau d’aplatissement de la distribution des

rentabilités de notre portefeuille d’action, par rapport à la distribution normale

centrée réduite. En statistique ce niveau d’aplatissement est mesuré par le

Kurtosis.

Le coefficient d’aplatissement est égal à :

S>0 S<0

Page 22: Excellent Rapport de Stage VaR 2

22/32

[ ]

[ ]

22

4

44

22

4

44

)()(

)()(

)()(

σ

σ

σµ

Txxt

K

Txxt

xExE

xExEK

K

−=

−=−

−=

=

Avec µ4 correspondant au moment centré d’ordre 3 σ, correspondant à l’écart type

x les rentabilités T, le nombre de période.

Interprétations du Coefficient d’aplatissement

En fonction du résultat que nous obtiendrons nous aurons ainsi trois résultats

possibles : K < 3, K > 3 ou bien K=3.

Si K= 3 alors la distribution des rentabilités a un coefficient d’aplatissement

similaire à la distribution normale (Distribution mésocurtique)

Si k > 3, la distribution de notre portefeuille sera plus tassée que la

distribution normale avec des queues épaisses (Distribution leptocurtique)

Si K < 3, la distribution de notre étude présentera des queues plus fines

que celle de la loi normale. (Distribution platicurtique)

Synthèse : Test de Jarque et Bera

Le test de Jarque et Bera conjugue les deux coefficients et permet de nous

dire si oui ou non, la distribution de notre portefeuille suit une loi normale. Il

Page 23: Excellent Rapport de Stage VaR 2

23/32

correspond à la somme des coefficients d’aplatissement et d’asymétrie élevé

au carré. Basé sur le test du chi deux, Matlab nous donnera comme résultat :

1, si la distribution observée n’est pas de type normale ; 0, si la distribution est

normale.

23 Résultat et interprétations sur l’hypothèse de normalité de la distribution des rentabilités

Sur la période de notre étude, du 07/01/1994 au 07/01/2005, le programme

Matlab nous permet d’obtenir les données suivantes :

Au vu du graphique, et des indicateurs considérés, nous pouvons affirmer que

la distribution de notre portefeuille ne suit pas une distribution normale.

Le skewness négatif (-0,2780) indique que les rentabilités du portefeuille sont

étalées vers la gauche. Un investissement sur notre portefeuille aura donc une

probabilité de baisse des rendements, supérieure à une hausse. Le coefficient

Jarque et Bera : 1 Skewness : -0,2789 Kurtosis : 6,7654

Page 24: Excellent Rapport de Stage VaR 2

24/32

d’aplatissement de fischer est très largement supérieur à 3 (6,7654), la

distribution des rendements présente donc des queues plus épaisses que la

distribution normale, il rend compte des phénomènes marginaux de la

fluctuation des rentabilités étudiées. Enfin, le test de Jarque et Bera, (1)

confirme que notre distribution ne suit pas une loi normale.

Nous allons, donc, pouvoir calculer le biais qu’engendre la prise en compte

d’une hypothèse de normalité sur le calcul de la VAR.

Soit les données suivantes :

L’écart type, l’espérance et zq de notre portefeuille sont9 :

Zq -1,655

E(Rt) 0,0003238

Ecart type du

portefeuille 0,00705241

La VAR de notre portefeuille, en considérant l’hypothèse de normalité des

distribution comme exact, sera donc égal à :

)(*)( RtzqRtEVARq σ+=

Soit :

00705241,0*655,10003238,0%95 −=VAR

50113479385,0%95 −=VAR

Ainsi la perte hebdomadaire pour chaque euros investi dans notre

portefeuille est de 0,011 euro avec une probabilité de 95% que cette perte

ne dépasse ce montant.

9 Voir annexe 1 et 4

Page 25: Excellent Rapport de Stage VaR 2

25/32

Toutefois, comme nous l’avons vu dans la partie précédente, la normalité

des rendements n’est pas toujours évidente, voir même rare pour des

séries de données financières.

Ils existent plusieurs solutions pour surmonter ce problème, l’expansion

de Cornish-Fisher est l’une de celles-là.

L’expansion de Cornish Fischer

L’expansion de Cornish-Fisher est une relation approximative entre les

percentiles d’une distribution et ces moments. Les moments d’une distribution

sont : l’espérance, l’écart type, le Skewness et le Kurtosis. D’après Stuart et AL

[1999], un très grand nombre de distributions que l’on trouve en statistique

tendent vers la normale quand le nombre d’observations tend vers l’infini, mais

dans des échantillons de moindre taille, la distribution normale n’est pas

évidente. C’est pour quoi il faut faire appel à l’expansion de Cornish-Fisher

pour approximer les percentiles d’une distribution. Cette approximation est

fondée sur la série de Taylor et recourt aux moments d’une distribution qui

dévie de la normale pour calculer ses percentiles. Hull [2000] fournit cette

approximation jusqu’au troisième moment d’une distribution. L’expansion de

Cornish-Fisher s’écrit alors comme suit :

( )( )Skzzw qqq 161 2 −+≅

Dans cette expression, wq est le percentile corrigé de la distribution au seuil q ;

zq est le percentile correspondant à une N (0,1) et Sk est le Skewness

(Coefficient d’asymétrie).

( )( ) )2780,0(*1655,161655,1 2 −−−+−≅qw

7355,1−≅qw

Page 26: Excellent Rapport de Stage VaR 2

26/32

On a alors une VAR corrigée de l’asymétrie égal à :

)(*)( RtwqRtEVARq σ+=

Soit :

00705241,0*7355,10003238,0%95 −=VAR

011915,0%95 −=VAR

Dans ce cas, wq corrige uniquement l’asymétrie constatée sur notre

distribution. La VAR corrigée, augmente de 5%. Cela signifie que l’hypothèse

fausse, due à une asymétrie, d’une distribution normale des rentabilités d’un

portefeuille d’action, engendre une sous estimation de 5% de sa VAR.

Il faut maintenant corriger l’excédent de Kurtosis par rapport à loi normale.

En fait le principal problème que présentent les distributions de rendements est

leur caractère leptocurtique10. Ce phénomène s’exprime par un excédent de

Kurtosis par rapport à celui d’une distribution normale et qui est égale à 3. En

tenant compte de cet excèdent (EKur), Racicot et Théoret [2001] sont allé

jusqu’à le quatrième moment de la distribution. L’expansion de Cornish-Fisher

devient :

( ) ( ) ( ) 2332 523613

2411

61 SkzqzEKurzzSkzzw qqqqqq −−−+−+=

Ainsi, en tenant compte à la fois de l’asymétrie et du leptocurtisme de la

distribution des rentabilités on obtient pour q=95% :

10 Partie 2, section 22

Page 27: Excellent Rapport de Stage VaR 2

27/32

( ) ( )( ) 23

32%95

)2780,0()655,1(*5)655,1(2361

3)-6,7654(*655,1(*3655,1241)2780,0(*1655,1

61655,1

−−−−

−−−−+−−−+−=w

Soit

666,1%95 −=w

D’où :

00705241,0*666,10003238,0%95 −=VAR

011426,0%95 −=VAR

La VAR corrigée de l’asymétrie constatée de la distribution et du

coefficient d’aplatissement n’engendre plus qu’une sous estimation de

0,7%, ce qui est tout à fait acceptable. Nous noterons toutefois que

l’utilisation de la VAR, en considérant comme vrai, l’hypothèse de

normalité de la distribution, à tendance, de manière générale, à sous

estimer la réalité des risques. Une période d’étude plus courte aurait

amplifié cette tendance. Au final nous pouvons donc admettre que sur une

base de donnée de longue période l’hypothèse de normalité peut être

utilisée.

Page 28: Excellent Rapport de Stage VaR 2

28/32

CONCLUSION

Page 29: Excellent Rapport de Stage VaR 2

29/32

L’objectif de ce travail était de présenter l’approche Value at Risk pour la

mesure du risque d’un portefeuille d’action du CAC 40, de montrer que l’

hypothèse de normalité de distribution des rentabilités n’était pas respectée et

de déterminer le biais engendré par cette hypothèse en corrigeant cette

distribution.

Nous avons commencé ce travail par donner un descriptif de la VaR sur son

utilisation, les raisons de son développement et son principe de calcul.

Par la suite, nous avons démontré que l’hypothèse sous jacente de normalité

des distributions des rentabilités n’est pas respectée dans le cas d’un

portefeuille d’action. Notre portefeuille, composé d’action française du CAC 40

possède une distribution plus étalée vers la gauche et des queues plus

épaisse que la distribution de référence. C’est ce que nous avons mis en

évidence avec le calcul du Skewness du Kurtosis et du test de Jarque et Bera.

Enfin, à l’aide d’outils statistiques nous en avons conclu que la VAR du

portefeuille a tendance à sous estimer le risque encouru. L’asymétrie de notre

distribution engendre une sous estimation de 5% de la VAR, une fois corrigée

nous observons un décalage de 0,7%. Cette tendance s’amplifiant sur une

base plus courte, puisque les valeurs extrêmes ont une valeur pondérée

supérieure.

Il est important de préciser qu’il n'est pas possible d'identifier une

méthodologie universellement acceptée pour estimer la VAR, chacune

présentant ses propres limites. L’une des limites fondamentales est le fait

qu’elle soit le reflet de la subjectivité des hypothèses sous-jacentes. Toutefois,

le plus grand risque dans l’utilisation de la VAR découle de l'incompréhension

des limites de la méthodologie utilisée. La VAR demeure malgré tout un

puissant outil de gestion de risque, mais aussi faut-il l’utiliser avec beaucoup

de précaution quant vient le temps d’interpréter les résultats. La VAR est une

valeur qui paraît scientifique et précise mais en fait, elle repose sur plusieurs

affirmations qui ne sont que jugements significativement subjectifs. Il ne faut

Page 30: Excellent Rapport de Stage VaR 2

30/32

cependant pas oublier que les hypothèses sont inévitables dans la mise en

pratique d'une méthode de VAR, à la fois pour des raisons de coûts et de

temps. Par conséquent, les gestionnaires ont besoin de bien connaître ces

hypothèses et leurs implications pour être capable d’interpréter proprement la

VAR. Il faut donc bien garder à l’esprit qu’aucun modèle mathématique ne

peut, ni ne pourra, prédire sans erreur le futur. Réussir son investissement

demande de bonnes informations, de la rigueur et du jugement. L’évaluation

des risques semble être autant un art qu’une science. C’est à l’investisseur lui-

même de prendre la décision finale.

Page 31: Excellent Rapport de Stage VaR 2

31/32

BIBLIOGRAPHIE

Page 32: Excellent Rapport de Stage VaR 2

32/32

Livres

• J.P. Morgan/Reuters, Riskmetrics, Technical document, fourth edition 1996

• Esch, Kieffer, Lopez, "Value at Risk - Vers un Risk Management moderne", De

Boeck université 1997

• J.Hull, "Options, Futures and Other Derivatives", Prentice Hall, Third Edition, 1997.

• Jean Thierry LAPRESTE, “Introduction à MATLAB”, Ellipse,1999

• Denis BOUGET/Alain VIENOT, « Traitement de l’information : statistiques et

probabilités », Vuibert, 1995

• Murray R. SPIEGEL, « Statistiques », Schaum, 1993

Site WEB

• www.gloriamundi.org

• www.RiskMetrics.com

• www.Le Figaro.fr

Article

• Akimou Ossé, “La Value at Risk”, Les cahiers de la finance, BCV Mai 2002.

Etude

• J.P. Morgan/Reuters, Riskmetrics, Technical document, fourth edition 1

• Ernst&Young, « Gestion des risque le tiers providentiel ? Une étude sur le suivi

des risques par les société de gestion en France », Novembre 2002

• David X. LI, « Value at Risk based on volatility, skewness and kurtosis »,

Riskmetrics, 4 mars 1999