Upload
truongtu
View
217
Download
0
Embed Size (px)
Citation preview
1
POLITECNICO DI MILANO Scuola di Ingegneria dei Sistemi
POLO TERRITORIALE DI MILANO
Corso di Laurea Specialistica in
Ingegneria Gestionale
COPERTURA DEI RISCHI DI MERCATO E
MISURE ANTICICLICHE SUL RISCHIO DI
CREDITO IN BASILEA III
Relatore: Prof. Marco Giorgino
Tesi di laurea di: Niccolò Anatra
matr. 735260
Anno Accademico 2009/2010
2
INDICE
FIGURE............................................................................................................................. pag. 4
TAVOLE………………………………………………………………………………... pag. 7
GRAFICI………………………………………………………………………………… pag. 8
ABSTRACT....................................................................................................................... pag. 9
PARTE PRIMA
1. Introduzione al risk management....................................................................... pag. 11
a. Rischi tipici delle banche........................................................................... pag. 11
b. Il processo di gestione del rischio.............................................................. pag. 14
c. Capital management e Risk Adjusted Performance.................................. pag. 15
2. Il rischio di mercato............................................................................................. pag. 19
a. Market Risk Driver.................................................................................... pag. 19
b. Sistemi di misurazione di alcune tipologie di market risk......................... pag. 25
3. Il Value at Risk..................................................................................................... pag. 47
a. Introduzione............................................................................................... pag. 47
b. Approccio parametrico o varianza/covarianza.......................................... pag. 51
c. La stima della volatilità e delle correlazioni.............................................. pag. 69
d. Simulazioni................................................................................................ pag. 76
e. La costruzione di prove di stress............................................................... pag. 91
f. Pregi e limiti dei modelli VAR.................................................................. pag. 93
g. Applicazione dei modelli VAR................................................................. pag. 100
h. Appendice.................................................................................................. pag. 103
4. Credit risk............................................................................................................. pag. 106
a. Definizione di credit risk........................................................................... pag. 106
b. Expected e unexpected losses................................................................... pag. 109
c. Credit risk drivers...................................................................................... pag. 113
d. Credit Model Portfolio............................................................................... pag. 122
5. L’evoluzione regolamentare............................................................................... pag. 147
a. L‟accordo sul capitale del 1988................................................................. pag. 149
b. Il nuovo accordo di Basilea....................................................................... pag. 155
c. Appendice.................................................................................................. pag. 164
PARTE SECONDA
1. Basilea III – Trading Book.................................................................................. pag. 172
a. Le proposte di riforma del dicembre 2009................................................ pag. 172
b. Capital Requirement for trading book activities........................................ pag. 188
c. Il dibattito Jorion-Taleb............................................................................. pag. 198
3
d. Le nuove proposte di Basilea..................................................................... pag. 206
e. Intervista con il responsabile della validazione del sistema di VAR in
Unicredito.................................................................................................. pag. 210
2. Through the cycle expected loss provisioning………………………………… pag. 227
a. Pro-ciclicità del settore finanziario (lezioni dalla crisi)............................. pag. 227
b. La vigilanza............................................................................................... pag. 230
c. Dynamic provisioning in Spagna............................................................... pag. 233
d. Appendice.................................................................................................. pag. 236
3. Countercyclical capital buffer............................................................................. pag. 241
a. Le ipotesi e le logiche della funzione di capitale....................................... pag. 241
b. Le proposte per contenere la pro-ciclicità................................................. pag. 244
c. Esame critico delle diverse proposte......................................................... pag. 250
4. Leverage Ratio..................................................................................................... pag. 254
a. La testimonianza di Taleb su “The Risk of Financial Modelling, VAR
and the Economic Meltdown”................................................................... pag. 255
b. Il Leverage ratio......................................................................................... pag. 256
c. La risposta di Basilea................................................................................. pag. 259
5. Intervista con il responsabile della validazione del rischio di credito in
Unicredito............................................................................................................. pag. 262
a. Background................................................................................................ pag. 262
b. Valutazione delle Criticità......................................................................... pag. 276
c. Appendice.................................................................................................. pag. 283
BIBLIOGRAFIA............................................................................................................... pag. 287
RINGRAZIAMENTI........................................................................................................ pag. 293
4
FIGURE
PARTE PRIMA
1.1 I requisiti informali di Banca d‟Italia.................................................................................. ............ pag.16
2.1 La curva dei rendimenti................................................................................................................... pag.23
2.2 Il rapporto tra prezzo e tasso di mercato di un‟obbligazione........................................................... pag.29
2.3 L‟effetto del tasso di mercato sul prezzo di un‟obbligazione.......................................................... pag.29
2.4 La convexity..................................................................................................................................... pag.31
2.5 La relazione tra rischio e rendimento............................................................................................... pag.37
2.6 I profili di rischio di diversi investimenti......................................................................................... pag.38
2.7 La distribuzione dei rendimenti di diversi progetti.......................................................................... pag.39
2.8 Rischio diversificabile e non diversificabile.................................................................................... pag.43
2.9 Il beta ed il livello di rischio............................................................................................................ pag.44
2.10 Gli andamenti del titolo P&G, dell‟indice azionario S&P500 e S&P Consumer tra il maggio
1999 ed il maggio 2004.................................................................................................................... pag.45
2.11 Regressione lineare tra i rendimenti dell‟indice S&P500 ed il titolo P&P tra il maggio
1999 ed il maggio 2004.......................................................................................................... pag.45
2.12 La perdita effettiva............................................................................................................................ pag.46
2.13 La perdita attesa................................................................................................................................ pag.46
3.1 Il livello di confidenza...................................................................................................................... pag.48
3.2 Distribuzione di probabilità dei rendimenti logaritmici di un indice di borsa.................................. pag.53
3.3 Relazione tra il livello di confidenza ed il coefficiente α.................................................................. pag.56
3.4 Il VaR di un indice azionario............................................................................................................. pag.57
3.5 Le classi di rating di Moody‟s........................................................................................................... pag.59
3.6 Andamento del tasso di cambio dollaro/euro tra il febbraio 2001 e l‟ottobre 2005.......................... pag.71
3.7 Volatilità dell‟indice S&P500 nei mesi di settembre ed ottobre 2001.............................................. pag.72
3.8 Volatilità e rendimenti dell‟indice S&P500 con il metodo delle medie mobili esponenziali........... pag.74
3.9 Confronto dei risultati tra metodo delle simulaizoni storiche e metodo varianza/covarianza.......... pag.82
3.10 Pregi e limiti dei modelli VaR.......................................................................................................... pag.93
4.1 Spread di un prestito con rating BBB tra il 1991 ed il 2008............................................................. pag.114
5
4.2 Relazione tra il Credit Conversion Factor e lo standing di un prenditore......................................... pag.115
4.3 Il rating assignement........................................................................................................ ................. pag.117
4.4 Correlazione tra rating e probabilità di default di un prenditore...................................................... pag.119
4.5 Matrice di transizione ad un anno........................................................................................... pag.120
4.6 Matrice di transizione a 5 anni.......................................................................................................... pag.121
4.7 La diversificazione del rischio................................................................................................ pag.123
4.8 La distribuzione delle perdite su credito.................................................................................. pag.124
4.9 Matrice di transizione........................................................................................................................ pag.130
4.10 Flussi di cassa nel tempo di un titolo................................................................................................ pag.131
4.11 Curve dei tassi forward zero coupon ad un anno per le diverse classi di rating....................... pag.132
1.12 Valore di mercato di un titolo dopo un anno in corrispondenza di tutte le possibili
classi di rating......................................................................................................................... pag.133
4.13 Valori e rispettive probabilità di un titolo secondo le possibili classi di rating......................... pag.133
4.14 Recovery Rate per diverse seniority class.................................................................. ....................... pag.134
4.15 Calcolo del VaR attraverso le probabilità cumulate......................................................................... pag.135
4.16 Probabilità congiunta di migrazione in ipotesi di indipendenza............................................... pag.136
4.17 Il modello di Merton............................................................................................................... pag.137
4.18 Distribuzione di probabilità standardizzata degli AVR............................................................ pag.138
4.19 AVRT per le diverse classi di rating di un titolo di classe BB.................................................. pag.140
4.20 AVRT per le diverse classi di rating di un titolo di classe A.................................................... pag.140
4.21 Correlazioni e probabilità di default congiunte................................................................................. pag.141
4.22 Probabilità congiunta di migrazione in ipotesi di correlazione positiva............................................ pag.142
5.1 La composizione del Core capital e del Supplementary Capital.................................................. pag.150
5.2 Pesi per il calcolo dei Risk Weighted Asset per le diverse categorie di controparti.................. pag.157
5.3 Distribuzione delle perdite future su un portafoglio crediti..................................................... pag.169
PARTE SECONDA
1.1 Gli attori coinvolti nel processo di adeguamento della normativa................................................... pag.173
1.2 I ratio di capitale dei 15 maggiori gruppi europei.................................................................... pag.175
1.3 Total Asset / Tier 1............................................................................................................................ pag.176
1.4 Il circolo vizioso della pro-ciclicità.................................................................................................. pag.176
6
1.5 L‟evoluzione della crisi del 2007............................................................................................ pag.177
1.6 Numero di fallimenti delle banche americane tra il 2000 ed il 2010....................................... pag.178
1.7 Requisiti di capitale nel draft del 2001 ed in quello del 2003................................................. pag.184
1.8 Backtesting relativo al Credit Suisse First Boston tra il primo gennaio 2001 ed il primo
gennaio 2005....................................................................................................................... ............. pag.194
1.9 Backtesting tra il secondo ed il terzo quarto del 2007...................................................................... pag.196
1.10 Volatilità giornaliera dell‟indice S&P............................................................................................... pag.202
1.11 Componenti di un moderno sistema di misurazione del rischio.............................................. pag.204
1.12 Backtesting di HVB AG tra il 2007 ed il 2008........................................................................ pag.215
1.13 Backtesting di Bank of Austria tra il 2007 ed il 2008............................................................. pag.215
1.14 Backtesting di UCB AG nel 2009........................................................................................... pag.217
1.15 Backtesting di Bank of Austria nel 2009……………………………………………………….. pag.217
1.16 Misurazione del VaR con un modello poco reattivo........................................................................ pag.219
1.17 Misurazione del VaR con un modello reattivo................................................................................. pag.219
1.18 Trade-off tra rendimenti e liquidità.................................................................................................. pag.221
2.1 Il ciclo economico e l‟andamento degli impieghi bancari........................................................ pag.227
4.1 Capital/Asset delle maggiori banche europee nel dicembre 2007............................................ pag.256
5.1 Modellizzazione della probabilità di default........................................................................... pag.266
5.2 La struttura del CPM......................................................................................................................... pag.269
5.3 I pregi dello stress test............................................................................................................. pag.271
5.4 Il funzionamento del modello per il calcolo dei Risk Weighted Asset..................................... pag.272
5.5 Quota dei prestiti alle imprese in temporanea difficoltà.......................................................... pag.274
5.6 Tasso di ingresso in sofferenza......................................................................................................... pag.274
5.7 Concentrazione dei sistemi di rating tra approcci PIT E TTC.......................................................... pag.278
7
TAVOLE
PARTE PRIMA
2.1: Calcolo del prezzo di un‟obbligazione........................................................................................ ............. pag.32
2.2: Calcolo del prezzo di un‟obbligazione dopo il cambiamento del tasso di interesse................................ pag.32
2.3: Calcolo del prezzo di un‟obbligazione con la duration........................................................................... pag.33
2.4: Valutazione di due progetti...................................................................................................................... pag.36
2.5: Profilo di tre investimenti (caso base)................................................................................. ..................... pag.40
2.6: Profilo rischio/rendimento sbilanciato.................................................................................. .................... pag.40
3.1: Rendimenti logaritmici giornalieri di un indice di borsa......................................................................... pag.52
3.2: VaR per diversi livelli di confidenza................................................................................... ......... pag.62
3.3: Esempio di caratteristiche di un desk di una banca....................................................................... pag.65
3.4: Tasso di cambio lira/dollaro tra il 1987 ed il 1995..................................................................... ... pag.79
3.5: Evoluzione degli indici FTSE100, DAX e S&P500................................................................................ pag.80
3.6: Risultati del metodo varianze/covarianze e di quello di simulazione storica.......................................... pag.82
3.7: Pregi e limiti delle simulazioni storiche.................................................................................... ............. pag.83
3.8: Punti di forza e debolezza dei modelli VaR............................................................................. ................ pag.94
3.9: Posizione lunga in BTP.................................................................................................. .......................... pag.95
3.10: Posizione corta in opzioni Call su USD................................................................................................ pag.95
3.11: Perdite relative a due portafogli azionari............................................................................................... pag.96
3.12: VaR come misura interna ed esterna..................................................................................................... pag.100
3.13: Limiti di rischio per diversi risk taker.................................................................................................... pag.101
3.14: Rendimento aggiustato per il rischio di due portafogli......................................................................... pag.102
3.15: Rendimenti giornalieri dell‟indice S&P500.......................................................................................... pag.103
3.16: Calcolo del valore di una Call................................................................................................................ pag.104
4.1: Cradit Rating e rischio……………………………………………………………………………….. pag.110
4.2: Rating ed expected loss................................................................................................. ................ pag.110
4.3: Rating e PD.............................................................................................................................................. pag.111
4.4: Caratteristiche di tre bond......................................................................................................................... pag.126
8
4.5: Calcolo delle unexpected loss per tre bond..................................................................................... pag.127
5.1: Metodo IRB e suddivisione dei portafogli di una banca......................................................................... pag.168
PARTE SECONDA
1.1: Capitale raccolto per tipologia di capitale..................................................................................... pag.181
1.2: Eccezioni e fattore moltiplicativo............................................................................................................. pag.195
1.3: VaR per il Trading Book......................................................................................................................... pag.214
1.4: VaR giornaliero per il Trading Book....................................................................................................... pag.216
1.5: Il VaR nei sistemi di Reporting................................................................................................................ pag.220
1.1: Simulazione del Dynamic Provisioning ....................................................................................... pag.236
5.1: Sistemi di Rating in Unicredit.................................................................................................................. pag.263
5.2: Accantonamenti di Unicredit................................................................................................................... pag.275
5.3: Test Kolmogorov-Smirnov...................................................................................................................... pag.285
GRAFICI
PARTE SECONDA
2.1: Distruzione del valore nel tempo causato da un evento inatteso................................................ .............. pag.200
2.1: Accantonamenti su totale prestiti.............................................................................................................. pag.238
5.1: Variabili che non presentano una distribuzione normale......................................................................... pag.286
9
ABSTRACT
La tesi si propone di esaminare le ragioni che hanno portato il Comitato di Basilea ad introdurre
nuove proposte per regolare i rischi di mercato del portafoglio di trading e per ridurre la prociclicità
delle regole prudenziali sul rischio di credito. A tal fine il lavoro si suddivide in due parti: una di
carattere metodologico ed introduttivo delinea le principali metodologie di misurazione dei rischi di
mercato e di credito utilizzate dai risk manager delle istituzioni finanziarie, la seconda sviluppa il
nuovo framework regolamentare noto come Basilea III con particolare riferimento alle metodologie
di Value at Risk (VaR) per i rischi di mercato e alle proposte di costruzione di tool anticiclici per
quanto riguarda i rischi di credito. Due “casi aziendali”, uno riguardante il VaR per il rischio di
mercato e l‟altro sui modelli di portafoglio a fronte del rischio di credito, costruiti grazie all‟aiuto di
dirigenti dell‟area validazione del gruppo Unicredito, completano il quadro.
L‟obiettivo era quello di verificare alcune ipotesi sulla robustezza delle metodologie VaR (utilizzate
dagli operatori e dalle Autorità di Vigilanza) che sono state messe a dura prova dalla crisi. Il rischio
di modello è stato riconosciuto infatti come una delle cause della crisi (vedi BIS Annual Report,
2009). Come è noto, sul tema si contrappongono due posizioni: da una parte, autori come Nassim
Taleb ( “Il cigno nero”) proclamano l‟inadeguatezza e la pericolosità di strumenti come il VaR
mentre altri, come Jorion (“Lessons from the crisis”) riaffermano tuttora la robustezza di tale
strumento.
Più in particolare nella parte introduttiva vengono accennate in modo abbastanza discorsivo alcune
definizioni di rischio, di processo di gestione del rischio e di gestione del capitale. Nella parte sul
rischio di mercato, dopo una breve introduzione sulle principali componenti e metodologie di
misurazione (duration, beta), ci si sofferma sulle metodologie VaR ed in particolare sull‟approccio
varianze/covarianze e su quello delle simulazioni (storiche e Monte Carlo). Così come i sistemi
VaR avevano costituito un superamento dei limiti delle misure di sensitività, gli stress test cercano
di ovviare ai limiti dei modelli VaR stessi. L‟area del rischio di credito è affrontata esaminando
preliminarmente i differenti driver di rischio a fronte di singole posizioni (PD, LGD, EAD,
Maturity) focalizzando l‟attenzione successivamente sui modelli di portafoglio, che consentono di
tener conto degli effetti di correlazione e concentrazione. La prima parte si conclude con un capitolo
sull‟evoluzione della regolamentazione prudenziale dal 1988 alle prime avvisaglie della crisi (con
un focus particolare sull‟accordo di Basilea del 2004).
10
Nella seconda parte della tesi, dopo un rapido esame delle principali proposte di Basilea III (qualità
del capitale, strumenti anticiclici, leverage ratio, liquidità, trading book, rischi sistemici) ci si
sofferma sull‟evoluzione regolamentare sul rischio di mercato. In particolare si illustra come i test
retrospettivi sulla bontà di tali modelli abbiano evidenziato un elevato numero di eccezioni durante
la crisi e abbiano pertanto indotto le autorità di vigilanza ad introdurre dei VaR “stressati” e un
ulteriore requisito di capitale (Incremental Risk Charge) che consentisse di tenere nel dovuto conto
il rischio di liquidità e di credito nel portafoglio di negoziazione. Successivamente, relativamente al
rischio di credito, dopo un rapido esame della formula che consente di calcolare il capitale
regolamentare, ci si è soffermati sul dibattito recente sul “dynamic provisioning” in Spagna e sulle
possibilità di modificare la formula del capitale di vigilanza al fine di limitarne gli effetti pro-ciclici.
Anche in questo ambito il Comitato di Basilea ha raccomandato con rinnovato vigore l‟utilizzo di
metodologie di stress test (Pillar II).
Sia la prima intervista con i dirigenti di Unicredito relativa al rischio di mercato che la seconda
riguardo ai modelli di portafoglio a fronte del rischio di credito, hanno evidenziato come nella
costruzione di un modello VaR debbano essere attentamente bilanciati gli aspetti di reattività con
quelli di stabilità nel tempo. Esiste infatti un chiaro trade-off tra la reattività del modello alle mutate
condizioni di mercato e la stabilità delle misurazioni dei valori del VaR nel tempo.
Basilea III conferma la logica dell‟utilizzo dei modelli interni basati sul VaR, anche se raccomanda
una grande cautela nell‟utilizzo degli stessi e introduce, sia pure come misura complementare, un
indicatore come il Leverage Ratio, non risk-adjusted.
11
PARTE PRIMA
1 - INTRODUZIONE AL RISK MANAGEMENT
RISCHI TIPICI DELLE BANCHE
Cos'è il rischio
Per chiarire la definizione di rischio che si intende utilizzare nella tesi, facciamo riferimento a
Giorgino, Travaglini (2008). “Il termine rischio è stato spesso impiegato per esprimere in termini
generali l‟esposizione all‟incertezza propria delle realtà imprenditoriali. I principali contributi
presenti in letteratura fanno generalmente riferimento ai concetti di incertezza e variabilità dei
risultati. Tradizionalmente tali fonti distinguono tra eventualità favorevole e rischio, associando a
quest‟ultimo una connotazione di scenario sfavorevole. In questa interpretazione il rischio
d‟impresa riguarda esclusivamente la possibilità di subire uno scostamento negativo rispetto ai
risultati attesi (Vaughan, 1997). In altri termini, c‟è un esplicito riferimento al concetto di danno,
ovvero ad un avvenimento futuro portatore di perdite o minori utili rispetto alle ipotesi formulate
inizialmente...”. Seguendo l‟approccio di Giorgino, Travaglini, possiamo considerare in prima
battuta il concetto di rischio come “la distribuzione dei possibili scostamenti dai risultati attesi per
effetto di eventi di incerta manifestazione, interni o esterni al sistema aziendale” e quindi senza
porre un particolare accento sugli scostamenti negativi (downside risk) rispetto a quelli positivi
(upside risk).
Come si vedrà nelle prossime pagine, discutendo dei processi, un primo obiettivo del Risk
Management è quello di stimare quanto rischiose siano le attività di un'azienda in termini
quantitativi: perchè ciò avvenga è importante definire delle misure1. Per quei rischi che possono
1 Va notato che in alcuni casi, per alcune tipologie di rischio (per esempio per il reputational risk), potrebbe essere
difficile esprimere in termini numerici il rischio associato.
12
essere stimati quantitativamente, ci sono differenti modalità di misurazione. Un metodo comune per
stimare un rischio è ad esempio quello di utilizzare la deviazione standard, cioè il grado con cui un
risultato varia dalla media (il valore atteso). La deviazione standard (rappresentata solitamente con
la lettera greca ζ) può essere calcolata come:
dove:
In termini qualitativi possiamo dire che un‟alta deviazione standard significa una più grande
probabilità che alcuni risultati futuri devieranno dalla media e una più bassa probabilità che il
risultato sia effettivamente quello atteso. Una deviazione standard più bassa, al contrario, significa
una più piccola probabilità di deviare dalla media e quindi una maggiore possibilità che il risultato
sia effettivamente quello atteso.
Naturalmente ci sono altri modi di misurare il rischio, come l‟utilizzo della covarianza, dei
coefficienti di variazione e anche di modelli più complessi, come quello del Valore a Rischio o del
Capital Asset Pricing Model, di cui parleremo nel prossimo capitolo.
Più in generale, come affermato da Giorgino, Travaglini (2008), le tecniche quantitative per la stima
dei rischi possono essere classificate in:
modelli non probabilistici;
modelli probabilistici.
I modelli non probabilistici (o deterministici) usano ipotesi soggettive per stimare l‟impatto di
eventi senza quantificare una probabilità associata ai singoli eventi. La stima dell‟impatto degli
eventi si basa su dati storici e su ipotesi di comportamento future. Esempi di modelli non
probabilistici sono le analisi di sensitività e di scenario.
I modelli probabilistici, invece, associano l‟impatto di un insieme di eventi con la loro probabilità di
accadimento, sulla base di ipotesi oggettive ritenute attendibili per il futuro. La probabilità e
l‟impatto sono stimati sulla base di dati storici o attraverso simulazioni sull‟evoluzione del
comportamento del mercato e dell‟impresa. Un esempio importante di modello probabilistico è
13
quello del Value at Risk, ma su di esso ritorneremo ampiamente quando analizzeremo i metodi di
misurazione dei rischi di mercato e di quelli di credito.
Classificazione dei rischi
In letteratura esistono numerose classificazioni dei rischi; ciascuna di esse è funzionale a metterne
in evidenza determinate proprietà ed aspetti distintivi. Riconoscendo che in alcuni contesti le
deviazioni dal risultato atteso possono essere solo sfavorevoli, mentre in altri contesti possono
essere sia favorevoli che sfavorevoli, si è consolidata ad esempio la tendenza a distinguere i rischi
in puri e speculativi. Alla prima categoria appartengono i rischi ritenuti assicurabili, ossia quei
rischi che si prestano ad essere gestiti mediante il processo assicurativo. Alla seconda categoria
appartengono sia i rischi finanziari, derivanti dall‟incertezza dei prezzi sui mercati finanziari, sia i
rischi industriali.
Le realtà aziendali fanno generalmente ricorso però a classificazioni di rischio più operative ed
intuitive, come ad esempio quelle che distinguono i rischi in strategici, finanziari ed operativi. Nel
Financial Risk Management delle banche (alcuni aspetti del quale saranno oggetto della presente
tesi) assumono un particolare rilievo i seguenti rischi finanziari (Saita, 2000) :
rischio di credito, che è il rischio che la controparte sia insolvente e non sia in grado di
rispettare i propri impegni di rimborso del debito o che, deteriorando la propria posizione
patrimoniale, aumenti la probabilità che questo avvenga;
rischio di mercato, che è il rischio di variazioni del valore di mercato di uno strumento o di
un portafoglio di strumenti finanziari connesse a variazioni inattese delle condizioni di
mercato (prezzi azionari, tassi di interesse, tassi di cambio e volatilità di tali variabili);
rischio di liquidità, che è legato all‟esistenza di un mismatch temporale tra passività
(prevalentemente a breve) e attività (maggiormente orientate al lungo termine) che può
provocare l‟impossibilità da parte della banca di onorare tempestivamente un volume di
rischieste di rimborso inaspettatamente elevato delle proprie passività.
A questi dobbiamo aggiungere, per la sua rilevanza,(anche se esula dagli scopi della nostra tesi)
almeno il rischio operativo. Quest‟ultimo abbraccia il complesso dei rischi connessi a errori umani,
a frodi, ai rischi connessi a possibili dispute legali nonchè a malfunzionamenti dei sistemi
informativi e delle procedure di controllo interne.
14
IL PROCESSO DI GESTIONE DEL RISCHIO
Il processo di gestione del rischio dovrebbe essere caratterizzato dai seguenti passi2:
1. definizione degli obiettivi del processo di risk management;
2. analisi e valutazione dei rischi;
3. trattamento dei rischi;
4. monitoraggio.
L‟obiettivo dei moderni sistemi di risk management è, secondo gli autori citati, il conseguimento
degli obiettivi strategici definiti dal vertice aziendale nel rispetto del profilo di rischio negoziato con
gli stakeholder. In questa fase è definita anche la soglia di rischio accettata dall‟impresa per
ciascuna esposizione a cui è soggetta (risk appetite).
La fase di definizione degli obiettivi è seguita da quella di analisi dei rischi che è orientata a
identificare, descrivere e stimare le varie esposizioni di rischio dell‟impresa. All‟analisi dei rischi
segue la valutazione degli stessi. Tale attività prevede il confronto tra le soglie di accettabilità del
rischio definite precedentemente dall‟impresa, con l‟esposizione alle singole categorie di rischio.
Nella successiva fase di trattamento dei rischi il management ha il compito di definire per ciascuna
categoria di rischio il programma di azione più indicato. Studiosi ed operatori hanno proposto
numerose classificazioni delle modalità di gestione dei rischi. In una delle classificazioni più diffuse
(Knight, 2005) si distingue tra non assunzione (avoidance), riduzione (reduction), trasferimento
(transfer), condivisione (sharing) e accettazione (retention). Il processo di risk management si serve
di una combinazione di queste tecniche per definire la migliore strategia di gestione che consente di
ridurre al minimo il rischio residuale.
Il processo di risk management prevede infine una fase di monitoraggio dei risultati con il duplice
obiettivo di verificare il raggiungimento degli obiettivi prefissati e di valutare la corretta
implementazione dei programmi prescelti del trattamento dei rischi.
2 Giorgino, Travaglini (2008).
15
CAPITAL MANAGEMENT E RISK ADJUSTED
PERFORMANCE
L‟analisi del processo di trattamento del rischio ci pone di fronte ad una sorta di rischio “residuale”
con cui l‟impresa deve convivere, ossia l‟insieme dei rischi che non sono stati oggetto di
trattamento e per i quali non sono state intraprese azioni di contenimento. La risk retention può
essere intesa come il grado di rischio che un‟azienda è disposta ad accettare nelle sue attività. Come
si vedrà meglio nella discussione sul market risk e sul credit risk, le banche si trovano di fronte
all‟esistenza di due tipi di perdite: quelle attese e quelle inattese. Alle prime, che sono da
considerare come aspetti integranti e “fisiologici” dell‟attività di business e quindi come veri e
propri costi da far transitare a conto economico, si fa fronte di solito con l‟appostazione di specifici
accantonamenti. Per la rilevanza citiamo qui il caso degli accantonamenti a fronte rischi su crediti.
Le perdite inattese vengono invece fronteggiate con il capitale; quest‟ultimo rappresenta infatti un
cuscinetto per l‟assorbimento dei rischi e la copertura delle perdite. “Nel risk management il rischio
è tipicamente identificato in termini di massima perdita potenziale e per tale via saldamente legato
all‟identificazione di un ammontare di capitale proprio posto idealmente a copertura di tale rischio”
(Saita, 2000). Il capitale però, accanto a questa funzione di “loss absorption” ne svolge almeno tre
altrettanto importanti (Resti, Sironi, 2008): esso infatti è una forma di finanziamento
particolarmente adatta per quelle attività la cui redditività si manifesta in modo graduale e differito
nel tempo, come nel caso di immobilizzazioni tecniche, goodwill pagati sulle imprese incorporate
ed in generale di tutti gli investimenti illiquidi che non possono essere dismessi senza rischi di forti
perdite. Il capitale consente inoltre di elaborare strategie di rilancio aziendale o ridefinizione di
attività, partecipando ad esempio ad operazioni di merger and acquisition. Il capitale concorre
infine alla formazione della reputazione, grazie alla quale la banca può estendere più facilmente il
reticolo delle relazioni di clientela.
Vi sono differenti definizioni di capitale, ma dato l‟impianto della tesi, due sono quelle che più ci
interessano:
capitale regolamentare: è la definizione di capitale utilizzata dalle Autorità di Vigilanza per
la determinazione dei requisiti di adeguatezza patrimoniale;
16
capitale economico: è la quantità di capitale necessaria per fronteggiare i rischi in essere
presso la banca. Esso è detto anche capitale a rischio e può essere misurato attraverso il
concetto di Valore a Rischio, cioè come la massima perdita possibile, all‟interno di un
intervallo di confidenza sufficientemente elevato e di un dato arco temporale. Nei prossimi
capitoli esamineremo metodologie per stimare il capitale a rischio associato a singoli
portafogli di attività (ad esempio, il portafoglio di negoziazione) o a singoli fattori di rischio
(ad esempio il rischio di credito). In generale, per capitale economico si intende invece il
capitale necessario a fronteggiare tutti i rischi che congiuntamente gravano sull‟intera banca.
Tralasciamo, perchè meno interessante ai nostri fini, la definizione di capitale contabile, quella a
valore corrente e quella relativa alla capitalizzazione di mercato.
La gestione del capitale
La gestione del capitale intende garantire che la base patrimoniale della banca sia coerente con il
grado di rischio complessivamente assunto, con i vincoli esogeni rappresentati dai coefficienti
patrimoniali ed, infine, con il rating desiderato dalle agenzie di rating. Relativamente ai requisiti
patrimoniali imposti dall‟organo di vigilanza, occorre dire che già prima della crisi c‟erano delle
regole tacite che suggerivano di aumentare i requisiti ufficiali. Informalmente, in Italia, la Banca
d‟Italia richiedeva alle banche un Tier 1 ratio del 6%, ossia superiore al 4% minimo richiesto.
Figura 1.1: I requisiti informali di Banca d’Italia
17
Rimandiamo alla sezione dedicata all‟evoluzione della normativa per un‟introduzione e un‟attenta
analisi del capitale di vigilanza.
Il capitale a rischio
Come detto in precedenza le banche dispongono solitamente di misure di rischio parziali per le
diverse tipologie di rischio presenti nei loro attivi. Il calcolo del capitale economico complessivo
della banca richiede che tali misure vengano:
completate, per garantire che tutti i principali fattori di rischio e tutte le unità operative più
significative siano rilevati dal sistema di misurazione dei rischi;
uniformate, così che i VaR parziali siano omogenei tra loro, in particolare per quanto
riguarda il livello di confidenza e l‟orizzonte temporale;
aggregate, tenendo eventualmente conto dei possibili benefici di diversificazione legati
all‟imperfetta relazione tra rischi diversi.
Le misure di redditività aggiustate per il rischio
Occore considerare, al termine di questa parte sul capitale, che i sistemi di risk management,
attraverso l‟uso del VaR e del capitale economico, hanno profondamente modificato i sistemi di
capital budgeting e di planning introducendo nuovi concetti, come ad esempio quello di allocazione
del capitale3. Il passaggio chiave è rappresentato dall‟introduzione del concetto di redditività
corretta per il rischio. Infatti alcuni ratio reddituali, come ad esempio il ROE ed il ROA, che pur
mostrano alcune componenti della performance reddituale delle aziende, non sono in grado di
ponderare i loro valori con i rischi assunti dalla banca. Per far questo occorrono dei ratio che
integrino la dimensione dei rendimenti con quella del rischio. Queste misure sono usualmente
chiamate misure di redditività corrette per il rischio (RAPM). Una misura di risk adjusted
performance è, nella sua forma più generale, un indicatore di redditività costruito a partire da una
misura del risultato economico generato da una singola operazione, da un insieme coordinato di
azioni o da un‟area di business e da una misura del capitale a rischio ad essa associato.
3 “L‟ultimo stadio della possibile evoluzione di un sistema di risk management è rappresentato dalla messa in atto di un
processo sistematico di riallocazione del capitale” (Saita, 2000).
18
A questo proposito sottolineiamo lo stretto legame tra i modelli VaR (ad esempio calcolati
nell‟ambito del rischio di mercato) ed il calcolo della redditività corretta per il rischio. Il rendimento
sul capitale allocato o assorbito prende sovente il nome di RAROC, cioè di risk adjusted return on
capital. Ricordiamo a questo punto che esistono alcune tecniche per stimare il costo del capitale di
un‟azienda (in questo caso di una banca) ossia il rendimento target atteso dai suoi azionisti.
Attraverso il confronto tra queste due grandenze, il RAROC da una parte ed il costo del capitale
dall‟altra, si può ricavare un‟indicazione circa la creazione di valore da parte della banca e delle sue
unità di business. In sostanza un‟attività crea valore se il RAROC è maggiore del costo del capitale.
19
2 - IL RISCHIO DI MERCATO
MARKET RISK DRIVER
In questo capitolo ci soffermeremo prima sulla classificazione delle principali forme di rischio di
mercato e poi su alcune metodologie di misura di tali rischi. In particolare approfondiremo in un
primo momento l‟analisi della duration come misura di sensitività adatta a rilevare le variazioni di
prezzo di un‟obbligazione al variare dei tassi di mercato ed in un secondo momento il beta
azionario, che bene approssima i movimenti del rendimento di un singolo titolo azionario rispetto
all‟andamento del mercato nel suo complesso.
Rischio di mercato: definizioni e tipologie
L‟esigenza di misurare e controllare in modo adeguato i rischi assunti da una banca è
particolarmente sentita nell‟attività di investimento e negoziazione di titoli, che risulta esposta alla
volatilità dei prezzi delle attività scambiate. Per le istituzioni che assumono posizioni speculative in
valute, opzioni ed azioni, esiste infatti una concreta possibilità che le perdite associate ad una
singola posizione annullino, nell‟arco di un breve intervallo temporale, i profitti realizzati nel corso
di mesi. Questo tipo di rischi viene generalmente indicato con il termine “rischio di mercato” o
rischio di prezzo. Più precisamente per rischio di mercato si intende il rischio di variazioni del
valore di mercato di uno strumento o di un portafoglio di strumenti finanziari connesse a variazioni
inattese delle condizioni di mercato (prezzi azionari, tassi di interesse, tassi di cambio e volatilità di
tali variabili); esso include dunque i rischi su posizioni in valuta, in titoli obbligazionari ed azionari
così come su tutte le altre attività e passività finanziarie scambiate da una banca (Resti, Sironi,
2008). I rischi di mercato vengono generalmente identificati (anche dalle autorità di vigilanza) con i
rischi inerenti il solo portafoglio di negoziazione (trading book4), inteso come l‟insieme di posizioni
4 La distinzione tra portafoglio di negoziazione e altre attività/passività è stata introdotta dal Comitato di Basilea
nell‟aprile 1993, al momento dell‟estensione dei coefficienti patrimoniali ai rischi di mercato. Tale classificazione è
adottata dalla normativa vigente: si veda, per esempio, Basel Committee on Banking Supervision (2006), Banca d‟Italia
(2006) . In particolare, il Comitato di Basilea definisce il trading book come :” A trading book consists of positions in
financial instruments and commodities held either with trading intent or in order to hedge other elements of the trading
20
assunte per un periodo di tempo breve o brevissimo, nell‟intento di beneficiare delle variazioni dei
prezzi di mercato; in realtà essi riguardano tutte le attività/passività finanziarie detenute da una
banca, comprese quelle acquistate per finalità di investimento e destinate ad essere conservate in
bilancio per un lungo arco di tempo.
Risulta evidente come, a seconda del tipo di prezzo a cui si fa riferimento, i rischi di mercato
possano assumere connotazioni differenti. In linea generale si possono classificare sette categorie
principali di rischi di mercato e cioè il rischio di tasso di interesse, il rischio azionario, il rischio di
cambio, quello su merci, di spread, il rischio di direzione ed il rischio di volatilità. Alcuni autori
come Banks (2006), specificano meglio il rischio azionario attraverso il repricing risk, il curve risk
ed il basis risk. Coerentemente con gli scopi della nostra tesi, ci concentreremo in particolare sul
rischio di tasso di interesse e accenneremo invece brevemente alle definizioni degli altri tipi di
rischio.
Il rischio di tasso di interesse
Si è in presenza di rischio di tasso di interesse “quando il valore di mercato delle posizioni assunte è
sensibile a variazioni dei tassi di interesse (come accade per i titoli obbligazionari e per diversi tipi
di contratti derivati)” (Resti, Sironi, 2008). Relativamente a questo tipo di rischio occorre notare che
quando il rischio di tasso è preso in considerazione in quanto sottospecie del rischio di mercato, ci si
limita di norma a considerare solo l‟esposizione degli strumenti finanziari per cui esiste
effettivamente un mercato secondario (per esempio le obbligazioni quotate). Pertanto la misura e la
gestione del rischio di tasso di interesse nell‟ambito dei rischi di mercato si incentra sulle sole
attività detenute a fini di negoziazione (il trading book) che include tutte le posizioni, tra cui quelle
allo scoperto ed in derivati, detenute con l‟intento di realizzare un profitto da negoziazione nel
breve termine.
Poiché si considerano solo le attività negoziabili, il rischio di tasso inteso come sottospecie del
rischio di mercato può essere azzerato, nell‟arco di pochi giorni al massimo, vendendo le posizioni
in portafoglio. Per questo motivo nel calcolarlo si adotta di solito un orizzonte temporale molto
breve (di pochi giorni).
book. To be eligible for trading book capital treatment, financial instruments must either be free of any restrictive
covenants on their tradability or able to be hedged completely. In addition, positions should be frequently and
accurately valued, and the portfolio should be actively managed”.
21
Il rischio di interesse può essere considerato anche in un‟accezione più ampia: infatti una delle
principali funzioni svolte dal sistema finanziario è rappresentata dalla trasformazione delle
scadenze. Le banche finanziano i propri investimenti in prestiti o titoli emettendo passività la cui
scadenza media è inferiore di solito a quella degli investimenti (Onado, 2004). Il conseguente
squilibrio delle scadenze dell‟attivo e del passivo, comporta l‟assunzione di un rischio di interesse.
Si supponga, ad esempio5, che l‟investimento in un mutuo al tasso fisso del 6% a dieci anni di
100,000€ venga finanziato mediante l‟emissione di un certificato di deposito a tasso fisso del 2% ad
un anno di importo equivalente. Il margine di interesse annuo connesso a tale operazione è
evidentemente pari al 4% dell‟importo complessivo della stessa, ossia 4,000€. Si supponga a questo
punto che nel corso dell‟anno i tassi di interesse del mercato, sia attivi che passivi, subiscano una
variazione al rialzo di un punto percentuale. Alla scadenza del certificato di deposito la banca si
troverà costretta a rifinanziare il mutuo mediante l‟emissione di un nuovo certificato di deposito ad
un tasso più elevato (pari al 3%) pur continuando ad ottenere un tasso del 6% sul proprio
investimento. Il margine di interesse subirebbe dunque una riduzione da 4,000€ a 3,000€ (cioè dal
4% al 3% del totale attivo). Il rischio di interesse, nella sua accezione più ampia, può quindi essere
definito come il rischio che variazioni nei tassi di mercato incidano sulla redditività e sul valore di
una banca.
In generale qualunque rischio dovrebbe essere misurato in modo fortemente integrato, considerando
congiuntamente l‟intera gamma di attività della banca. Tuttavia la scelta di affrontare con approcci
differenziati la stessa tipologia di rischio (il rischio di tasso) su portafogli diversi (banking book e
trading book) appare ampiamente giustificata se si pensa che:
1. in molti paesi il banking book ed il trading book sono soggetti a regole contabili diverse,
così che per esempio, eventuali perdite legate a svalutazioni sul primo non sono
immediatamente compensabili dai profitti legati al maggior valore teorico del secondo;
2. la composizione del trading book può essere modificata in modo sensibile nel corso di un
breve arco di tempo, mentre quella del banking book tende a rimanere stabile e necessita di
un monitoraggio meno frequente.
Le modalità con cui la banca risulta esposta al rischio di interesse sono numerose (Lusignani,
2004). Tra queste le principali sono le seguenti:
rischio di riprezzamento (repricing risk);
5 L‟esempio è tratto da Resti, Sironi, 2008.
22
rischio di curva (yield curve risk);
rischio di base (basis risk)
1. Repricing risk
“Rappresenta la principale forma di rischio di interesse della banca, che ha origine dalle differenze
nelle scadenze (per le poste a tasso fisso) e nel riprezzamento (per le poste a tasso variabile) delle
attività, passività e degli strumenti fuori bilancio della banca” (Lusignani, 2004). Queste differenze,
o gap, risultano fondamentali per il business della banca ma possono lasciarla esposta a fluttuazioni
non preventivate dei tassi di interesse. Vi sono due tipologie di rischio di repricing:
il rischio di rifinanziamento: quando la maturity delle posizioni in attivo è superiore a quelle
nel passivo;
il rischio di re-investimento: quando la maturity delle posizioni in attivo è minore di quelle
nel passivo (come nell‟esempio all‟inizio del capitolo).
2. Yield curve risk
Tale rischio si manifesta a causa delle variazioni dei tassi di interesse lungo i vari segmenti di
scadenza della curva dei rendimenti. “Quest‟ultima rappresenta, nell‟istante attuale, l‟insieme dei
tassi di interesse di equilibrio per ogni possibile scadenza futura, riferiti per convenzione ad
investimenti privi di rischio, a partire dalla scadenza di investimento più breve, quella dei prestiti
interbancari overnight ”(Giudici, 2008). Sono presenti principalmente tre tipologie di curva dei
rendimenti, che dipendono dalla forma che essa assume:
crescente: è la curva dei rendimenti in cui le scadenze più lunghe presentano rendimenti
maggiori rispetto a quelle più brevi;
decrescente: è la curva dei rendimenti in cui le scadenze più brevi presentano rendimenti
maggiori rispetto a quelle più lunghe. Solitamente tale curva dei rendimenti si presenta in
periodi di recessione;
piatta: è la curva dei rendimenti in cui sia le scadenze brevi sia quelle più lunghe presentano
rendimenti molto simili.
23
Figura 2.1: La curva dei rendimenti
Il rischio associato alla curva dei rendimenti è legato a spostamenti paralleli al rialzo o al ribasso
della curva oppure qualora la curva dei rendimenti modifichi la sua forma. Per esempio (a fronte di
una variazione nei tassi di interesse a breve termine, la variazione dei tassi di interesse nelle
scadenze a medio e lungo termine è di entità superiore, inferiore o addirittura di segno opposto).
3. Basis Risk
Un‟altra importante fonte di rischio di tasso origina dalla non sempre perfetta correlazione tra gli
aggiustamenti dei tassi di interesse sulle attività rispetto a quelli delle passività. “Ad esempio, nel
caso di un‟attività con scadenza a un anno, che genera interessi variabili trimestrali indicizzati al
tasso dei BOT a tre mesi, finanziata con un certificato di deposito ad un anno, che paga interessi
trimestrali indicizzati al tasso dell‟EURIBOR a tre mesi, pur in presenza di un perfetto
bilanciamento nelle scadenze e nei tempi di repricing, la banca è esposta al rischio di variazioni
inattese nello spread tra il tasso EURIBOR ed il tasso dei BOT” (Lusignani, 2004).
Altre tipologie di rischio di mercato
Riportiamo di seguito le definizioni di altre tipologie di rischio di mercato, tratte da Banks (2010):
rischio azionario: si verifica quando il valore di mercato delle posizioni assunte è sensibile
all‟andamento dei mercati azionari (titoli azionari, stock index future, stock option, etc.);
24
rischio di cambio: si verifica quando il valore di mercato delle posizioni assunte è sensibile
a variazioni dei tassi di cambio (è questo il caso delle attività e passività finanziarie
denominate in valuta estera e dei contratti derivati il cui valore dipende dal tasso di cambio);
rischio merci: si verifica quando il valore di mercato delle posizioni assunte è sensibile a
variazioni dei prezzi delle commodity (acquisti/vendite a pronti e a termine di merci,
commodity swap, commodity future);
rischio di spread: si verifica quando, a causa, ad esempio, di una crisi di liquidità dei
mercati o di un incremento dell‟avversione al rischio degli investitori, a parità di merito
creditizio, aumenti il premio al rischio, ossia lo spread richiesto dal mercato dei capitali. In
concreto è il rischio di perdite dovuto a variazioni sfavorevoli del differenziale tra i tassi risk
free dei titoli di stato e quelli, ad esempio, dei corporate bond emessi da una controparte,
che sono calcolati aggiungendo uno spread al tasso risk free dei titoli di stato;
rischio di direzione: si verifica quando si assume una posizione direzionale (rialzista o
ribassista) su un‟attività o su un mercato di riferimento. Un investitore con una posizione
rialzista subirà una perdita se i prezzi di mercato diminuiscono, oppure avrà un guadagno se
i prezzi aumentano. Un investitore con una posizione ribassista avrà un guadagno quando i
prezzi di mercato diminuiscono, mentre subirà una perdita se i prezzi aumentano;
Rischio di volatilità: si verifica quando il valore di mercato delle posizioni assunte è
sensibile a variazioni della volatilità di una delle variabili sopra considerate (si pensi alle
opzioni, per esempio su valute, tassi di interesse, commodity, il cui valore dipende dal livello
della volatilità).
25
SISTEMI DI MISURAZIONE DI ALCUNE TIPOLOGIE DI
MARKET RISK
Fino a pochi anni fa l'esposizione al rischio veniva considerata direttamente proporzionale al valore
nominale degli strumenti finanziari detenuti e anche eventuali limiti imposti alla capacità di risk
taking delle singole unità operative venivano espressi in riferimento al valore nominale delle
posizioni. Tale approccio era apprezzato per la semplicità, il costo relativamente ridotto e lo scarso
fabbisogno di informazioni ed aggiornamenti (visto che il valore nominale di un'attività resta
costante); tuttavia esso è contraddistinto da numerosi limiti (Resti, Sironi, 2008), in particolare:
il valore nominale di una posizione non rispecchia il suo valore di mercato. Così, per
esempio, una posizione rappresentata da 100 azioni della società A con valore unitario pari a
10 euro, viene considerata equivalente a una posizione rappresentata da 10 azioni della
società B con valore nominale unitario pari a 100 euro (valore nominale pari a 1.000 euro
per entrambe). Tuttavia le azioni A potrebbero valere sul mercato 5 euro, mentre le azioni B
potrebbero avere un valore di mercato di 200 euro: in tal caso il valore di mercato della
seconda posizione sarebbe quattro volte superiore alla prima; il valore nominale non
coglierebbe questa differenza, nè le differenze derivanti dalle variazioni di prezzo futuro;
il valore nominale non può cogliere il diverso grado di sensibilità di titoli differenti
rispetto alle variazioni dei fattori di mercato. Si pensi per esempio a una posizione in
BOT a tre mesi e ad un'altra, di identico valore nominale, in BTP decennali: evidentemente
il valore di mercato della seconda posizione è assai più sensibile alle variazioni dei tassi di
interesse di mercato di quanto non sia la prima;
il valore nominale non tiene in considerazione le condizioni di volatilità e di
correlazione dei prezzi - tassi di mercato. Infatti le posizioni sensibili a fattori di mercato
caratterizzati da una maggiore volatilità, sono, a parità di valore nominale, più rischiose (si
pensi per esempio alle azioni il cui valore dipende da un mercato più volatile di quanto
accada, per esempio, per i titoli obbligazionari). Inoltre, portafogli composti da posizioni
sensibili a fattori di mercato fortemente correlati tra loro, sono, a parità di valore nominale,
caratterizzati da maggiore rischio.
26
Simili problemi hanno condotto ad utilizzare misure di rischio specifiche per le diverse tipologie di
posizioni: la duration e il basis point value per i titoli obbligazionari, il beta per i titoli azionari, i
coefficienti delta, gamma, vega e rho per le opzioni.
Nelle pagine che seguono cercheremo di ricostruire tali indicatori, in particolare la duration ed il
beta. Tralasciamo invece l‟esame di misure di sensitività più complesse (riguardanti ad esempio i
derivati).
La duration come misura di sensitività di un portafoglio
obbligazionario
Prima di affrontare i problemi di misurazione del rischio di tasso di interesse di un portafoglio
obbligazionario è opportuno descrivere alcuni indicatori che misurano in termini generali le
caratteristiche dei titoli. In particolare si discutono i criteri e le metodologie di misurazione del
rendimento e del rischio di alcuni strumenti obbligazionari. Essi contribuiscono a rendere più
trasparente il significato delle quotazioni in modo da facilitare i confronti tra titoli. Come è noto, un
titolo obbligazionario è un contratto associato al pagamento nel tempo di una successione di flussi
finanziari. Il suo valore, quindi, può essere in prima istanza calcolato semplicemente attraverso
l‟attualizzazione dei flussi monetari che lo caratterizzano. Si può calcolare P0, ovvero il valore di
equilibrio del titolo obbligazionario oggi:
dove:
T = scadenza del prestito obbligazionario;
Ft = stringa dei flussi monetari (cedole) attesi (t = t1, t2, ..., T);
VN = valore nominale del titolo (in generale uguale al valore di rimborso);
rt = tassi di interesse annuali alle diverse scadenze, evidenziati dalla struttura per scadenza.
Come si vede, quindi, il valore del titolo deve essere pari alla somma attualizzata delle cedole
staccate e del rimborso del valore nominale a scadenza. Nel caso di uno zero-coupon, che non paga
cedole, il valore di mercato coincide semplicemente con il valore attuale del capitale nominale; per
27
quanto riguarda titoli obbligazionari che pagano cedole, rimandiamo a Giudici (2008) per una
trattazione più approfondita.
Analizziamo ora i principali indicatori di rendimento. Tralasciamo i rendimenti semplice e
composto che si basano sulle basilari formule finanziarie dell‟interesse semplice e di quello
composto.
Alcuni indicatori per i titoli obbligazionari
1. Tasso di rendimento immediato
Il tasso di rendimento immediato è un indicatore parziale che valuta unicamente il contributo delle
cedole alla redditività del titolo. Indicando con C la cedola in corso di maturazione e con P il prezzo
di acquisto del titolo (corso secco6), il rendimento immediato è calcolato nel modo seguente:
Il rendimento immediato non consente un‟accurata misurazione del rendimento di un investimento
in titoli obbligazionari, in quanto non tiene conto del periodo di investimento nè delle eventuali
variazioni dei corsi. “Tale indicatore fornisce una indicazione non distorta del rendimento di un
titolo solo per periodi molto brevi e in condizioni di stabilità dei tassi di interesse. Al contrario, la
sua significatività si riduce considerevolmente in condizioni di elevata volatilità dei tassi di
interesse” (Lusignani, 2004).
2. Tasso di rendimento effettivo a scadenza (yield to maturity)
Il tasso di rendimento effettivo a scadenza di un‟obbligazione (definito anche yield to maturity), reff,
è quel tasso di interesse che eguaglia il valore attuale dei flussi di cassa futuri (cedole e rimborso
alla scadenza) al prezzo tel quel7 P0 del titolo:
6 Un titolo è quotato al corso secco quando il prezzo esprime il puro capitale e non tiene conto dell‟eventuale parte di
cedola già maturata nel periodo che intercorre tra la data di stacco della cedola precedente ed il momento di acquisto
del titolo.
28
Il rendimento effettivo rappresenta la remunerazione media riconosciuta dal mercato ai diversi
flussi di cassa e, di conseguenza, è una media ponderata dei tassi di interesse alle diverse scadenze
espressa dalla struttura per scadenza.
Il rendimento a scadenza o effettivo è concettualmente simile al tasso interno di rendimento (TIR)
di un investimento, ma in questo caso non rappresenta necessariamente un parametro di preferibilità
di un titolo rispetto ad un altro. È chiaro infatti che se la struttura per scadenza dei tassi di interesse
è crescente nel tempo, ci si attende che titoli più “lunghi” (con vita residua maggiore) saranno
caratterizzati da rendimenti effettivi maggiori, mentre titoli più “corti” (con vita residua minore)
saranno caratterizzati da rendimenti effettivi minori.
Il TRES è quindi il tasso di sconto che rende uguale al prezzo tel quel del titolo la somma dei valori
attuali delle sue prestazioni attese. Il tasso di rendimento a scadenza è il più diffuso indicatore di
redditività delle obbligazioni e possiede pregi innegabili. Si tratta infatti di una misura di sintesi che
tiene integralmente conto delle componenti di reddito rilevanti e che utilizza tutte le informazioni
disponibili sul profilo finanziario dell‟investimento fino alla sua naturale scadenza.
Introduciamo qui il concetto di rischio di volatilità di un‟obbligazione. La volatilità è misurata dalla
variazione istantanea in termini relativi del prezzo tel quel originata da una variazione inattesa del
rendimento a scadenza. Il prezzo di un‟obbligazione è inversamente proporzionale al suo
rendimento: se il rendimento cresce, il prezzo dell‟obbligazione diminuisce mentre se i rendimenti
diminuiscono il prezzo dell‟obbligazione aumenta. Ciò può essere dimostrato esaminando
l‟Equazione 1. Se, ad esempio, un‟obbligazione ha un prezzo attuale di 100 e paga un tasso annuale
del 5% per due anni, il prezzo dell‟obbligazione se i tassi di mercato sono del 5% è semplicemente
100. Se i tassi di mercato passeranno, ad esempio domani, al 6%, il prezzo dell‟obbligazione
scenderà a 98,17. Ciò è comprensibile intuitivamente: una nuova obbligazione emessa domani avrà
una cedola del 6%, che è più attraente per gli investitori e quindi l‟obbligazione esistente con cedola
al 5% dovrà essere scambiata a sconto per essere appetibile. Al contrario, se i tassi di mercato
scendono al 4%, il prezzo dell‟obbligazione crescerà a 101,80. Una nuova obbligazione biennale
emessa con tassi di mercato del 4% sarà meno attrattiva di un‟obbligazione al 5%, che sarà pertanto
scambiata ad un prezzo maggiore (Banks, 2006).
7 Il valore tel quel di un‟obbligazione è il prezzo di negoziazione di un titolo mobiliare compreso di valore capitale più
rateo di interesse o dividendo maturato.
29
Figura 2.2: Il rapporto tra prezzo e tasso di mercato di un’obbligazione
Pertanto, tutte le volte che si verifica un aumento dei tassi di interesse si avrà una diminuzione del
prezzo.
Figura 2.3: L’effetto de tasso di mercato sul prezzo di un’obbligazione
30
3. La Duration
È il momento di introdurre, per capire meglio quanto esposto, il concetto di duration, che è il
principale indicatore di rischio utilizzato nella gestione dei portafogli obbligazionari a tasso fisso.
L‟approccio più immediato all‟esame della duration è quello che vede in tale indicatore innanzitutto
una misura più accurata della vita media di una obbligazione, che tiene conto di tutte le prestazioni
attese del titolo e del relativo contributo alla determinazione del prezzo:
“Per come è definita, la duration si configura come un „baricentro finanziario‟, ovvero rappresenta
una media degli istanti di liquidazione dei flussi monetari, ponderata dal valore attuale dei flussi
stessi” (Giudici, 2008). Nella pratica la duration viene spesso calcolata dagli intermediari finanziari
come vita media ponderata dei flussi futuri attualizzati al rendimento effettivo del titolo (si parla in
questi casi di modified duration o duration di Macaulay):
La duration di un titolo gode di importanti proprietà tra cui quella di essere correlata alla volatilità ζ
di un‟obbligazione, cioè alla variazione percentuale (ΔP/P) del prezzo tel quel dell‟obbligazione
causata da una variazione unitaria dei tassi di mercato e quindi è correlata al rischio di tasso. Come
detto in precedenza tale variazione è negativa nel caso di incremento del tasso e viceversa, e può
essere stimata dalla relazione:
dove Δr rappresenta la variazione subita dai tassi di mercato alle diverse scadenze della struttura per
scadenza, della quale vogliamo determinare l‟effetto sul prezzo dell‟obbligazione.
31
La stima che si ottiene è lineare ed è in realtà distorta in eccesso per via del fenomeno della
“convexity”, ovvero della relazione non lineare tra prezzo e rendimento di un‟obbligazione, come
appare chiaro dalla figura sottostante.
Figura 2.4: La convexity
Per questo motivo, la duration sottostima il valore di un‟obbligazione: essa sottostima l‟aumento
del prezzo del titolo quando i rendimenti diminuiscono e sovrastima il declino dei prezzi quando i
rendimenti aumentano, come in figura, che mostra l‟errore della duration dovuto alla convessità.
Per piccoli cambiamenti di prezzo la differenza è minima mentre per cambiamente di dimensioni
maggiori l‟errore aumenta drasticamente.
In sintesi, il rendimento effettivo e la duration contraddistinguono la quotazione di mercato di
un‟obbligazione. Il primo rappresenta la remunerazione media riconosciuta dal mercato sui flussi
monetari, la seconda rappresenta la vita media ponderata dei flussi stessi ed è proporzionale alla
volatilità del prezzo del titolo (Giudici, 2008).
Misura del rischio di tasso di interesse con e senza duration
Cerchiamo di chiarire quanto fin qui detto con l‟ausilio di un esempio.
Supponiamo di avere un‟obbligazione con scadenza 15/9/2013 con cedole semestrali. Si supponga
che la data in cui calcoliamo i rendimenti ed i prezzi sia quella del 15 settembre 2010 e che si voglia
32
misurare l‟impatto potenziale sul prezzo dell‟obbligazione di un cambiamento dell‟1% del tasso di
interesse.
15.9.2013
Prezzo 103,74
Interessi maturati 0
Tasso di interesse nominale (su base
annuale)
3,50
Tasso di rendimento a scadenza 2,20
Tavola 2.1: Calcolo del prezzo di un’obbligazione
Possiamo stimare il nuovo prezzo dopo il cambiamento del tasso di interesse scontando tutti i cash
flow con il nuovo yield to maturity, come mostrato nella figura sottostante:
15.9.2013
Prezzo al tempo 0 103,74
Interessi maturati 0
Prezzo tel quel al tempo 0 (prima del
cambiamento del tasso di interesse)
103,74
TRES (t0) 2,20
TRES (t1) 3,20
Nuovo prezzo a t=1 (dopo del
cambiamento del tasso di interesse)
100,94
Tavola 2.2: Calcolo del prezzo di un’obbligazione dopo il cambiamento del tasso di interesse
33
Il nuovo prezzo dell‟obbligazione con scadenza 15/09/2013 risulta dal seguente calcolo:
Come abbiamo detto in precedenza, la duration rappresenta una misura di sensitività che consente
di calcolare la variazione del prezzo di un‟obbligazione al variare di un fattore di mercato (in questo
caso la crescita di 100 basis point del tasso di interesse). Moltiplicando la duration modificata per il
prezzo dell‟obbligazione otteniamo una stima della variazione del prezzo.
ΔP ≈ - P * MD * ΔMIR
Ad esempio con riferimento alla nostra obbligazione, si ottiene:
ΔP = - 103,74 * 2,81 * 1% = -2,915
Pertanto il nuovo prezzo dell‟obbligazione sarà:
100,82 = 103,74 – 2,915
La tabella seguente riepiloga i risultati ottenuti.
15.9.2013
Prezzo al tempo 0 103,74
Interessi maturati 0
Prezzo tel quel al tempo 0 (prima del cambiamento
del tasso di interesse) 103,74
Yield-to-maturity (t0) 2,20
Yield-to-maturity (t1) 3,20
Modified duration 2,81
Nuovo prezzo a t=1 (dopo del cambiamento
del tasso di interesse)
100,82
Tavola 2.3: Calcolo del prezzo di un’obbligazione con la duration
35,225,15,0 )032,01(
75,101
)032,01(
75,1
)032,01(
75,1
)032,01(
75,1
)032,01(
75,1
)032,01(
75,194,100
34
Si può notare come utilizzando la duration modificata ci sia una differenza nel risultato rispetto a
quanto stimato precedentemente (100,82 invece di 100,94). Ciò è dovuto al fatto che i cambiamenti
di prezzo, come detto in precedenza, non sono lineari ma seguono una funzione curvilinea.
Il beta come misura di sensitività di un’azione rispetto ad un
portafoglio azionario di riferimento
Rispetto alla valutazione dei rendimenti dei titoli a reddito fisso, i titoli azionari presentano
maggiori problemi, per le caratteristiche intrinseche dei titoli stessi. Tali difficoltà, legate alla stima
del rendimento, dipendono innanzitutto dall‟incertezza che domina l‟entità dei flussi di cassa futuri,
la loro distribuzione temporale e la scadenza dell‟investimento. I principali indicatori utilizzati dal
mercato (Sironi, 2006) sono:
a) Dividend Yeld;
b) Price/Earnings;
c) Price/ Cash Flow;
d) Book/Market Ratio.
Dividend Yield
Il Dividend Yield può essere paragonato al tasso di rendimento immediato utilizzato per le
obbligazioni, in quanto si basa sullo stesso concetto, ovvero rapportare il rendimento periodico con
il costo dell‟investimento. Si ottiene dal rapporto del dividendo unitario con il prezzo dell‟azione
(dividendo/prezzo). I pregi di questo indicatore sono legati principalmente alla facilità di
interpretazione dei dati ed al fatto che ragiona in termini di flussi di cassa. Il Dividend Yield però
trascura completamente la componente legata ai capital gain/loss: quando scende la quotazione si
ha una perdita in linea capitale ma se l‟azione continua a produrre dividendi l‟indicatore aumenta.
Inoltre trascura la tendenza della società a mantenere stabili i dividendi e non tiene conto dello
sfasamento temporale dei due dati.
35
Price/Earning (Prezzo/Utile) e Price/Cash Flow (Prezzo/Utile + Ammortamenti)
Il Price/Earning è un indicatore molto utilizzato, specialmente dagli operatori ed è facilmente
interpretabile. Quando questo rapporto è molto elevato si possono trarre due conclusioni: il
rendimento dell‟azienda è molto basso o il titolo è sopravvalutato; viceversa, un basso valore del
rapporto implica un alto rendimento o una sottovalutazione del titolo. I limiti principali di questo
modello sono:
confronta un dato contabile (utile) con un dato di mercato (prezzo);
vi sono spesso forti differenze tra settori produttivi e tra i diversi paesi;
esiste uno sfasamento temporale tra il dato del prezzo e quello dell‟utile.
Una variante di questo indice prevede l‟utilizzo al denominatore del rapporto dell‟utile per azione
maggiorato degli ammortamenti, questo indicatore prende il nome di Price/Cash Flow. Il principale
pregio rispetto al Price/Earning consiste nel tentativo di adottare una logica per flussi di cassa;
rimangono però inalterati i limiti del modello originale.
Book/Market Ratio (Valore di libro/Valore di mercato)
Il Book/Market Ratio non è propriamente un indicatore di rendimento; viene utilizzato per capire se
un titolo è sopravvalutato (valore indice basso) o sottovalutato (valore indice alto). L‟indice si
ottiene rapportando il patrimonio contabile (valore di libro) con la capitalizzazione di mercato. Il
limite fondamentale di questo indicatore consiste nell‟attribuire ai dati contabili funzioni di
valutazione del valore economico di una società.
Rischio e rendimento
Come abbiamo visto a proposito della duration modificata, gli indicatori di sensitività forniscono
una misura di quanto varia una variabile obiettivo (come il valore di mercato di uno strumento
finanziario) a seguito di una variazione di uno dei parametri sottostanti la generazione di tale
variazione (come, nel caso dei titoli obbligazionari, i tassi di interesse). Nel caso dei titoli azionari,
36
un indicatore di sensitività molto utilizzato è il beta, che misura la variazione relativa nel valore di
un‟azione al variare dell‟indice di mercato (Lusignani, 2004). Dal momento che ci accingiamo a
passare all‟analisi del beta di titoli azionari sono necessari alcuni richiami tratti dalla moderna teoria
di portafoglio elaborata da Markowitz nel 19528. Come è noto, detta teoria mette in relazione il
rendimento ed il rischio dei titoli. Per quanto riguarda il rischio, nell‟introduzione avevamo già
affermato come la deviazione standard rappresenti una sua buona misura.
Consideriamo infatti la seguente tavola tratta da Banks (2008) che illustra i calcoli necessari per
ottenere la deviazione standard del progetto 1 (a rischio basso) e del progetto 2 (a rischio elevato).
Actual
Expected
(Actual –
Expected)
(Actual –
Expected)2
Probability
(Actual -
Expected)2
* Probability
35 40 -5 25 10% 2.5
38 40 -2 4 70% 2.8
41 40 1 1 20% .2
Sum = 4.5
std dev = √4.5 = 2.12
Progetto 1
Actual
Expected
(Actual –
Expected)
(Actual –
Expected)2
Probability
(Actual –
Expected)2
* Probability
30 40 -10 100 20% 20
48 40 8 64 50% 32
45 40 5 25 30% 7.5
Sum = 59.5
std dev = √59.5 = 7.71
Progetto 2
Tavola 2.4: Valutazione di due progetti
Il progetto 2, con una deviazione standard di 7,71 è perciò più rischioso del progetto 1 che ha una
deviazione standard di solo 2,12. Tutto ciò da informazioni molto utili ai risk manager che
considerano progetti, investimenti o titoli rischiosi.
Per quanto riguarda il rendimento, possiamo notare che esso è spesso misurato come una
percentuale del capitale investito o allocato in un progetto o più in generale in un asset. Ad esempio
un rendimento del 10 per cento significa che un‟azienda riceverà un ritorno del 10 per cento
8 Nelle prossime pagine seguiremo delle linee argomentative tratte dal libro di Banks (2008), che ci è sembrato molto
chiaro e sufficientemente rigoroso.
37
sull‟ammontare investito mentre un rendimento del venti per cento significa che riceverà un ritorno
del 20 per cento. Il rendimento è spesso calcolato utilizzando un certo orizzonte temporale per
assicurare la comparabilità dei diversi progetti, asset, azioni.
Possiamo a questo punto analizzare la relazione tra rischio e rendimento. La figura seguente mette
insieme questi concetti.
Figura 2.5: La relazione tra rischio e rendimento
Il rendimento come una percentuale del capitale investito è posto sull‟asse delle y mentre il rischio
inteso come deviazione standard dei rendimenti è misurato sull‟asse delle x. La figura precedente
suggerisce che gli investimenti meno rischiosi producono un rendimento più basso, laddove i
progetti o gli investimenti con maggiori rischi producono rendimenti più elevati. Tutto ciò è
consistente con il trade-off che esiste tra rischio e rendimento. Potrebbe essere utile esaminare la
relazione tra rendimenti attesi e rischio nel tempo, per illustrare come due differenti
progetti/investimenti che producono lo stesso rendimento atteso potrebbero in realtà esporre
un‟azienda/un investitore a rischi molto differenti. Questo profilo è illustrato nella figura 2.6:
Return (%)
Low risk High risk
Low return
High return
38
Figura 2.6: I profili di rischio di diversi investimenti
Mentre i progetti 1 e 2 hanno lo stesso risultato medio atteso, la deviazione standard dei rendimenti
varia in maniera significativa: il progetto/investimento 2 espone l‟azienda/investitore a un rischio
molto più elevato dal momento che il rendimento effettivo potrebbe essere molto più alto o molto
più basso di quello atteso. In altre parole c‟è una piccola possibilità che il progetto 2 conseguirà il
risultato atteso e una più grande possibilità che conseguirà un rendimento che può essere sia molto
più grande che molto più piccolo. La possibilità per l‟azienda o per l‟investitore di stimare il
risultato effettivo del progetto/investimento 2 è più bassa che nel caso del progetto/investimento 1
che è caratterizzato da una dispersione di rendimenti che è molto più vicina alla media. Un risk
manager che deve prendere una decisione di investimento selezionerà logicamente il progetto 1:
entrambi producono lo stesso rendimento ma il progetto/investimento 1 ottiene questo risultato con
una minore incertezza. Soltanto se il rendimento atteso dell‟investimento 2 fosse più alto il risk
manager potrebbe considerare l‟opportunità di investire nel progetto 2 anziché nel progetto 1.
Possiamo esaminare la possibilità che il rendimento di un progetto/investimento approssimi il
rendimento atteso utilizzando la distribuzione normale, cioè la familiare curva a campana, che
rappresenta la distribuzione di tutti i possibili risultati delle osservazioni in una popolazione.
Expected
Return (%)
Time
Project 1: low risk
Project 2: high risk
Average expected
return
39
Figura 2.7: La distribuzione dei rendimenti di diversi progetti
Data la forma della curva ci aspettiamo che la maggioranza delle osservazioni si addensino intorno
alla media e che un numero meno elevato sia invece superiore o inferiore alla media: questo
significa che la media ha la più alta probabilità di accadimento. La figura precedente illustra i
progetti 1 e 2 in termini di distribuzione statistica. Il progetto 2 è caratterizzato da una dispersione
più ampia dalla media ed è perciò più rischioso del progetto 1. È importante notare che alcuni
progetti o investimenti non seguono affatto l‟andamento di una distribuzione normale. In questi casi
essi sono meglio descritti da distribuzioni che presentano skeweness e curtosi9 più o meno elevate.
Abbiamo notato che il rapporto rischio/rendimento deve essere bilanciato, cioè che un progetto
rischioso deve produrre sempre un rendimento maggiore rispetto ad uno meno rischioso affichè il
capitale venga allocato in modo efficiente. Per misurare la relativa appetibilità dei differenti
progetti/investimenti possiamo utilizzare la distribuzione di probabilità e il concetto di valore atteso.
Il valore atteso che un‟azienda/investitore può aspettarsi di ricevere da un progetto/investimento è
il prodotto del rendimento stimato per la probabilità che il rendimento sia raggiunto. Consideriamo
gli investimenti ipotetici evidenziati nella seguente tavola.
9 Per i concetti di skeweness e curtosi rimandiamo a Piazza (2006).
Project 1: low risk
Project 2: high risk
Probability
Expected return (%) Average
40
Investment Estimated return (%) Probability (%) Expected value (%)
1 – low risk 5% 100% 5%
2 – middle risk 7% 80% 5.6%
3- high risk 9% 70% 6.3%
Tavola 2.5: Profilo di tre investimenti (caso base)
Considerando questa combinazione un‟azienda/investitore può selezionare l‟investimento 1 che
aggiustato per il rischio presenta un valore atteso del 5 per cento. Dato che la probabilità del valore
atteso è del 100 per cento, l‟investimento è sostanzialmente privo di rischio. Se l‟azienda/investitore
vuole prendere più rischio può scegliere l‟investimento 3, che offre un rendimento maggiore (9 per
cento) ma che è soggetto a maggiore incertezza (cioè la possibilità che nel trenta per cento dei casi
tale rendimento non sarà realizzato). Questo è chiaramente un investimento rischioso. Il valore
atteso dell‟investimento 3 è più grande del valore atteso dell‟investimento 1, e ciò significa che il
trade-off rischio/rendimento è consistente con la relazione illustrata nella figura 1. L‟investimento
2, che è anch‟esso rischioso, considera un‟opportunità intermedia: rischio e rendimento più elevati
dell‟investimento 1 ma inferiori rispetto all‟investimento 3.
Vogliamo ora analizzare uno scenario in cui rischio e rendimento non sono bilanciati: consideriamo
l‟ipotesi che il rischio sull‟investimento 3 sia più alto che in precedenza, ipotizzando per esempio
una probabilità di ottenere il risultato di solo il 50 per cento. I risultati della tavola seguente
mostrano come il profilo rischio/rendimento non è più bilanciato, infatti un‟azienda/investitore può
investire nell‟investimento 1 risk free ottenendo un valore atteso del 5 per cento o investire
nell‟investimento 3 più rischioso e generare un valore atteso del 4,5 per cento. Chiaramente
l‟investimento 3 è sub-ottimale.
Investment Estimated return (%) Probability (%) Expected value (%)
1 – low risk 5% 100% 5%
2 – middle risk 7% 80% 5.6%
3- high risk 9% 50% 4.5%
Tavola 2.6: Profilo rischio/rendimento sbilanciato
Questo esempio assai semplice ci consente di capire qualcosa sul comportamento dell‟investitore
razionale. Per prima cosa un‟investitore razionale sarà disposto a pagare di più quando l‟incertezza
41
associata ad un futuro evento è più elevata. Se un investitore ha l‟opportunità di investire in un
progetto che consente elevati cash flow ma relativamente incerti (siamo in presenza di un‟alta
deviazione standard) dovrà essere sicuro che il rendimento di tale investimento sia sufficientemente
elevato da compensare l‟incertezza. Inoltre, quando un investitore deve decidere tra due o più
investimenti alternativi che producono il medesimo rendimento, sceglierà quello con il rischio più
basso10
. Alternativamente se due progetti hanno lo stesso rischio, un investitore avverso al rischio
sceglierà quello con il rendimento più elevato. Un‟adeguata gestione delle risorse finanziarie
richiede pertanto un‟attenzione rigorosa su entrambi gli aspetti di rischio e rendimento.
La diversificazione del rischio
Di solito un‟azienda/investitore investe simultaneamente in molteplici progetti/investimenti.
Un‟importante step del processo valutativo in finanza è teso alla comprensione di come ogni
singolo progetto/investimento interagisca con gli altri. Tale valutazione può condurre alla creazione
di un portafoglio propriamente diversificato di progetti/investimenti. Valutare questa relazione è
critico poiché in alcuni casi quando due o più progetti/investimenti sono combinati insieme il
rischio complessivo può crescere mentre in altri casi si assiste ad una riduzione dello stesso.
Cominciamo con il notare che i rischi possono essere classificati come diversificabili (siamo in
presenza di un rischio idiosincratico/specifico) o non diversificabili (siamo in presenza di un rischio
sistematico/non specifico). Un rischio diversificabile è un rischio peculiare di un determinato
progetto/investimento e dunque può essere modificato aggiungendo altri progetti/investimenti.
Creando il giusto mix di progetti/investimenti, il rischio complessivo del portafoglio
dell‟azienda/investitore si può ridurre, senza necessariamente ridurre il rendimento atteso
complessivo. Questa è una proposizione chiave della teoria della finanza. Un rischio non
diversificabile, invece, è quello comune a tutti i progetti/investimenti e che quindi non può essere
ridotto con la diversificazione. Progetti/investimenti che non sono correlati o che sono correlati
negativamente possono aiutare a far crescere i rendimenti e/o a diminuire il rischio. Questo accade
perché quando un progetto/investimento ha determinati risultati, l‟altro può sia rimanere neutrale
(non correlato) sia performare nella direzione opposta (correlato negativamente). Queste relazioni
possono essere misurate attraverso il coefficiente di correlazione, che è una misura statistica
ottenuta utilizzando le covarianze e le deviazioni standard delle variabili a e b (dove a e b sono
specifici progetti/investimenti).
10
Ipotizziamo in questo caso un investitore avverso la rischio.
42
“Il coefficiente di correlazione è una misura statistica che assume valori compresi tra -1 e +1. Nel
caso in cui i rendimenti previsti non presentino alcuna correlazione, il coefficiente assumerà un
valore nullo; assumerà invece un valore vicino a +1 nel caso in cui i rendimenti previsti si muovano
nella stessa direzione e con la medesima intensità. Infine il coefficiente di correlazione assumerà un
valore molto vicino a -1 nel caso in cui i movimenti nei rendimenti previsti, pur essendo di
proporzioni simili, avvengano in direzioni opposte” (Lusignani, 2004).
Consideriamo ad esempio un rischio diversificabile: se un‟azienda/investitore investe in un progetto
che diventa più rischioso se i tassi di interesse crescono ed in un altro che diventa meno rischioso
sotto lo stesso scenario (ipotesi di correlazione negativa), la combinazione dei due produce un
portafoglio che è indifferente ai movimenti dei tassi di interesse. Eliminando il rischio possono
essere raggiunti rendimenti più stabili. Al contrario, se entrambi reagiscono nella stessa maniera
(ipotesi di correlazione positiva) allora l‟azienda genererà sia un importante rendimento che una
possibile maggiore perdita, implicando un più ampio grado di variabilità. Il concetto di
diversificazione gioca un importante ruolo nella stima del rendimento sia a livello aziendale
(azienda che investe in vari progetti) sia nella gestione degli investimenti, nelle assicurazioni e
nell‟hedging. Come si può facilmente intuire un rischio non diversificabile è un fattore che
influenza tutti i progetti/investimenti nella stessa maniera e che pertanto non può essere ridotto o
eliminato aggiungendo ulteriori progetti/investimenti. Se tutti i progetti/investimenti sono
negativamente influenzati dal fatto che l‟economia è entrata in recessione, non può essere aggiunto
nessun nuovo progetto/investimento per ridurre il rischio complessivo del portafoglio
progetti/investimenti dell‟azienda/investitore. Possiamo riassumere la teoria della diversificazione
notando che quanto più sono aggiunti progetti/investimenti ad un portafoglio di
un‟azienda/investitore che sono o non correlati o negativamente correlati, il rischio diversificabile
diminuisce. Il rischio non diversificabile invece rimane costante come evidenziato nella figura
seguente.
43
Figura 2.8: Rischio diversificabile e non diversificabile
Una logica ed importante estensione del concetto di diversificazione è rappresentata dal Capital
Asset Pricing Model (CAPM). Il CAPM è una teoria che pone in relazione il rischio non
diversificabile con il rendimento di un titolo, progetto, investimento (anche se il CAPM è usato
principalmente per azioni e titoli). Il CAPM divide il rischio nelle sue componenti (diversificabile e
non) ed assume l‟esistenza di una relazione tra un asset specifico ed il rendimento di mercato (per il
calcolo di quest‟ultimo, il CAPM utilizza gli indici di mercato). Il modello calcola il grado di
rischio di una posizione azionaria determinando quanto i rendimenti della stessa siano sensibili ai
rendimenti di mercato (indice di mercato).
La formulazione del CAPM più nota è la seguente:
con il parametro beta (βi) definito come:
Un beta superiore a 1 significa che l‟azione è più rischiosa del mercato, laddove un beta inferiore ad
1 corrisponde ad un rischio inferiore a quello del mercato. Così se l‟azione A ha un beta di 1,2, ci
dovremo aspettare che cresca o diminuisca di un venti per cento in più del mercato; se ha invece un
beta di 0,8 ci aspettiamo che crescerà o diminuirà di un valore pari all‟80 per cento dei movimenti
di mercato. Il beta può perciò essere visto come una misura del rischio non diversificabile associato
Portfolio risk (σ)
Diversifiable risk
Non-diversifiable
risk
# of projects/investments
44
al rendimento di un‟azione in relazione al rendimento dell‟indice di mercato. La figura seguente
illustra due azioni rispettivamente con alto e basso beta (Banks, 2008).
Figura 2.9: Il beta ed il livello di rischio
Come per le obbligazioni, vogliamo chiarire quanto detto precedentemente con un esempio
concreto.Ipotizziamo che una banca abbia una posizione in azioni Procter & Gambles. Per stimare il
rischio di variazioni del prezzo dell‟azione l‟approccio più seguito è quello di stimare la relazione
tra il valore dell‟azione e quello del suo indice di mercato. In questo modo possiamo separare il
rischio sistematico, che deriva dall‟investimento in azioni in generale, da quello specifico, che
deriva dalle caratteristiche idiosincratiche dell‟azienda in esame. La figura sottostante evidenzia
l‟andamento del titolo P&G rispetto a quello dell‟indice azionario S&P 500 e S&P Consumer.
Stock return
(%)
Market return
(%)
Steep slope,
high beta =
stock riskier
than market
Gradual slope,
low beta = stock
less risky than
market
45
Figura 2.10: Gli andamenti del titolo P&G, dell’indice azionario S&P500 e S&P Consumer tra il maggio 1999 ed
il maggio 2004
La linea bianca mostra i rendimenti dell‟azione P&G, la linea rossa quelli dello S&P Consumer e
quella verde mostra i rendimenti dello S&P 500. Dal grafico risulta una non perfetta correlazione tra
l‟azione e gli indici, che è dovuta, secondo il CAPM, sia a una componente sistematica sia a una
componente idiosincratica. Se si fa una regressione tra un certo numero di osservazioni relative
all‟andamento dell‟azione P&G e l‟indice di mercato S&P 500, si ottiene un coefficiente (nel caso
concreto di 0,32) che da un‟idea approssimata del beta. Un beta di 0,32 significa che l‟azione si
“muove” meno di quanto faccia il mercato (beta pari ad 1) e che pertanto è meno rischiosa (Gabbi,
2010).
Figura 2.11: Regressione lineare tra i rendimenti dell’indice S&P500 ed il titolo P&P tra il maggio 1999 ed il
maggio 2004
46
Ipotizziamo ad esempio di aver comprato un‟azione P&G il 1° aprile 2010 per un prezzo pari a
63,36 USD. Supponiamo che al 31 di agosto 2010 il prezzo sia pari a 59,66 USD, evidenziando una
perdita del 5,82%.
Figura 2.12: La perdita effettiva
Avremmo potuto approssimare tale perdita utilizzando il beta: supponendo infatti che il mercato
nello stesso periodo abbia perso il 12%, la perdita attesa di P&G nello stesso periodo sarebbe stata
pari a -3,84% ( perdita di mercato * beta).
Figura 2.13: La perdita attesa
Ricapitolando quanto abbiamo detto possiamo affermare che il problema della misurazione dei
rischi di mercato viene spesso identificato nella pratica nell‟individuazione di misure in grado di
cogliere la reazione del valore di una singola posizione al variare delle condizioni di mercato. I due
esempi su cui ci siamo soffermati sono quelli della duration, per quanto concerne i titoli
obbligazionari, ed il beta per i titoli azionari.
47
3 - IL VALUE AT RISK
INTRODUZIONE
L‟utilizzo di misure di sensitività presenta però alcuni limiti. In primo luogo “presentano lo
svantaggio di non consentire confronti tra posizioni aventi natura differente. Si consideri il caso di
una banca all‟interno della cui unità di trading convivono un trader sull‟azionario che ha un
portafoglio titoli pari a 100 milioni con beta pari a 1,1, un trader sull‟obbligazionario che ha un
portafoglio pari a 150 milioni con duration pari a 6 ed un trader su cambi che ha acquistato 60
milioni di dollari. Sulla base di questi dati, non è possibile per la banca nè effettuare un confronto
tra le diverse posizioni per comprendere quale implichi un rischio più elevato per i propri azionisti
nè valutare quale sia il rischio complessivo delle tre posizioni combinate” (Saita, 2000).
Secondariamente l‟utilizzo di misure di sensitività non risolve il problema della mancata
considerazione del diverso grado di volatilità (ma anche di correlazione) dei diversi fattori di
mercato.
“Intuitivamente, detenere un titolo obbligazionario a tasso fisso caratterizzato da una certa duration
comporta un rischio assai diverso a seconda del fatto che la fase di mercato che si sta attraversando
sia di relativa stabilità del livello dei tassi oppure, al contrario, di estrema turbolenza. Come
conseguenza, le misure di sensitività quali il beta o la duration risultano inadatte, se utilizzate da
sole, a fornire un‟idea della possibile dispersione dei risultati di un investimento”. (Saita, 2000)
Il tentativo di superare i problemi sopra menzionati ha condotto alcune istituzioni finanziarie a
sviluppare dei modelli che consentissero di quantificare, confrontare e aggregare il rischio connesso
a posizioni e portafogli differenti. Tali modelli, originariamente introdotti nella prima metà degli
anni '80 dalle principali banche statunitensi e successivamente diffusi presso la maggioranza delle
istituzioni finanziarie dei paesi economicamente sviluppati, sono generalmente denominati modelli
del Valore a Rischio (VaR) dal nome della principale misura di rischio utilizzata.
“J. P. Morgan è stata una delle prime banche ad utilizzare un sistema di Value at Risk. Nella
relazione di bilancio del 1994 chiarì che il suo VaR giornaliero era in media pari a 15 milioni di
dollari, con un livello di confidenza del 95%. Prima che tali numeri fossero pubblicati, gli azionisti
avevano soltanto una vaga idea del rischio assunto dalla banca nello svolgimento delle sue attività
48
di trading. Grazie a questa informazione, gli azionisti potevano stabilire se erano sufficientemete
tranquilli nell‟accettare quel determinato livello di rischio” (Jorion, 2007). L'introduzione del VaR
nasce in risposta al seguente quesito, nell'ambito della valutazione del rischio di mercato: “qual'è la
perdita massima che potrebbe essere subita nel corso di un certo orizzonte temporale, tale che vi sia
una probabilità molto bassa, per esempio pari all'1%, che la perdita effettiva risulti superiore a tale
importo?” (Resti, Sironi, 2008). Da questa domanda si capisce come la definizione di valore a
rischio sia basata su tre elementi: la massima perdita potenziale che una posizione può subire, con
un certo livello di confidenza, in un determinato orizzonte temporale. Il VaR rappresenta quindi una
misura di tipo probabilistico e assume valori diversi in base al livello di confidenza scelto:
indicando con Pr(E) la probabilità dell'evento E, con c il livello di confidenza e con L la perdita
sull'orizzonte temporale prescelto, si ha che Pr (L > VaR)= 1- c. Tale valore può essere ricavato
analizzando una distribuzione di frequenza che tenti di rappresentare il valore di ogni posizione nel
futuro come quella utilizzata nella figura seguente.
ouR c
p
Figura 3.1: Il livello di confidenza
Si noti come la definizione di VaR ammetta la possibilità di perdite superiori al VaR stesso (con
probabilità pari a 1-c). “È chiaro che il VaR non è in grado di descrivere la forma che le perdite
assumono oltre il VaR stesso. Alcuni portafogli possono registrare perdite vicine al VaR ma altri
possono registrare perdite che superano di parecchie volte la misura del VaR” (Jorion, 2007). Il
VaR può essere calcolato per strumenti finanziari e portafogli differenti, rendendo confrontabili i
diversi rischi. Per questo motivo, come viene spiegato anche nella sezione sul capitale, esso è
utilizzato per tre esigenze fondamentali: confrontare le diverse alternative di impiego del capitale di
rischio di un'istituzione finanziaria, valutare la redditività del capitale allocato ed infine prezzare in
modo corretto le singole operazioni sulla base del relativo grado di rischio.
I modelli VaR si ripropongono di conseguire i seguenti tre obiettivi:
49
definire i fattori di rischio (per esempio cambi, tassi, azioni, materie prime) che possono
influenzare il valore del portafoglio della banca;
costruire la distribuzione di probabilità dei possibili valori futuri del portafoglio della banca
associati a ciascuno dei possibili valori assunti dai fattori di rischio;
sintetizzare la distribuzione di probabilità dei possibili valori futuri del portafoglio della
banca in una o più misure di rischio e rendere comprensibile al top management la misura di
rischio prescelta.
All'interno di questa famiglia di ipotesi di lavoro, metodologie di calcolo e misure di rischio,
l'approccio più facile e tradizionalmente più diffuso è il cosiddetto approccio varianze/covarianze.
Esso si caratterizza per i seguenti elementi:
ipotizza che le possibili variazioni di valore di tutti i fattori di mercato (o alternativamente
dei rendimenti sugli attivi in portafoglio) seguano una distribuzione normale;
l'informazione sui possibili valori futuri dei fattori di mercato e sulle loro correlazioni è
interamente riassunta in una matrice di varianze/covarianze;
le possibili perdite sul portafoglio della banca dipendono quindi da tale matrice e dalla
sensibilità delle singole posizioni in portafoglio rispetto a variazioni dei fattori di mercato;
il VaR è ricavato velocemente come un multiplo della deviazione standard delle perdite
future.
L'approccio varianze/covarianze è indubbiamente il più diffuso nell'ambito dei sistemi di Risk
Management, se non altro per il fatto che a tale impostazione metodologia si ispira la banca dati
Risk Metrics, cui numerose istituzioni finanziarie si appoggiano per lo sviluppo del proprio modello
interno.
Un altro approccio molto popolare si basa su tecniche di simulazione. Esso si distingue
dall'approccio varianze/covarianze perchè:
le possibili variazioni di valore dei fattori di mercato non si distribuiscono necessariamente
secondo una normale;
l'impatto dei possibili valori futuri dei fattori di mercato della banca è quantificato attraverso
la full valuation, cioè il ricalcolo del valore di ogni attività o passività come funzione delle
nuove condizioni di mercato. Non si fa dunque ricorso a coefficienti di sensibilità lineari, ma
piuttosto si rivalutano, utilizzando gli appropriati modelli di pricing, tutte le posizioni in
50
portafoglio della banca. Si tratta di un approccio più preciso ma che richiede anche un
ammontare di calcoli maggiormente oneroso;
il VaR non può essere calcolato semplicemente come multiplo della deviazione standard, ma
va ricercato analizzando l‟intera distribuzione delle perdite future e individuandone il valore
massimo, dopo aver escluso una percentuale di casi pari a 1-c, partendo dai peggiori.
51
APPROCCIO PARAMETRICO O VARIANZE-
COVARIANZE
Tra i possibili approcci alla misurazione dei rischi di mercato, l‟approccio varianze/covarianze,
detto anche approccio parametrico11
, è indubbiamente quello più diffuso presso le istituzioni
finanziarie. La letteratura12
riconosce alcuni motivi diversi e tra loro collegati per tale diffusione:
1. anzitutto esso presenta, rispetto ad esempio agli altri approcci di misurazione, un vantaggio
fondamentale: quello della semplicità. Tale semplicità riguarda non tanto il profilo
concettuale, quanto l‟onerosità dei calcoli e dunque dei sistemi informativi di supporto;
2. tale approccio rappresenta la versione originale dei modelli VaR, ossia quella sviluppata per
prima;
3. la scelta dell‟approccio varianze/covarianze risulta favorita dalla presenza di una banca dati
(RiskMetrics, originariamente sviluppato dalla banca statunitense J.P. Morgan) che si basa
sull‟approccio in esame ed è utilizzata da un‟ingente mole di prodotti sviluppati dalla
software industry.
A fronte di tali vantaggi, l‟approccio varianze/covarianze presenta diversi svantaggi, principalmente
legati come si vedrà a due ipotesi di natura teorica che stanno alla base dell‟intera metodologia. Tali
ipotesi riguardano in particolare due aspetti:
1. la distribuzione dei rendimenti dei fattori di mercato;
2. la sensibilità delle posizioni in portafoglio al variare dei valori di mercato.
La derivazione del VaR nell’ipotesi di distribuzione normale dei
rendimenti
In prima battuta il VaR di una posizione può essere ottenuto come prodotto di tre elementi (Sironi,
2010):
1. il valore di mercato della stessa (VM);
11
“This approach is called parametric because it involves estimation of parameters, such as the standard deviation,
instead of just reading the quantile of the empirical distribution” (Jorion, 2007). 12
Resti, Sironi (2008), Jorion (2007), (Saita, 2000), (Hull, 2008), (Crouhy, et al., 2006).
52
2. un fattore scalare “s” che consente, data l‟ipotesi di distribuzione normale dei rendimenti del
fattore di mercato, di ottenere una misura di rischio corrispondente al livello di confidenza
desiderato;
3. la volatilità stimata dei rendimenti di tale fattore di mercato ζ.
VaR = VM * ζ * s
Si noti che il prodotto dei termini “s” e ζ rappresenta una potenziale variazione sfavorevole del
fattore di mercato ottenuta facendo riferimento ad un certo percentile della distribuzione di rt
(rendimenti).
Per dimostrare quanto appena detto, si consideri una tavola simile a quella seguente che riporta i
rendimenti logaritmici giornalieri di un indice di borsa, relativi ad un periodo di 100 giorni (Resti,
Sironi, 2008).
Date Rt
01/06/98 0,010%
02/06/98 0,210%
03/06/98 -0,960%
……………. …………..
……………. …………..
……………. …………..
……………. …………..
09/10/98 2,570%
12/10/98 1,340%
13/10/98 -0,290%
14/10/98 1,070%
15/10/98 4,090%
16/10/98 0,850%
Mean -0,03%
Standard deviation 1,65%
Max 4,09%
Min -7,04%
Tavola 3.1: Rendimenti logaritmici giornalieri di un indice di borsa
In simboli, i rendimenti sono calcolati come
(113
)
Dove St è il valore dell‟indice al giorno t.
13
Si noti che i rendimenti logaritmici rappresentano una buona approssimazione dei rendimenti percentuali.
11
ln
t
t
t
tt
S
S
S
SR
53
Sulla base di tali dati è possibile stimare la media e la deviazione standard di detti rendimenti, che
risultano rispettivamente pari a -0,03% ed 1,65%. La figura con il grafico ad istogrammi
rappresenta la distribuzione di probabilità dei rendimenti logaritmici riportati nella tabella
precedente.
Figura 3.2: Distribuzione di probabilità dei rendimenti logaritmici di un indice di borsa
Come si vede, non è irragionevole pensare che i dati in questione provengano da una distribuzione
normale: l‟approccio varianze/covarianze si fonda proprio su tale ipotesi.
La distribuzione normale
Ai fini del calcolo del VaR, la caratteristica rilevante della distribuzione normale è quella che la
probabilità di estrarre dalla distribuzione un valore compreso in un intervallo centrato sulla media e
di ampiezza pari ad un dato multiplo della deviazione standard è un valore che dipende solo dal
multiplo considerato e non dipende dalla singola media o deviazione standard della variabile
sottostante. “In altri termini, indicata con μ la media della distribuzione e con ζ la sua deviazione
standard, la possibilità di estrarre valori nell‟intervallo individuato da [μ-kζ,μ+kζ] dipende solo da
k e non dai parametri della distribuzione” (Saita, 2000).
Ma procediamo per gradi. La distribuzione normale è ampiamente utilizzata per descrivere
movimenti di variabili casuali e si caratterizza per due soli parametri: la media e la deviazione
-5
0
5
10
15
20
54
standard. La funzione di densità di probabilità14
di una variabile casuale x distribuita secondo una
normale è data da:
(1)
dove µ è la media e ζ è la deviazione standard. La probabilità che x assuma valori inferiori o uguali
ad una certa soglia u = µ+ασ è data dalla funzione di ripartizione (o funzione di densità cumulata)
della normale, calcolabile come l‟integrale tra -∞ e u:
(2)
Se anziché una generica variabile casuale x consideriamo i nostri rendimenti rt, la (2) si rivela utile
per calcolare la probabilità associata ad un determinato livello dei rendimenti. Ad esempio, per
avere la probabilità che rt sia inferiore ad 1,62% (ossia alla media µ = -0,03% + ζ) sarebbe
sufficiente calcolare:
N (u; µ,ζ) = N (1,62%; -0,03%, 1,65%)
ottenendo come risultato 84,12%15
. Vi è dunque una probabilità pari circa all‟84% che il valore r
non superi di oltre una deviazione standard la propria media. Simmetricamente è possibile
concludere che la variabile in esame si manterrà al di sopra di tale soglia nel restante 16% dei casi.
Se si fosse considerata una soglia maggiore, ad esempio data da µ + 2ζ (cioè +7,27%), la funzione
di ripartizione avrebbe assunto il valore di 97,72%. La probabilità che la variabile non superi di
oltre 2 deviazioni standard il proprio valore medio è dunque circa pari al 98%.
È possibile calcolare le probabilità associate ad una data soglia anche facendo ricorso alla
distribuzione normale standard (cioè quella particolare distribuzione caratterizzata da media nulla e
deviazione standard pari a 1) ed alla sua funzione di densità cumulata N (Zα;0,1) o semplicemente
N(Zα) dove Zα rappresenta un‟opportuna trasformazione di u. Si ha infatti che:
14
Per maggiori informazioni si veda (Alexander, 2008). 15
Ciò può essere fatto per esempio con il foglio di calcolo excel utilizzando la funzione DISTRIB.NORM(1,62%;-
0,03%;1,65%;1).
2
22
1exp
2
1
xxf
dxxedxxfxob2
2*
2
1
2
1Pr
ZF
uN
uNuN **1,0;;;
55
Per utilizzare la funzione di densità cumulata normale standard è dunque necessario sostituire u con:
(3)
mentre per “tradurre” un certo Zα nel corrispondente u, è sufficiente ricavare:
(4)
Nel primo esempio visto in precedenza si ha:
e si ottiene:
Nel secondo esempio visto in precedenza si ha:
e si ottiene:
Utilizzare la funzione di ripartizione normale standard è vantaggioso perché, come detto all‟inizio
del paragrafo, essa non dipende più da µ e ζ ma da α. È dunque possibile stabilire una
corrispondenza biunivoca tra diversi valori di Zα ed i corrispondenti livelli della probabilità, che
resta valida indipendentemente dai valori assunti dalla media e dalla deviazione standard della
variabile considerata. Un esempio è dato dalla tabella sottostante.
2
%65,1
%03,0%27,3
Z
1
%65,1
%03,0%62,1
Z
56
Livello di confidenza
*R
99,99% 3,719
99,98% 3,500
99,97% 3,432
99,87% 3,000
99,90% 3,090
99,50% 2,576
99,38% 2,500
99,00% 2,326
98,00% 2,054
97,72% 2,000
97,50% 1,960
97,00% 1,881
96,00% 1,751
95,00% 1,645
93,32% 1,500
84,13% 1,000
Figura 3.3: Relazione tra il livello di confidenza ed il coefficiente α
Fonte (Piazza, 2006)
Si noti che per brevità la probabilità associata a valori della normale standard inferiori o uguali a Zα,
cioè N(Zα ), viene spesso indicata semplicemente con α. La tabella ci dice che se la distribuzione
degli Rt è normale, la probabilità di ottenere un rendimento inferiore alla media aumentata di 3 volte
la deviazione standard è pari al 99,87%; di conseguenza la probabilità di ottenere un rendimento
superiore a tale soglia è circa pari allo 0,13%. Inoltre, poiché la distribuzione normale è simmetrica
e centrata sulla media, anche la probabilità di ottenere rendimenti inferiori alla media meno 3 volte
la deviazione standard sarà sempre pari allo 0,13%. Se la finalità è quella di determinare le perdite
potenziali e dunque il Valore a Rischio, ogni posizione è di fatto esposta solo a metà degli eventi
racchiusi nella sua distribuzione di probabilità: infatti le posizioni lunghe sono esposte unicamente
al rischio di rendimenti inferiori a quelli attesi (metà sinistra della distribuzione) mentre le posizioni
corte sono esposte unicamente al rischio di rendimenti superiori a quelli attesi (metà destra della
distribuzione). Di conseguenza, se la nostra banca detiene una posizione lunga in azioni dell‟indice
Mib30, sceglieremo il valore di Zα in modo tale da isolare una certa coda sinistra della
distribuzione.
57
Figura 3.4: Il VaR di un indice azionario
Fonte: Zazzara (2005)
Se, ad esempio, vogliamo isolare α = 5% dei rendimenti più bassi, sceglieremo Zα uguale a -1,6516
.
Partendo da esso utilizzeremo quindi la (4) per ricavare il valore soglia:
tale che rt potrà essere inferiore a tale soglia solo nel 5% dei casi. Si tratta dunque della massima
perdita probabile, in un arco di tempo pari ad un giorno (gli rt sono infatti rendimenti giornalieri),
con un livello di confidenza 1-α del 95%. In altri termini si tratta del VaR al 95% della nostra
posizione lunga in azioni. Tale VaR è stato espresso in termini di perdita percentuale: per conoscere
la perdita assoluta sarebbe sufficiente moltiplicarlo per il valore di mercato (VM) del portafoglio di
azioni del Mib30 posseduto dalla banca. L‟approccio varianze/covarianze viene sovente utilizzato
ipotizzando che i rendimenti dei fattori di mercato abbiano media nulla. Tale ipotesi semplificativa
è accettabile visto che l‟attività di negoziazione ha in genere un orizzonte temporale di breve
termine; in effetti con riferimento ad orizzonti temporali giornalieri, studi empirici dimostrano che
16
Infatti, dalla tabella dei livelli di probabilità si nota che la N(1,65) è uguale a 95%; dalla simmetria della normale
segue che N(-1,65) è uguale al 5%.
58
la migliore previsione del rendimento futuro non è il rendimento medio storico ma un valore nullo.
Con ciò siamo ritornati alla formula che avevamo utilizzato all‟inizio del capitolo e cioè:
Il procedimento fin qui illustrato ha chiarito le modalità per la stima del VaR in un caso
estremamente semplificato. Ciononostante, l‟esempio mette in luce alcune delle problematiche
chiave che è necessario affrontare ora in maggior dettaglio. Tra queste occorre considerare
l‟individuazione della variabile aleatoria/fattore di rischio di partenza, la scelta del livello di
confidenza e la scelta dell‟orizzonte temporale di riferimento.
La scelta della variabile aleatoria di partenza
La scelta della variabile aleatoria (o fattore di rischio) da cui far dipendere le variazioni del valore
di mercato della posizione rappresenta la prima scelta chiave per qualsiasi modalità di
determinazione del VaR per i rischi di mercato, non solo quindi all‟interno del modello
varianze/covarianze. Le possibili soluzioni che si possono proporre al riguardo sono essenzialmente
tre (Saita, 2000) e precisamente:
1. l‟approccio risk factor normal, che identifica le variabili aleatorie chiave nei singoli fattori
di rischio alla base della variazione del prezzo delle attività finanziarie (tassi di interesse,
tassi di cambio, etc.);
2. l‟approccio asset normal, che si basa invece sull‟evoluzione del valore di una serie di attività
benchmark (titoli azionari, zero coupon con diverse scadenze);
3. l‟approccio portfolio normal, che analizza direttamente il valore del portafoglio
complessivamente considerato, trattato come un‟unica entità e quindi come un‟unica
variabile aleatoria.
La scelta del livello di confidenza
In precedenza si è visto che quanto maggiore è l‟intervallo di confidenza 1-α, tanto maggiore risulta
essere Zα ed a parità di altre condizioni il VaR. Se la banca si dota di una quantità di capitale
proprio pari al VaR, un livello di confidenza elevato implica un grado di protezione maggiore nel
59
senso che si riduce la probabilità che si manifestino perdite superiori al capitale. La variabile critica
nella scelta dell‟intervallo di confidenza è dunque rappresentata dal grado di avversione al rischio
della singola istituzione finanziaria. Istituzioni più avverse al rischio saranno cioè spinte ad
utilizzare un multiplo della volatilità più elevato in modo da ottenere un maggior grado di
protezione. Si ipotizzi ad esempio di aver deciso di detenere una quantità di capitale, quantificata
attraverso un modello VaR, sufficiente per preservare il proprio rating, pari ad Aa3. Poiché a tale
rating corrisponde una probabilità annua media di insolvenza pari allo 0,03%, il livello di
confidenza prescelto per la determinazione del valore a rischio risulta calcolato con un livello di
confidenza del 99,97%. A tale livello corrisponde, in ipotesi di distribuzione normale dei
rendimenti, un multiplo della deviazione standard pari a 3,43.
La tabella seguente, tratta da Zazzara (2005), associa i livelli di confidenza con le classi di rating di
Moody‟s:
Classe di rating Moody’s Probabilità di insolvenza a 1 anno Livello di confidenza
Aaa 0,001% 99,999%
Aa1 0,01% 99,99%
Aa2 0,02% 99,98%
Aa3 0,03% 99,97%
A1 0,05% 99,95%
A2 0,06% 99,94%
A3 0,09% 99,91%
Baa1 0,13% 99,87%
Baa2 0,16% 99,84%
Baa3 0,70% 99,30%
Ba1 1,25% 98,75%
Figura 3.5: Le classi di rating di Moody’s
La scelta dell’orizzonte temporale di riferimento
Per calcolare il VaR è importante scegliere l‟orizzonte temporale sul quale si desidera misurare la
perdita potenziale. Nell‟esempio seguito fin qui sono stati utilizzati dati relativi ai rendimenti
giornalieri. Ne segue che la misura di rischio risultante intesa come misura di perdita potenziale è
una misura giornaliera; la scelta sarebbe tuttavia potuta cadere su un orizzonte temporale diverso. Si
60
tratta di una scelta non banale, visto che a parità di altre condizioni, un orizzonte temporale più
prolungato conduce a volatilità maggiore e dunque a VaR più elevati. Per la scelta dell‟orizzonte
temporale, Resti, Sironi (2008) affermano che devono essere presi in considerazione tre fattori:
1. il più importante è di tipo oggettivo ed è il grado di liquidità del mercato di riferimento della
singola posizione. È dunque necessario tener conto dell‟intervallo temporale con cui una
posizione può essere mediamente liquidata. Per le posizioni in valuta per esempio, l‟elevata
liquidità del mercato dei cambi consente di selezionare un intervallo temporale molto
limitato, non superiore ad un giorno. Viceversa, l‟orizzonte temporale di riferimento per una
posizione su un titolo azionario di una società non quotata dovrebbe essere più ampio;
2. un secondo fattore strettamente connesso al precedente riguarda la dimensione della
posizione assunta. Si è detto infatti che la scelta di un certo orizzonte temporale sottintende
l‟ipotesi che tale orizzonte consenta di liquidare realmente una posizione in essere nel caso
che essa stia producendo perdite. Pertanto una banca con posizioni di importo consistente
dovrà prevedere un orizzonte di rischio superiore a quello giornaliero;
3. un terzo fattore è di tipo soggettivo, nel senso che scaturisce direttamente dall‟intento del
singolo operatore e/o delle istituzioni finanziarie. Si tratta del periodo di detenzione (holding
period) della singola posizione. In tal senso, una posizione di trading assunta con un‟ottica
di tipo speculativo di brevissimo periodo dovrebbe essere valutata con un orizzonte
temporale più breve di quello relativo ad una posizione, sul medesimo strumento finanziario,
considerata di investimento.
La stima della volatilità riguardo ad intervalli di tempo prolungati comporta problemi dovuti alla
scarsità di dati reperibili. Una possibile soluzione è quella che prevede di ricavare dalla volatilità
giornaliera la stima della volatilità relativa a periodi più prolungati. Se infatti si ipotizza che i
rendimenti giornalieri rg siano rappresentati da variabili casuali indipendenti con media µg e
varianza ζg2, allora il rendimento relativo ad un periodo di T giorni, che si indica come:
è anch‟esso distribuito normalmente con media e varianza . La
deviazione standard relativa a T giorni può essere dunque ottenuta come:
(3)
61
La (3) può essere utilizzata per trasformare la volatilità giornaliera in volatilità decadale per
esempio, moltiplicando la prima per 17
.
La sensibilità delle posizioni in portafoglio ai fattori di mercato
L‟esempio di calcolo del VaR visto in precedenza si riferiva ad un caso semplificato. In effetti,
poiché il fattore di rischio coincideva con il rendimento del portafoglio, i suoi valori si traducevano
esattamente in variazioni percentuali del valore del portafoglio azionario della banca. In altri
termini, la sensibilità delle variazioni di valore della posizione in azioni al fattore rt era unitaria.
In termini più generali, l‟approccio varianze/covarianze prevede che tale sensibilità possa non
essere unitaria. Ciò ci induce a riscrivere la precedente formula come:
Dove, accanto alle quantità già note, compare un coefficiente (δ) rappresentativo della sensibilità
del valore di mercato della posizione a variazioni del fattore di mercato.
Un esempio, tratto da Sironi (2010) relativo a titoli obbligazionari, aiuterà a comprendere il ruolo di
δ.
Esempio numerico
Si consideri di voler misurare il VaR di una posizione in buoni del tesoro decennali con prezzo
(market value) di 10 mln €. Per semplicità utilizzeremo come fattore di mercato le variazioni
giornaliere assolute del tasso interno di rendimento (yield to maturity) e immagineremo che tale
rendimento segua una distribuzione normale. Si immagini di voler ottenere una misura di rischio
con un livello di confidenza del 97,5%, dunque di aver posto Zα = 2 e di aver stimato sulla base dei
dati storici una deviazione standard delle variazioni giornaliere del tasso interno di rendimento dei
BTP decennali pari a 30 punti base. Il prodotto tra queste due quantità è pari a 60 punti base (0,6%);
di conseguenza, la potenziale variazione sfavorevole dei fattore di mercato su cui vogliamo
17
Tale trasformazione è prevista dal Comitato di Basilea che subordina la possibilità di utilizzare un modello interno
per la determinazione del requisito patrimoniale a fronte dei rischi di mercato all‟adozione di un holding period di
almeno 10 giorni lavorativi (2 settimane).
62
concentrarci è data da un rialzo del tasso pari a 60 punti base. Come si ricorderà dal capitolo
precedente un rialzo del tasso di rendimento richiesto dal mercato si trasmette al valore di una
posizione in BTP attraverso la duration modificata. Immaginiamo che essa sia pari a 6 anni. Il VaR
sulla posizione in BTP sarà allora pari a:
VaR = 10mln x 6 x 0,6% = 360,000 €
Si noti come questa misura di rischio riflette non solo la sensibilità del prezzo dei titoli a variazioni
dei tassi di interesse ma anche la volatilità di tali variazioni.
Evidentemente, se in luogo di un livello di confidenza del 97,5% decidessimo prudenzialmente di
volerne uno del 99,5% il risultato sarebbe diverso. Per completezza, la tavola seguente mostra i
diversi risultati calcolati per diversi livelli di confidenza.
Tavola 3.2: VaR per diversi livelli di confidenza
Il VaR di un portafoglio
Quando dalla singola posizione si intende passare a considerare il rischio di un portafoglio di più
posizioni, è necessario tener conto non solo delle volatilità dei singoli rendimenti, ma anche delle
covarianze, analogamente a quanto ipotizzato dal Capital Asset Pricing Model, di cui abbiamo
parlato in precedenza a proposito delle azioni. Il calcolo del VaR di un portafoglio P di posizioni
sensibili a N diversi fattori di mercato richiede dunque un input addizionale rappresentato dai
coefficienti di correlazione tra i rendimenti dei fattori di mercato. Nel caso più semplice in cui vi
siano solamente due posizioni (ad esempio un paniere di titoli che replicano fedelmente l‟indice di
borsa domestico ed un titolo zero coupon a due anni) aventi valori di mercato VMA e VMB
Confidence
level
Scaling
Factor (# of
std.dev.s)
Potential losses
(Treasury bond
example)
99.5% 3 540,000
99.0% 2.323 418,140
97.5% 2 360,000
95.0% 1.65 297,000
90.0% 1.28 230,400
84.0% 1 180,000
63
rispettivamente, con VMA = αVMP e VMB = (1-α)VMP, la volatilità complessiva del portafoglio può
essere espressa come:
dove ζA , ζB , rappresentano rispettivamente la volatilità dei rendimenti delle attività A e B e ρAB
esprime la correlazione tra tali rendimenti. Tralasciando una serie di passaggi che sono riportati in
Saita (2000), il VaR del portafoglio può essere espresso come:
(4)
Quando dal caso di due posizioni occorre passare alla situazione di un portafoglio reale composto
da numerose posizioni sensibili a diversi fattori di mercato diviene più agevole ricorrere all‟algebra
matriciale. Infatti indicando con V il vettore dei VaR delle diverse posizioni comprese nel
portafoglio:
con la corrispondente matrice trasposta:
con C la matrice delle correlazioni tra i rendimenti:
è possibile esprimere sinteticamente il VaR complessivo del portafoglio come:
NVaR
VaR
VaR
V...
2
1
1......
............
...1
...1
1,
,21,2
,12,1
N
N
N
C
T
P VCVVaR
64
È evidente che affinchè il calcolo del VaR sia affidabile, è necessario disporre di una buona stima
delle deviazioni standard dei fattori di rischio, così come delle correlazioni raccolte nella matrice C.
Il mapping delle posizioni di rischio
Come abbiamo visto, nella realtà, accade sovente che il valore di mercato delle posizioni sia
funzione di più variabili di mercato. Si pensi, a titolo di esempio, al caso di una banca tedesca che
acquista un treasury bond decennale statunitense. Quest‟ultimo ha un valore in euro che dipende da
due principali fattori di mercato: a) il tasso di cambio euro/dollaro e b) il livello dei tassi di
rendimento del dollaro. In generale la stima del VaR nell‟approccio varianze/covarianze prevede
che le singole posizioni vengano dapprima scomposte, seguendo opportune tecniche di mapping, in
componenti elementari. Queste ultime devono essere tali che il loro valore dipenda dalle variazioni
di un solo fattore di mercato. “Da un lato sarebbe preferibile riuscire a limitare il più possibile il
numero dei risk factor rispetto ai quali calcolare volatilità e correlazioni (criterio di parsimonia),
dall‟altro occorre garantire che la disaggregazione del portafoglio rappresenti con sufficiente fedeltà
il rischio effettivo del portafoglio di partenza” (Saita, 2000). Data la natura molto tecnica di questo
argomento tralasciamo l‟esame delle soluzioni adottate per i titoli obbligazionari, per le posizioni in
valuta e altri strumenti finanziari e ci limitiamo alle posizioni in titoli azionari, che illustreremo
attraverso un esempio che si basa sull‟utilizzo del beta.
Il mapping delle posizioni in titoli azionari
Per quanto concerne le posizioni in titoli azionari domestici, non essendo in genere proponibile la
determinazione di volatilità e correlazioni tra singoli titoli azionari, la soluzione più comune
consiste nell‟approssimare la variabilità complessiva di un portafoglio di titoli sulla base della
volatilità dell‟indice azionario del mercato di riferimento e del coefficiente beta del portafoglio. A
questo scopo la singola posizione i-esima viene “mappata” al relativo mercato azionario j-esimo
sulla base del proprio coefficiente β:
dove indica il valore di mercato della posizione virtuale nel marcato azionario j-esimo e il
valore di mercato della posizione effettiva nel titolo i-esimo. In questo modo, il VaR relativo
65
all‟esposizione nel titolo azionario i-esimo può essere stimato sulla base della volatilità del
rendimento dell‟indice del mercato azionario in cui esso è negoziato:
In questo modo, il Var complessivo relativo al mercato azionario j-esimo è dato da:
Cerchiamo di illustrare quanto detto con un esempio tratto da Gabbi (2010). Si supponga che il
desk di una banca abbia una posizione azionaria le cui caratteristiche siano le seguenti:
Asset Domestic Equity
Nominal value (euro) 2.000.000
Position Long
beta 1,283
Benchmark Domestic Equity Index
Value index 12.500
Tavola 3.3: Esempio di caratteristiche di un desk di una banca
Supponiamo che l‟indice azionario di riferimento diminuisca di 350 punti base, da 12.500 a 12.150,
con una riduzione, pertanto, del 2,80%. Come abbiamo detto, la perdita della posizione dovuta al
calo dell‟indice di mercato può essere calcolata utilizzando il beta come misura di sensitività. In
questi casi il beta viene generalmente stimato ricorrendo ad una semplice regressione lineare del
rendimento del titolo sul rendimento del mercato. Più in particolare la stima si fonda sulla seguente
equazione:
dove:
rstock è il rendimento dell‟azione al tempo t e rmkt è il rendimento dell‟indice di mercato al tempo t.
Assumendo che αstock,t e εstock,t siano trascurabili, il rendimento dell‟azione risulterà pari a:
tstocktmktstockstocktstock rr ,,,
%592,303592,0)028,0(283,1, tstockr
66
che, moltiplicato per l‟esposizione (2 milioni di euro), determina una perdita in valore assoluto pari
a:
Se dalla determinazione della perdita in valore assoluto si vuole passare al calcolo del VaR,
dobbiamo introdurre un ulteriore elemento e cioè la volatilità dell‟indice in questione. Dovendo
pertanto applicare un approccio varianza/covarianza ad una posizione azionaria che presenti le
seguenti caratteristiche:
e applicando la seguente formula:
si ottiene un VaR di:
L’approccio varianze/covarianze: riepilogo e principali limiti
Può essere utile riepilogare le principali caratteristiche dell‟approccio varianze/covarianze:
1. la distribuzione dei rendimenti dei fattori di rischio è ipotizzata normale;
2. le variazioni di valore delle posizioni vengono derivate da quelle dei fattori di rischio
attraverso coefficienti lineari;
3. il rischio di portafoglio è stimato in base alla matrice delle correlazioni;
848.72000.000.2%592,3 LOSS
kMVVaR
39,502.27%46,033,2283,1000.000.2 VaR
67
4. il VaR tanto delle singole posizioni quanto del portafoglio è ottenuto in modo parametrico
come multiplo della deviazione standard.
Da tali ipotesi derivano alcuni limiti18
ed in particolare, ai nostri fini, risulta rilevante la critica
all‟ipotesi di normalità della distribuzione dei rendimenti dei fattori di mercato. Infatti, le
distribuzioni empiriche dei rendimenti delle attività finanziarie presentano generalmente delle code
più spesse (fat tails) di quelle proprie di una distribuzione normale. La probabilità che si verifichino
variazioni di prezzo lontane dal valore medio è dunque più elevata di quella implicita in una
distribuzione normale. Tale caratteristica prende il nome di leptocurtosi. Inoltre, le variazioni di
prezzo e conseguentemente i rendimenti delle attività finanziarie sono generalmente distribuite in
modo non perfettamente simmetrico nel senso che si possono riscontrare più osservazioni
all‟estremo sinistro (valori fortemente inferiori alla media) della distribuzione che non all‟estremo
destro (valori fortemente superiore alla media). Tale fenomeno prende il nome di negative skewness
(asimmetria negativa). Il problema delle code spesse è forse il più serio tra quelli menzionati.
Infatti, tale fenomeno sta ad indicare che perdite particolarmente elevate si verificano più
frequentemente di quanto implicito in una distribuzione normale. Dunque la probabilità di
conseguire perdite superiori al VaR parametrico calcolato, per esempio, con livello di confidenza
del 99% è in realtà superiore all‟1%. Fortunatamente, anche se la distribuzione dei rendimenti di
singoli fattori di mercato non fosse normale, i rendimenti di un portafoglio diversificato il cui valore
dipende da un numero elevato di fattori di mercato tra loro indipendenti, sono comunque distribuiti
secondo una normale (tale risultato è spiegato dal teorema del limite centrale); tuttavia i fattori di
mercato non sono in generale indipendenti e anzi tendono a muoversi come si vedrà anche nella
parte relativa alla crisi recente, in modo correlato proprio in caso di forti perdite dovute ad eventi
catastrofici. I problemi descritti hanno spinto accademici ed operatori a ricercare soluzioni
alternative all‟ipotesi di una distribuzione normale. Una prima soluzione è quella di sostituire la
distribuzione normale con altre distribuzioni, per esempio con la distribuzione t-student e le misture
di normali. Una seconda soluzione prevede che le misure di VaR parametriche basate sulla normale
vengano corrette per tener conto della skewness e della curtosi della distribuzione empirica dei
rendimenti.
Per concludere sull‟approccio varianze/covarianze, si può ricordare che detto approccio presenta
alcuni importanti pregi. Il primo riguarda l‟efficienza computazionale: esso consente infatti (grazie
all‟utilizzo dei coefficienti di sensibilità lineare e all‟ipotesi di distribuzione normale) di stimare il
18
Si veda Resti, Sironi (2008).
68
VaR dell‟intero portafoglio di una banca in un tempo limitato. In secondo luogo, non essendo
basato sulla rivalutazione piena delle posizioni (full valuation) ma sull‟utilizzo di semplici
coefficienti di sensibilità, non richiede di esplicitare i modelli di pricing relativi ad ogni singolo
strumento in portafoglio. Infine, grazie al teorema del limite centrale, la metodologia sottostante
l‟approccio varianze/covarianze può essere applicata anche se i fattori di rischio non sono distribuiti
normalmente, a condizione che essi siano sufficientemente numerosi e relativamente indipendenti
tra loro.
69
LA STIMA DELLA VOLATILITÀ E DELLE
CORRELAZIONI
L‟approccio varianze/covarianze si basa sull‟assunto che sia possibile stimare in modo
soddisfacente le volatilità dei rendimenti dei fattori di mercato e dei relativi coefficienti di
correlazione.
Si tratta di un problema complesso, ma più volte affrontato in letteratura sia dal punto di vista
teorico che da quello empirico: la sua rilevanza, infatti, non si limita a problemi di risk
management, ma si estende ad aspetti quali la costruzione di portafogli efficienti ed il pricing di
contratti di opzioni. I metodi utilizzabili a tale scopo sono raggruppabili in due principali categorie.
La prima è quella dei modelli che utilizzano dati di volatilità e correlazioni storici per trarne
previsioni di volatilità e correlazioni future. I più semplici tra tali modelli considerano volatilità e
correlazioni come parametri costanti; in altri termini ipotizzano che i relativi rendimenti dei fattori
di mercato siano caratterizzati da una distribuzione temporalmente stabile. Tale ipotesi è
chiaramente in contrasto con quanto emerge dall‟osservazione empirica, la quale mostra volatilità e
correlazioni variabili nel tempo. Per questo motivo sono nati i modelli che, sempre utilizzando dati
storici, consentono a volatilità e correlazioni di variare nel tempo e tentano, in diversi modi, di
modellizzare tale processo di variazione. In questo caso le stime di volatilità e correlazioni passate
vengono utilizzate per costruire le previsioni, ma non coincidono con esse. Questa classe di modelli
include gli algoritmi basati su medie mobili (semplici od esponenziali), così come i modelli della
famiglia GARCH. Un secondo metodo per la stima di volatilità e correlazioni è l‟utilizzo di
previsioni implicite nei prezzi delle opzioni. In questo caso il ricorso a valori storici è solo indiretto,
nel senso che la volatilità implicita è a sua volta figlia della volatilità storica. Peraltro, la volatilità
implicita in un‟opzione riguarda un orizzonte temporale pari alla vita dell‟opzione stessa, che non
necessariamente coincide con l‟orizzonte temporale del modello VaR. Di seguito e solo per dare
un‟idea, analizziamo alcuni aspetti di dettaglio dei modelli basati sui dati storici.
70
La stima della volatilità con dati storici e le medie mobili semplici
In generale, la modalità più semplice per stimare la volatilità dei rendimenti di una data attività
finanziaria/risk factor consiste nel ricorrere ai dati storici, analizzando una serie storica di una certa
ampiezza dei rendimenti (tipicamente espressi in forma logaritmica) dell‟attività finanziaria
medesima. Indicando con Rt la variabile della quale si intende misurare il grado di volatilità, la
volatilità (deviazione standard) può essere stimata utilizzando come campione una serie storica di n
osservazioni, come radice quadrata della varianza. Più in particolare la volatilità al tempo t può
essere calcolata utilizzando le n osservazioni dal tempo t-n al tempo t-1, come mostrato nella
formula seguente:
(1)
dove t è la media campionaria calcolata al tempo t sempre utilizzando le n osservazioni dal tempo
t-n al tempo t-1.
Al periodo successivo (t+1) la volatilità verrà stimata sulla base dei dati da (t-n+1) a t, spostando in
avanti di un periodo la finestra temporale del campione: tale approccio è detto “metodo delle medie
mobili”. Una media mobile non è dunque altro che una media relativa ad un numero fisso di dati
che “slittano” nel tempo: il trascorrere del tempo fa infatti si che il dato più lontano venga sostituito
da quello più recente, lasciando immutata la dimensione del campione. L‟incertezza nella stima
della media, che può risentire in modo particolare dell‟inclusione di rendimenti “anomali”, potrebbe
rendere però meno accurata la stima della volatilità. È quindi possibile stimare la volatilità
imponendo un‟ipotesi di rendimento di equilibrio: tipicamente si adotta l‟ipotesi di rendimento
nullo, nel qual caso l‟espressione sopra riportata si trasforma in:
(2)
L‟ipotesi di rendimento nullo, come abbiamo visto, può essere considerata una stima del
rendimento di equilibrio nel caso dei mercati dei cambi ed un‟approssimazione accettabile nel caso
dei mercati azionari e obbligazionari su un orizzonte giornaliero. La seguente figura, tratta da Resti,
et al., (2007) riporta l‟andamento della volatilità del rendimento logaritmico giornaliero dell‟indice
71
di borsa S&P 500 stimata utilizzando medie mobili calcolate applicando la formula (2) su finestre
mensili (n pari a 23 giorni lavorativi) nel periodo 2 gennaio 2001 – 31 dicembre 2004.
USD/EURO exchange rate - daily logarithmic changes
23-days moving standard deviation
0,0%
0,2%
0,4%
0,6%
0,8%
1,0%
1,2%
02/
2001
06/
2001
10/
2001
02/
2002
06/
2002
10/
2002
02/
2003
06/
2003
10/
2003
02/
2004
06/
2004
10/
2004
02/
2005
06/
2005
10/
2005
Figura 3.6: Andamento del tasso di cambio dollaro/euro tra il febbraio 2001 e l’ottobre 2005
L‟utilizzo del criterio delle medie mobili semplici per la stima della volatilità storica usata come
previsione della volatilità futura in un‟ottica di risk management porta con sé due importanti
problemi.
Il primo riguarda la scelta dell‟arco temporale passato su cui misurare la volatilità. A parità di altre
condizioni, la scelta di un numero di osservazioni (n) più elevato conduce ad una stima di volatilità
più stabile, in quanto gli eventuali shock del fattore di mercato considerato incidono in misura
proporzionalmente inferiore sulla stima della volatilità. Inoltre, un arco temporale prolungato offre
un elevato contenuto informativo, in quanto il campione utilizzato per la stima della volatilità è più
ampio. Allo stesso tempo, tuttavia, la scelta di un periodo storico molto ampio produce una stima di
volatilità che risponde in modo lento a variazioni improvvise delle condizioni di mercato e risulta
dunque poco aggiornata/reattiva. In presenza di un sensibile e improvviso incremento della
volatilità dei fattori di mercato, ad esempio, l‟utilizzo della volatilità storica calcolata su un ampio
campione passato conduce infatti ad attribuire un peso marginale molto ridotto alle condizioni più
recenti, che invece potrebbero riflettere meglio le condizioni di mercato future. Per questo, la
maggioranza delle istituzioni che utilizzano modelli VaR nella stima della volatilità giornaliera
72
utilizzata per misurare i rischi dell‟attività di trading, scelgono intervalli temporali relativamente
contenuti, generalmente tra 20 e 50 giorni.
Il secondo problema è generalmente chiamato “echo effect” o “ghost features”. Esso consiste nel
fatto che la stima della volatilità subisce una variazione (tanto più pronunciata quanto minore è il
numero di osservazioni del campione) non solo quando il fattore di mercato considerato subisce una
variazione pronunciata, ma anche quando il dato relativo a questo shock esce dal campione e viene
sostituito da un dato più recente. Mentre la prima variazione nella stima della volatilità è
pienamente giustificata, la seconda (che è sempre di segno contrario alla prima) non lo è, per il
semplice fatto che quando il dato di shock esce dal campione è probabile che nessuna novità
rilevante abbia interessato il fattore di mercato considerato.
0,0%
0,4%
0,8%
1,2%
1,6%
2,0%
7/02
/200
1
7/16
/200
1
7/30
/200
1
8/13
/200
1
8/27
/200
1
9/10
/200
1
9/24
/200
1
10/0
8/20
01
10/2
2/20
01
11/0
5/20
01
11/1
9/20
01
12/0
3/20
01
12/1
7/20
01
12/3
1/20
01
-8,0%
-4,0%
0,0%
4,0%
8,0%
12,0%
Daily returns (right hand scale)
23-days moving standard deviation (left hand scale)
Figura 3.7: Volatilità dell’indice S&P500 nei mesi di settembre ed ottobre 2001
La figura, tratta da Resti, et al. (2007), riporta un esempio, riguardante il comportamento della
volatilità dell‟indice S&P 500 nei mesi di settembre ed ottobre 2001. Tale volatilità mostra una
variazione verso l‟alto a metà settembre a seguito dei noti eventi terroristici (che provocarono alcuni
giorni di rendimenti fortemente negativi - evidenziati dagli istogrammi neri nella parte bassa della
figura); inoltre, essa si riduce altrettanto bruscamente attorno alla metà di ottobre, pur in presenza di
73
andamenti giornalieri assolutamente “normali”, e ciò avviene unicamente perché le osservazioni di
metà settembre stanno uscendo dal campione di calcolo della deviazione standard.
La stima delle volatilità con dati storici: le medie mobili esponenziali
Una delle modalità più semplici per risolvere i problemi connessi alle medie mobili semplici - e in
particolare all‟echo effect – consiste nel ricorso alle medie mobili esponenziali, che differiscono
dalle precedenti per il fatto di ponderare ogni osservazione in modo non uniforme, assegnando pesi
via via decrescenti alle osservazini più lontane nel tempo. Le medie mobili esponenziali (dette
anche esponentially weighted moving average o EWMA) sono un particolare tipo di media
ponderata in cui i pesi associati alle diverse osservazioni sono potenze diverse di una medesima
costante lambda. In simboli, per una generica variabile x osservata tra t-n e t-1, tale media si calcola
nel modo seguente
0
1 2
2
3
3
4
1
2 3 11
x x x x xt t t t
n
t n
n
...
...
La costante lambda, denominata decaying factor, indica il “grado di persistenza” delle osservazioni
campionarie passate. Infatti, se la costante è più vicina ad 1, le sue potenze successive (λ2, λ
3,
λ4,…), che rappresentano i pesi associati alle osservazioni passate, si avvicinano a 0 molto
lentamente; ne consegue che la media si adegua meno rapidamente alle condizioni più recenti. Se
invece λ è più piccolo, allora le sue potenze successive tendono più rapidamente a 0 e le
osservazioni passate escono più rapidamente dalla stima di sigma. Per questo, 1-λ è detta velocità di
decadimento delle osservazioni passate. La figura seguente, tratta da Resti, et al. (2007), ripropone
la volatilità dell‟indice S&P 500 già mostrata precedentemente e le affianca la stima ottenuta con il
metodo delle medie mobili esponenziali (con λ arbitrariamente posto pari a 0,94).
10
74
0,0%
0,4%
0,8%
1,2%
1,6%
2,0%
2,4%7/
02/
2001
7/16
/20
01
7/30
/20
01
8/13
/20
01
8/27
/20
01
9/10
/20
01
9/24
/20
01
10/
08/
2001
10/
22/
2001
11/
05/
2001
11/
19/
2001
12/
03/
2001
12/
17/
2001
12/
31/
2001
-8,0%
-4,0%
0,0%
4,0%
8,0%
12,0%
Daily returns (right hand scale)
23-days simple moving standard deviation (left hand scale)
23-days exp. w eighted moving standard deviation (l =0.94)
Figura 3.8: Volatilità e rendimenti dell’indice S&P500 con il metodo delle medie mobili esponenziali
Si nota come lo shock dell‟11 settembre 2001 generi un immediato, sensibile aumento nella
volatilità stimata; tuttavia, diversamente da quanto accade con le medie mobili semplici, utilizzando
il metodo delle medie mobili esponenziali non si verifica nessuna repentina diminuzione della
volatilità quando il dato esce dal campione (23 giorni dopo), poichè il suo peso era già stato ridotto
in modo progressivo col passare dei giorni, generando un calo più graduale della volatilità stimata.
Per quanto riguarda i modelli GARCH e la volatilità implicita, ci limitiamo ad osservare come tali
modelli affrontano il fenomeno indicato sovente con il termine di volatility clustering che sta ad
indicare che i fattori di mercato presentano spesso periodi di maggiori volatilità, che possono anche
persistere per periodi prolungati. Per quanto riguarda i metodi di calcolo basati sulla volatilità
implicita, ci limitiamo a chiarire che quest‟ultima differisce radicalmente sul piano logico dalle
stime precedenti. Queste ultime infatti sono misure ottenute attraverso l‟elaborazione più o meno
complessa di dati storici: si tratta dunque di misure backward looking, le quali si basano
sull‟assunto che il passato, in modo più o meno articolato, sia un buon strumento per prevedere il
futuro. Al contrario, la volatilità implicita, essendo ricavata da un prezzo attuale (generalmente di
un‟opzione), è figlia delle aspettative del mercato circa l‟evoluzione futura della volatilità ed è
pertanto interamente forward looking.
75
La stima di covarianze e correlazioni
Per poter stimare il VaR di un portafoglio con il metodo parametrico non sono sufficienti le
varianze: è necessario disporre anche di una stima delle covarianze o delle correlazioni tra i
rendimenti dei diversi fattori di mercato. In generale sia i metodi basati sui dati storici sia quelli
basati sui parametri impliciti nel prezzo delle opzioni, possono essere utilizzati oltre che per la stima
della volatilità anche per quella delle covarianze. Una volta che tutte le varianze e le covarianze
sono state stimate è necessario verificare che esse siano nel complesso coerenti. È evidente infatti
che se l‟indice di New York è positivamente correlato con quello di Londra e quest‟ultimo è
negativamente correlato con quello di Tokyo sarebbe sorprendente e non accettabile ottenere un
coefficiente di correlazione positivo o nullo tra la borsa giapponese e Wall Street.
76
SIMULAZIONI
Il tentativo di superare alcuni problemi connessi all‟approccio varianze/covarianze ha condotto allo
sviluppo dei modelli di simulazione. Tale famiglia di modelli deve il suo nome al fatto che anziché
limitarsi a derivare i VaR partendo da pochi parametri sintetici (le varianze e le covarianze) della
distribuzione dei fattori di rischio, si procede simulando un grande numero di possibili scenari
riguardanti la possibile evoluzione futura dei mercati (rialzo dei tassi, svalutazione del cambio,
crollo dell‟indice azionario, etc.). L‟approccio della simulazione è dunque più dispendioso in
termini di tempo e capacità di calcolo, ma, come vedremo, è anche più flessibile e sovente più
accurato. I modelli di simulazione condividono, secondo la letteratura di Risk Management, in linea
di massima tre caratteristiche: il ricorso alla full valuation, il ricorso alla logica del percentile e una
maggiore libertà nel modellare le variazioni dei fattori di mercato. Essi comprendono al proprio
interno diversi approcci e principalmente quello delle simulazioni storiche e quello delle
simulazioni Monte Carlo, che si differenziano per il modo in cui gli scenari riguardanti i fattori di
rischio vengono generati. Iniziamo spiegando le tre caratteristiche comuni ai modelli di
simulazione.
Full valuation
Una prima caratteristica comune dei modelli non parametrici riguarda le modalità di stima della
perdita corrispondente alla variazione dei fattori di mercato rilevanti. Diversamente dall‟approccio
varianze-covarianze, il quale si fonda su elementi come la duration di un titolo obbligazionario ed il
delta di un‟opzione, i modelli di simulazione si fondano su una logica di valutazione “piena”. Il
valore di mercato, infatti, delle posizioni/portafogli di cui si intende stimare il VaR viene rivalutato,
mediante opportune formule di pricing, sulla base delle condizioni simulate dei fattori di mercato.
Così, per esempio, invece di stimare la variazione del valore di mercato di un titolo obbligazionario
corrispondente ad un determinato aumento del relativo tasso di rendimento sulla base della duration
modificata del titolo stesso, la si calcola come differenza fra il prezzo antecedente la variazione del
rendimento e il prezzo che il titolo avrebbe in seguito alla variazione. Quest‟ultimo viene a sua
volta determinato come valore attuale, alle nuove condizioni di tasso, dei flussi di cassa residui
associati al titolo. Nei modelli di simulazione non si ricorre quindi, generalmente, ad
77
approssimazioni lineari o quadratiche delle variazioni di prezzo degli strumenti come invece si
faceva con i modelli parametrici. Una conseguenza di quanto esposto è che, date le medesime
ipotesi sulle variazioni dei fattori di mercato e date le relazioni di pricing degli strumenti, i modelli
di simulazione restituiscono variazioni del valore del portafoglio vere, non approssimate. Questa
caratteristica è tanto più positiva quanto meno lineari sono le relazioni di pricing che legano tra di
loro le variazioni di prezzo degli strumenti in portafoglio alle variazioni dei fattori di mercato. Per
questo motivo solitamente viene affermata la superiorità dei modelli di simulazione nel calcolo del
VaR relativo a portafogli con elevato contenuto di opzioni. Il meccanismo di full valuation descritto
consente di superare il problema della non linearità dei payoff a cui si era fatto riferimento in
precedenza parlando dell‟approccio varianze-covarianze. È importante precisare che sebbene questa
prima caratteristica sia comune alla maggioranza dei modelli di simulazione, nulla vieta, in linea
teorica, che a fronte di variazioni simulate dei fattori di rischio si proceda a stimare la perdita
potenziale utilizzando i coefficienti di sensibilità delle singole posizioni, evitando dunque di
ricorrere ad una full valuation.
Logica del percentile
Una seconda caratteristica comune ai modelli di simulazione riguarda la modalità di determinazione
del VaR corrispondente al livello di confidenza prescelto. Mentre nei modelli parametrici il
problema viene risolto ipotizzando una distribuzione normale dei rendimenti dei fattori di mercato,
nei modelli di simulazione il VaR è stimato tagliando la distribuzione empirica di probabilità delle
variazioni di valore del portafoglio al percentile di confidenza desiderato. Per esempio, date 10.000
simulazioni Monte Carlo dei fattori di mercato che generano 10.000 variazioni del valore di
portafoglio in esame, il VaR al 95 per cento è calcolato prendendo la 501-esima peggiore
osservazione. Analoga metodologia caratterizza le simulazioni storiche. “Come la valutazione piena
risolve il problema della non linearità delle relazioni di pricing, così l‟utilizzo della distribuzione
empirica di probabilità del portafoglio risolve le difficoltà determinate dalla non monotonicità delle
relazioni tra valore del protafoglio e fattori di mercato. Non è infatti detto che le perdite più elevate
che un portafoglio può registrare corrispondano a movimenti estremi dei fattori di mercato” (Resti,
et al., 2008).
78
Maggiore flessibilità nel modellare le variazioni dei fattori di mercato
Un‟ultima caratteristica delle simulazioni è l‟assenza dell‟ipotesi di normalità della distribuzione
dei rendimenti dei fattori di mercato. Il legame tra i modelli parametrici e l‟ipotesi di normalità
della distribuzione dei rendimenti di mercato è funzionale alla possibilità di stimare il VaR
connesso ad un particolare intervallo di confidenza. Come sappiamo e come osservato da Resti,
Sironi (2008), la distribuzione effettiva dei rendimenti dei fattori di mercato è in realtà caratterizzata
da code spesse e da un livello di curtosi superiore a quello di una distribuzione normale.
I modelli di simulazione consentono di superare questo problema, non vincolando l‟utilizzatore alla
normalità della distribuzione delle variazioni dei fattori di mercato. In particolare, le simulazioni
storiche utilizzano come motore della simulazione la distribuzione empirica derivante dalla serie
storica delle variazioni dei fattori di mercato. I modelli Monte Carlo richiedono invece che venga
definita una distribuzione sulla base della quale generare le simulazioni. In linea teorica, questa
distribuzione può essere prescelta liberamente, ma per essere di utilizzo pratico deve rispettare due
requisiti fondamentali: rispecchiare nel modo migliore possibile le caratteristiche empiriche delle
distribuzioni delle variazioni dei fattori di mercato e prestarsi alla generazione di simulazioni
casuali. Per questo secondo motivo, in pratica, viene spesso utilizzata proprio la distribuzione
normale, visto che essa consente di generare rapidamente un elevato numero di scenari. In altri
termini, fermo restando che la tecnica Monte Carlo risolve comunque, tramite meccanismi di
valutazione piena e taglio delle distribuzioni empiriche di probabilità, i problemi della non linearità
e non monotonicità delle relazioni di pricing, se essa utilizza una distribuzione normale non sfrutta
la possibilità di rispecchiare in maniera più fedele di quanto non avvenga con la normale, la
distribuzione delle variazioni dei fattori di mercato.
Le simulazioni storiche
L‟idea alla base delle simulazioni storiche consiste nel misurare il VaR esponendo il portafoglio
corrente agli shock delle variabili di mercato verificatesi in passato e di determinare, sulla base dei
diversi risultati ottenuti, ordinati dal più sfavorevole al più favorevole, la pedita massima
corrispondente al percentile prescelto.
79
La stima del VaR di una posizione
Più in particolare, le simulazioni storiche prevedono che il VaR giornaliero di una posizione o di un
portafoglio venga stimato mediante un processo articolato in quattro fasi (Resti, et al., 2008):
1. selezione di un campione di rendimenti giornalieri del fattore di mercato considerato relativo
ad un determinato periodo storico (ad esempio 250 giorni);
2. rivalutazione della posizione/portafoglio in corrispondenza di ognuno dei valori storici del
fattore di mercato;
3. ricostruzione della distribuzione empirica di frequenza dei valori così ottenuti della
posizione/portafoglio;
4. taglio della distribuzione in corrispondenza del percentile relativo al livello di confidenza
desiderato.
Per chiarire quanto affermato si consideri l‟esempio, tratto da Sironi(b) (2010), del tasso di cambio
lira/dollaro dal giugno 1987 al settembre 1995. Di seguito vengono riportati i valori assunti da tale
tasso nel periodo sopra elencato, per un totale di 100 osservazioni.
Tavola 3.4: Tasso di cambio lira/dollaro tra il 1987 ed il 1995
80
I rendimenti sono stati ordinati in ordine crescente, dal più basso al più alto. In questo caso è
relativamente semplice andare a definire il VaR. Per esempio, per calcolare il VaR di una posizione
lunga in dollari con un intervallo di confidenza del 99% si utilizza il valore del secondo peggiore
risultato riportato nella serie storica, in questo caso pari a -5,42%. Analogamente, per calcolare il
VaR di una posizione corta in dollari con un intervallo di confidenza del 95%, si utilizzerà il sesto
miglior risultato del tasso, ovvero 5,91%.
In appendice è riportato un esempio più complesso di una simulazione su un‟opzione call che, come
abbiamo detto, evidenzia l‟efficacia delle simulazioni storiche nella valutazione di strumenti come
le opzioni.
La stima del VaR di un portafoglio
Si consideri a questo punto un secondo esempio, relativo ad un portafoglio sensibile all‟evoluzione
congiunta di più fattori di mercato (Resti, et al., 2007). A questo scopo si riportano i rendimenti
giornalieri relativi al periodo di 100 giorni compreso tra il 21 luglio ed il 31 dicembre 2004, di un
portafoglio azionario composto da investimenti in tre diversi mercati di borsa, rappresentati
sinteticamente dall‟evoluzione dei rispettivi indici di mercato (FTSE100, DAX, S&P500).
Rendimenti logaritmici giornalieri in
ordine cronologico
Dati ordinati in base ai rendimenti
logaritmici giornalieri
Date FTSE100 DAX S&P500 Average Rank FTSE100 DAX S&P500 Rank
22-lug-04 -1,6% -2,0% 0,3% -1,1% 1 -1,70% -2,70% -1,60% -2,0%
23-lug-04 0,5% -0,1% -1,0% -0,2% 2 -1,60% -2,00% 0,30% -1,1%
26-lug-04 -0,9% -1,2% -0,2% -0,8% 3 -1,10% -2,10% -0,10% -1,1%
27-lug-04 0,9% 1,6% 1,0% 1,2% 4 -0,90% -1,10% -1,10% -1,0%
28-lug-04 0,7% -0,2% 0,1% 0,2% 5 -0,30% -1,20% -1,40% -1,0%
29-lug-04 1,4% 2,1% 0,5% 1,3% 6 -0,80% -1,50% -0,20% -0,8%
30-lug-04 -0,1% 0,2% 0,1% 0,0% 7 -0,80% -0,90% -0,60% -0,8%
2-ago-04 0,1% -0,8% 0,4% -0,1% 8 -0,80% -1,10% -0,30% -0,8%
3-ago-04 0,3% 0,4% -0,6% 0,0% 9 -0,90% -1,20% -0,20% -0,8%
4-ago-04 -0,5% -1,4% -0,1% -0,7% 10 -0,80% -1,30% 0,00% -0,7%
... ... ... ... ... ... ... ... ... ...
24-nov-04 -0,5% 0,3% 0,4% 0,1% 91 1,10% 1,30% 0,00% 0,7%
25-nov-04 0,7% 0,8% 0,0% 0,5% 92 0,50% 1,60% 0,60% 0,8%
26-nov-04 -0,3% -0,1% 0,1% -0,1% 93 0,90% 1,00% 0,90% 0,9%
29-nov-04 0,2% -0,2% -0,3% -0,1% 94 0,80% 0,80% 1,30% 0,9%
30-nov-04 -1,0% -0,5% -0,4% -0,6% 95 0,90% 1,60% 1,00% 1,0%
81
1-dic-04 0,7% 1,4% 1,5% 1,2% 96 0,70% 1,40% 1,50% 1,2%
2-dic-04 0,3% 0,7% -0,1% 0,3% 97 1,10% 1,40% 1,40% 1,2%
3-dic-04 -0,1% -0,2% 0,1% -0,1% 98 1,00% 1,70% 1,30% 1,3%
6-dic-04 -0,5% -0,4% -0,1% -0,3% 99 1,40% 2,10% 0,50% 1,3%
7-dic-04 0,1% 0,4% -1,1% -0,2% 100 1,90% 2,60% 1,50% 1,3%
Tavola 3.5: Evoluzione degli indici FTSE100, DAX e S&P500
Il rendimento del portafoglio è calcolato come media equiponderata dei rendimenti dei singoli
indici di mercato, nell‟ipotesi che il peso di ogni singolo mercato venga mantenuto inalterato
mediante continui riaggiustamenti giornalieri. Come in precedenza le prime colonne sono in ordine
cronologico, mentre la parte destra della tabella è ordinata con riferimento al rendimento medio dei
tre indici (cioè alle ipotetiche variazioni del portafoglio della banca). Si noti come l‟ordine
crescente dei rendimenti sia rispettato per il portafoglio ma non per i singoli mercati. In altri
termini, il rendimento peggiore del portafoglio non necessariamente corrisponde al rendimento
peggiore dei singoli indici di borsa. Anche in questo caso è possibile determinare il VaR
corrispondente ai diversi livelli di confidenza seguendo la logica del percentile, ossia tagliando la
distribuzione empirica storica in corrispondenza del percentile corrispondente al livello di
confidenza desiderato. Così, per esempio, il VaR con livello di confidenza del 99% risulta pari ad
una diminuzione del valore di mercato del portafoglio dell‟1,1%. È questa infatti la seconda
variazione negativa del portafoglio, ossia quella che verrebbe superata (in valore assoluto) solo in
un caso su 100. Analogamente, il VaR con livello di confidenza del 95% sarebbe pari ad una
variazione negativa del valore di mercato del portafoglio pari a -0,8%. Se la banca avesse assunto
una posizione corta sul portafoglio, per esempio mediante la vendita di contratti future sugli indici
di borsa in esame, i corrispondenti valori di VaR risulterebbero pari a 1,2% (95% di confidenza) e
1,3% (99% di confidenza).
Un confronto tra simulazioni storiche e approccio varianze/covarianze
Partendo dai 100 dati sui rendimenti azionari passati, Resti, Sironi (2008) fanno notare che in
alternativa si sarebbe potuto ipotizzare che la distribuzione dei rendimenti dei fattori di mercato (e
dunque anche delle variazioni del valore di portafoglio) fosse normale e applicare l‟approccio
parametrico basato su varianze/covarianze. A questo scopo sarebbe stato sufficiente stimare la
deviazione standard storica dei rendimenti del portafoglio simulato a pesi costanti (che risulta pari a
0,63%) e applicare a questo valore il fattore moltiplicativo corrispondente al livello di confidenza
desiderato. La tavola e la figura seguente riportano i risultati di questo confronto.
82
Variances /
Covariances
Historical
simulation
VaR at 95% - long position 1,03% -0,86%
VaR at 99% - long position 1,46% -1,11%
VaR at 95% - short position 1,03% 1,02%
VaR at 99% - short position 1,46% 1,34%
Mean 0,00% 0,08%
Standard Deviation 0,63% 0,63%
Skewness 0,0000 -0,0134
(Excess) kurtosis 0,0000 0,8684
Tavola 3.6: Risultati del metodo varianze/covarianze e di quello di simulazione storica
0%
2%
4%
6%
8%
10%
12%
14%
16%
-2.1
%/-
1.9
%
-1.9
%/-
1.7
%
-1.7
%/-
1.5
%
-1.5
%/-
1.3
%
-1.3
%/-
1.1
%
-1.1
%/-
0.9
%
-0.9
%/-
0.7
%
-0.7
%/-
0.5
%
-0.5
%/-
0.3
%
-0.3
%/-
0.1
%
-0.1
%/0
.1%
0.1
%/0
.3%
0.3
%/0
.5%
0.5
%/0
.7%
0.7
%/0
.9%
0.9
%/1
.1%
1.1
%/1
.3%
1.3
%/1
.5%
1.5
%/1
.7%
1.7
%/1
.9%
1.9
%/2
.1%
Change in value of the stock portfolio ($)
Pe
rce
nta
ge
of
ca
se
s
Figura 3.9 Confronto dei risultati tra metodo delle simulazioni storiche e metodo varianza/covarianza
Come è possibile osservare, i valori ottenuti con il metodo delle simulazioni storiche risultano
differenti da quelli ricavati con l‟approccio varianze/covarianze. Osservando il confronto tra la
distribuzione di frequenza storica dei rendimenti e la distribuzione normale con media nulla e
deviazione standard pari a 0,63% ci si accorge che, per intervalli di confidenza sufficientemente
ampi, la distribuzione assume effettivamente code più spesse. In particolare, mentre variazioni di
valore dell‟ordine del 2% in più o in meno sono da ritenersi virtualmente impossibili se si adotta la
Historical distribution
Normal distribution
83
distribuzione normale, esse si sono effettivamente verificate nel passato, anche se in un numero di
casi assai modesto. Le code “spesse” della distribuzione storica risultano confermate dall‟indice di
curtosi: esso assume infatti un valore positivo segnalando come il centro della distribuzione e le
code risultino più probabili di quanto indicherebbe una distribuzione normale.
Pregi e limiti del metodo delle simulazioni storiche
Punti di forza Punti di debolezza
Scalabilità Onerosità dei calcoli
Facilmente comprensibile e comunicabile Mancata reattività ai mutamenti di mercato
Nessuna ipotesi circa la forma funzionale Implicita stazionarietà della distribuzione di
probabilità
Non richiede la stima della matrice
varianze/covarianze
Mancato apprendimento della struttura di
dipendenza
Capacità di determinare il rischio per
strumenti non lineari Limitatezza delle serie storiche
Robustezza
Misure stabili e poco pro-cicliche
Tavola 3.7: Pregi e limiti delle simulazioni storiche
Sulla base di quanto riportato dalla letteratura e di quanto appreso dalle interviste con gli esponenti
di Unicredito, possiamo enumerare una serie di pregi delle simulazioni storiche:
la scalabilità del metodo delle simulazioni storiche è collegata alla possibilità di una rapida
inclusione di un largo numero di fattori di rischio, che non presenta altri limiti se non la
disponibilità di adeguate serie storiche;
le simulazioni storiche rappresentano una soluzione al problema della comunicazione delle
misure di rischio: la logica sottostante risulta facilmente comprensibile e comunicabile fra le
varie unità di una banca, oltre che all‟Alta Direzione. Il risultato cui tale metodologia
perviene rappresenta infatti la perdita che si otterrebbe se le condizioni passate, in termini di
84
variazioni congiunte dei fattori di mercato, dovessero ripetersi in futuro. L‟intuizione alla
base di tale logica risulta facilmente comprensibile anche per chi non fosse a conoscenza
della natura della singola posizione considerata o delle tecniche utilizzate per ottenere il
risultato;
un altro vantaggio delle simulazioni storiche è legato al fatto che esse non richiedono di
esplicitare alcuna ipotesi particolare circa la forma funzionale della distribuzione dei
rendimenti dei fattori di mercato. Secondo Jorion (2007): “The historical simulation
approach is a non parametric method that makes no specific assumption about the
distribution of risk factors. It consists of going back in time and replaying the tape of history
on the current positions” e ancora “The method doesn’t require distributional assumptions
and therefore is robust”. Alla luce di quanto appreso nell‟intervista con Unicredito, questo
punto merita ulteriori considerazioni. Se ci focalizziamo sul caso di una singola posizione,
sicuramente possiamo dire che non stiamo facendo nessuna ipotesi parametrica circa la
distribuzione dei rendimenti. Però, di fatto, stiamo ipotizzando almeno che esista una
distribuzione (esistenza) e che essa sia sempre la stessa (stazionarietà) così che i rendimenti
realizzati possano essere organizzati uno dopo l‟altro e l‟andamento storico delle
osservazioni è la realizzazione del processo (stazionario) determinato dalla distribuzione di
riferimento. Un‟interpretazione analoga a quella comunicataci dai responsabili di Unicredito
è quella che troviamo nel documento tecnico di Risk Metrics del 1996 (J. P. Morgan /
Reuters, 1996), che fa notare: “The historically observed risk factor changes are assumed to
be independent and identically distributed, and correspond to the same distribution
applicable to the forecast horizon”. Più chiaramente lo stesso documento di Risk Metrics
riporta che la tecnica delle simulazioni storiche “let historical data directly dictate the shape
of the relevant distribution”. Se, comunque, i rendimenti dei fattori di mercato non sono
distribuiti normalmente, ma hanno un comportamento probabilistico stabile nel tempo, il
modello delle simulazioni storiche fornisce indicazioni più precise rispetto ai modelli
parametrici;
inoltre, le simulazioni storiche non richiedono di stimare la matrice varianze-covarianze dei
numerosi fattori di mercato che possono influenzare il valore del portafoglio considerato. Il
rischio connesso a portafogli il cui valore è influenzato da più variabili di mercato è infatti
calcolato sulla base delle variazioni congiunte di tali variabili verificatesi nel corso del
periodo prescelto. Ne segue che eventuali problemi di instabilità delle correlazioni, che
possono essere presenti nei modelli parametrici, non influenzano la validità dei risultati
85
ottenuti applicando le simulazioni storiche. Si può inoltre affermare che esse catturano
implicitamente la struttura delle correlazioni riflessa nelle variazioni congiunte dei fattori di
mercato. Come afferma Saita (2000): “le simulazioni storiche consentono di mantenere del
tutto intatta anche la struttura delle correlazioni fra i rendimenti. Non solo quindi non è
necessario stimare la matrice delle correlazioni ma è possibile catturare in qualche modo la
correlazione effettiva tra le diverse variabili, che mal può essere sintetizzata in un unico
numero”;
le simulazioni storiche, basandosi sulla rivalutazione piena dell‟intero portafoglio di
posizioni alle nuove condizioni di mercato simulate in base alle variazioni passate,
consentono di cogliere il rischio di quelle parti del portafoglio la cui sensibilità alle
variazioni dei fattori di mercato è non lineare o non monotona (per esempio opzioni);
una misura di rischio può essere considerata robusta in termini statistici se piccole variazioni
(in questo caso della distribuzione profitti/perdite) determinano piccole variazioni nelle
misure dei risultati. In questo senso si può dire che il VaR, soprattutto nella versione delle
simulazioni storiche, è robusto;
infine, le simulazioni storiche tendono a produrre misure di VaR molto stabili e poco
reattive alle variazioni delle condizioni dei mercati, specie se il livello di confidenza è
elevato. Ciò è dovuto al fatto che il VaR non cambia fino a quando nel mercato non si
presenta un rendimento superiore (in valore assoluto) a quello corrispondente al percentile
prescelto o fino a quando quest‟ultimo non esce dal campione storico di stima.
Le simulazioni storiche soffrono però anche di alcuni limiti. I principali sono:
anzitutto, i calcoli necessari per rivalutare l‟intero portafoglio di posizioni di un‟istituzione
finanziaria alle condizioni di mercato passate sono particolarmente onerosi e richiedono
dunque un tempo relativamente elevato rispetto alle esigenze di quantificazione del rischio
connesse all‟attività di trading di una banca. In generale, l‟intensità di calcolo richiesta
risulta tanto maggiore quanto più numerosi e complessi sono gli strumenti in portafoglio e
quanto più elevato è il numero dei fattori di mercato cui il portafoglio risulta sensibile.
Questo limite, comune al modello delle simulazioni Monte Carlo, è venuto tuttavia
diminuendo di importanza in seguito al continuo progresso della potenza di calcolo dei
computer;
mancata reattività ai mutamenti di mercato. Questo è un limite che va messo in relazione
con l‟opposto pericolo di un comportamento eccessivamente pro-ciclico. Infatti, misure di
86
rischio assai più reattive, come quelle consentite dalle tecniche standard di aggiustamento
per la volatilità, possono determinare un comportamento potenzialmente pericoloso a livello
sistemico. Le misure di VaR costruite con simulazioni storiche riflettono in ritardo eventuali
shock dei mercati. Il VaR si basa principalmente sulla volatilità storica e non su quella
futura, aspetto che sicuramente limita il potere previsionale dello strumento. Sono tuttavia
presenti modelli, come quello che si basa sulla volatilità storica con media mobile a λ basso
che abbiamo presentato in precedenza, che permettono misure di VaR più reattive alle
condizioni di mercato più recenti e dunque capaci di riflettere prontamente eventuali shock
dei fattori di mercato. È evidente comunque, che qualsiasi tecnica previsionale difficilmente
riesce a prevedere cambiamenti estremi dei mercati;
le simulazioni storiche ipotizzano implicitamente la stabilità temporale della distribuzione
storica dei fattori di mercato. In altri termini, pur non formulando alcuna ipotesi circa la
natura della distribuzione di probabilità delle variazioni dei fattori di mercato, il metodo
delle simulazioni storiche assume implicitamente che la distribuzione futura sia uguale a
quella passata, ossia che i rendimenti storici costituiscano realizzazioni di distribuzioni
indipendenti ed identicamente distribuite. Se la distribuzione congiunta non osservabile dei
rendimenti dei fattori di mercato cambia nel tempo, allora la distribuzione empirica usata
come input del modello è un ibrido di realizzazioni di variabili diversamente distribuite, e
come tale ha uno scarso significato sia concettuale che operativo. In altre parole, se la
distribuzione sottostante dei rendimenti non è costante nel tempo, non è possibile
considerare la distribuzione empirica come una sua rappresentazione;
secondo Alexander (2008), i modelli finanziari di rischio sono intrinsecamente multivariati e
la modellazione della loro struttura di dipendenza è un fattore critico. Diviene importante
avere una rappresentazione completa di queste relazioni dal momento che il rischio di
correlazione è spesso un rischio che non si riesce a fronteggiare adeguatamente. La
simulazione storica ci consente di lavorare con una struttura di dipendenze che rimane
nascosta ed implicita. Ciò, spesso, inibisce chi utilizza questo metodo a sviluppare un‟analisi
della struttura delle correlazioni, cosa che non può essere certo considerata un fattore
positivo;
un ulteriore limite del metodo delle simulazioni storiche, probabilmente il più serio dal
punto di vista applicativo, è relativo alla limitatezza delle serie storiche disponibili, specie se
l‟orizzonte temporale prescelto per il calcolo del VaR è superiore ad un giorno. Il numero
limitato di osservazioni storiche disponibile si traduce tipicamente in una scarsa definizione
87
delle code della distribuzione empirica di probabilità. Le uniche variazioni dei fattori di
mercato che il modello considera possibili sono infatti quelle verificatesi in passato,
nell‟orizzonte storico preso a riferimento. Gli eventi estremi, proprio perchè tali, possono
essere fortemente sovra o sotto rappresentati nel campione storico prescelto rispetto a una
loro teorica frequenza di lunghissimo periodo. D‟altra parte, incrementare il più possibile la
lunghezza della serie storica di riferimento può essere controproducente perchè diviene più
probabile che sia violata l‟ipotesi di stabilità della distribuzione. In altri termini,
allontanandosi troppo nel tempo si rischia di fondare la stima della distribuzione futura dei
rendimenti su dati estratti da una distribuzione ormai obsoleta. Esiste quindi una relazione di
trade-off riguardo alla lunghezza ottimale della serie storica di riferimento.
Le simulazioni Monte Carlo
Le simulazioni Monte Carlo risultano, nella loro modalità applicativa, simili alle simulazioni
storiche. Anche in questo caso vengono ripercorsi i quattro passaggi logici descritti per le
simulazioni storiche, con una sola fondamentale differenza, che consiste nella definizione della
distribuzione dalla quale i dati vengono estratti. “Mentre in una simulazione storica viene estratto
un vettore di rendimenti di dimensione n corrispondente ai rendimenti storici congiunti degli n
fattori di rischio relativi ad un medesimo periodo (un giorno, una settimana, un mese), nel caso di
una simulazione Monte Carlo tale estrazione avviene sulla base di una precisa distribuzione teorica
dei rendimenti” (Saita, 2000). Se si considera un‟attività V il cui prezzo dipende da un‟unica
variabile di mercato x, il metodo descritto consiste nell‟estrarre dalla distribuzione teorica un
numero elevato di valori per x, ricalcolando il prezzo di mercato della posizione in corrispondenza
di ognuno degli scenari simulati. Nel caso di un‟attività V il cui valore di mercato dipende da più
fattori di mercato x1, x2, ..., xm il metodo Monte Carlo richiede di simulare tutte le variabili
estraendole da un‟opportuna distribuzione di probabilità congiunta e di ricalcolare il valore di
mercato della posizione in corrispondenza di ognuno degli scenari simulati. Le simulazioni Monte
Carlo sono state originariamente utilizzate in finanza come strumento per il pricing di prodotti
complessi (per esempio alcune opzioni esotiche), per i quali non è possibile ottenere una soluzione
analitica. Il vantaggio dell‟approccio Monte Carlo è proprio quello relativo alla sua capacità di
valutare accuratamente le opzioni ed i più complessi strumenti derivati. Inoltre questo metodo
sopperisce alla possibile mancanza di dati (elemento che impatta negativamente nella computazione
delle simulazioni storiche), permettendo di generarne un numero potenzialmente infinito.
88
Simulazione con un solo fattore di rischio
La stima del VaR di una posizione il cui valore è sensibile ai rendimenti R di un unico fattore di
mercato si compone di cinque fasi (Sironi b, 2010):
1. indentificazione della distribuzione statistica che meglio approssima la distribuzione dei
rendimenti del fattore di mercato in esame;
2. simulazione di n scenari per il fattore di mercato partendo dalla distribuzione ipotizzata;
3. calcolo della variazione del valore di mercato della posizione in corrispondenza di ognuno
degli scenari simulati;
4. costruzione della distribuzione empirica di probabilità delle variazioni dei valori di mercato
della posizione;
5. taglio della distribuzione empirica in corrispondenza del percentile desiderato.
La fase (2) prevede l‟utilizzo di un generatore casuale e l‟estrazione di una distribuzione uniforme.
Essa può essere scomposta nelle seguenti sottofasi:
estrazione di un numero U da una distribuzione uniforme [0,1];
calcolo del valore x di tale funzione corrispondente al numero U estratto;
determinazione dell‟inversa della funzione di ripartizione della distribuzione da cui si
effettua il campionamento;
ripetizione delle precedenti fasi un numero molto elevato di volte.
Il seguente esempio, tratto da Resti, Sironi (2008), chiarirà meglio quanto sopra affermato.
Supponiamo che una banca abbia acquistato un‟opzione call at the money sull‟indice di borsa MIB
30 con scadenza pari ad un anno. Oggi l‟indice quota 100 euro ed il valore di mercato dell‟opzione
(nell‟ipotesi di un tasso privo di rischio pari al 3% e di una volatilità annua dell‟indice pari al 20%)
è pari a 9,413 euro. Dopo aver analizzato la serie storica dei rendimenti R dell‟indice in esame, il
risk manager della banca conclude che la distribuzione che meglio approssima la distribuzione
effettiva dei rendimenti è la distribuzione normale con media μ pari a 0,15% e deviazione standard
89
ζ pari a 1,5%. Il risk manager procede quindi ad estrarre, mediante un generatore di numeri casuali
basato su una distribuzione uniforme [0,1], N valori compresi tra 0 e 1 (vedi prima colonna della
tabella sottostante). Ad ognuno di tali valori p associa il corrispondente valore R che è uguale a N-
1(p;0,15%,1,5%), utilizzando dunque l‟inversa della funzione di ripartizione della distribuzione
normale con media 0,15% e deviazione standard pari ad 1,5%. Cioè generando dapprima un valore
v distribuito secondo una normale standard (vedi la seconda colonna della tabella), quindi
convertendolo in un valore R (terza colonna) che rispetti la distribuzione normale con media 0,15%
e deviazione standard 1,5%. Possiamo vedere ora come i diversi valori di R generati con questa
tecnica vengono utilizzati per il calcolo del VaR. La quarta colonna riporta infatti per ogni tasso di
variazione r dell‟indice MIB30, il valore al tempo t+1 dell‟indice stesso. Sulla base di tale valore la
quinta colonna della tabella riporta il corrispondente valore dell‟opzione call in t+1e la sesta la
differenza tra tale valore ed il valore di mercato corrente della call. La tabella riporta per semplicità
solo i primi 10 di mille valori simulati. Sulla base di tutti i mille valori è possibile determinare,
tagliando la distribuzione in corrispondenza del percentile relativo al livello di confidenza
desiderato, il VaR corrispondente ai diversi livelli di confidenza. Naturalmente, se si generassero
altri mille valori, i risultati potrebbero essere leggermente diversi; tuttavia, utilizzando un numero di
scenari maggiore (per esempio n=20.000 o n=100.000) essi diverrebbero molto più stabili, dunque,
molto più affidabili.
Simulazione per due o più fattori di rischio
Quando da una posizione il cui valore di mercato risulta funzione di un singolo fattore di mercato si
passa ad una posizione o portafoglio sensibile all‟evoluzione di m fattori di mercato, la stima del
VaR richiede di tenere in considerazione la struttura delle correlazioni tra i rendimenti di tali fattori.
Nel caso di un portafoglio, quindi, le simulazioni Monte Carlo vanno arricchite rispetto a quanto
presentato nel precedente paragrafo per far si che gli scenari simulati tengano conto della
correlazione tra fattori. In particolare, le cinque fasi viste nel paragrafo precedente andranno
modificate come segue:
scelta della distribuzione di densità di probabilità congiunta f(r1,...,rm) che meglio
approssima la distribuzione dei rendimenti degli m fattori di mercato in esame;
stima dei parametri (medie, varianze, covarianze, etc.) della distribuzione f;
90
simulazione di n scenari per gli m fattori di mercato partendo dalla distribuzione f;
calcolo della variazione del valore di mercato del portafoglio in corrispondenza di ognuno
degli scenari simulati;
taglio della distribuzione di probabilità così ottenuta in corrispondenza del percentile
relativo al livello di confidenza desiderato.
Pregi e limiti delle simulazioni Monte Carlo
Gli aspetti positivi di questa metodologia sono i seguenti:
la metodologia, facendo ricorso alla full valuation, è adatta a misurare i rischi associati con
posizioni non lineari;
un secondo pregio del metodo Monte Carlo è che esso si presta ad essere utilizzato con
qualunque distribuzione di probabilità dei rendimenti dei fattori di mercato. Diversamente
dall‟approccio varianze/covarianze, il risk manager è libero di scegliere la distribuzione
ritenuta più idonea a spiegare le variazioni dei fattori di mercato in esame;
il calcolo può essere eseguito anche in mancanza di dati relativi a determinati periodi storici;
Tra i difetti menzioniamo i seguenti:
le simulazioni Monte Carlo possono essere costose e lente nel caso in cui sia richiesto un
grado di accuratezza elevato per un portafoglio di grandi dimensioni;
nel simulare l‟evoluzione congiunta di più variabili di mercato il metodo necessita,
diversamente dalle simulazioni storiche, di una stima della matrice varianze/covarianze dei
fattori di mercato. È dunque necessario produrre tale stima e mantenerla aggiornata.
91
LA COSTRUZIONE DI PROVE DI STRESS
A fianco delle metodologie precedentemente descritte, una modalità di valutazione della perdita
massima potenziale frequentemente utilizzata dai risk manager consiste nelle prove di stress (stress
testing). Una prova di stress consiste nel sottoporre il portafoglio a variazioni estremamente
pronunciate dei fattori di rischio identificando la perdita massima potenziale connessa ad alcuni tra i
peggiori scenari che è ragionevolmente possibile ipotizzare. La definizione di tali scenari estremi e
catastrofici avviene tipicamente mediante due modalità. La prima si basa sull‟utilizzo dei dati
derivati da alcuni shock storicamente molto rilevanti del mercato (quali ad esempio il 2007 per i
mercati azionari). La seconda modalità consiste invece nel considerare multipli della volatilità
oppure un aumento degli spread o della curva dei rendimenti. Il Derivatives Policy Group nel 1995
ha fissato alcuni parametri di stress, quali:
spostamenti paralleli, al rialzo o al ribasso, della curva dei rendimenti di 100 bp;
una variazione dell‟inclinazione della curva dei rendimenti di più o meno 25 bp;
una variazione degli indici di borsa, al rialzo o al ribasso, di 10 bp;
una variazione dei tassi di cambio di più o meno 6 bp;
una variazione della volatilità di più o meno 20 bp.
L‟argomento è trattato diffusamente in Chorafas (2007) a cui rimandiamo.
È importante a questo punto osservare come le prove di stress, essendo fondate su ipotesi del tutto
discrezionali e soggettive circa la dimensione degli shock dei fattori di mercato, non consentono di
associare alla corrispondente perdita una dimensione probabilistica o, meglio, un livello di
confidenza. È questo il motivo per cui le prove di stress dovrebbero integrare, piuttosto che
sostituire, un modello VaR per la misurazione dei rischi di mercato del portafoglio di negoziazione.
Il motivo principale per cui è importante che un modello VaR sia integrato da prove di stress è
legato al fatto che i modelli VaR sono solitamente fondati su dati storici relativamente recenti. Essi
non consentono dunque di cogliere quegli eventi estremi che si verificano con frequenza limitata e
che raramente sono utilizzati per la stima del VaR. Come si vedrà più avanti, questo utilizzo
complementare è esplicitamente richiesto dal Comitato di Basilea alle banche che desiderano usare i
92
propri modelli interni di risk management al fine di determinare il requisito patrimoniale
obbligatorio sul rischio di mercato.
93
PREGI E LIMITI MODELLI VAR
Ogni modello presenta punti di forza o debolezza in base all‟uso che se ne vuole fare. Per il trading
giornaliero, dove l‟ipotesi della forma della distribuzione dei rendimenti non risulta particolarmente
importante, l‟approccio varianza/covarianza è, per esempio, il migliore; nel valutare strumenti come
le opzioni che presentano payoff non lineari, le simulazioni sono invece più appropriate.
Riassumiamo di seguito, in una tabella, quanto detto nei paragrafi precedenti, riguardo alle
caratteristiche dei diversi modelli:
Figura 3.10: Pregi e limiti dei modelli VaR
Fonte: Resti, et al. (2008)
Di seguito presentiamo alcuni commenti riguardo i principali punti di forza e limiti dei modelli
VaR, soffermandoci su quelli non menzionati in precedenza.
94
Punti di forza Punti di debolezza
Facilmente comprensibile e comunicabile Misura di frequenza e non di "severità"
Possibilità di aggregare diverse forme di
rischio di mercato Non tiene conto della liquidità delle posizioni
Tecnica molto diffusa tra gli operatori del
settore bancario E' una misura non subadditiva
Tecnica raccomandata dalle autorità di
vigilanza Può avere comportamenti non regolari
Trascura gli eventi eccezionali
Differenti VaR producono differenti risultati
E' una misura prociclica
Tavola 3.8: Punti di forza e debolezza dei modelli VaR
Punti di forza
Aggregazione del rischio connesso a posizioni diverse
Il VaR permette il confronto tra strumenti diversi come obbligazioni, opzioni ed azioni, agevolando
così il calcolo del rischio di portafogli composti da numerose posizioni eterogenee. Ipotizziamo per
esempio di voler confrontare due posizioni, come quelle riportate nella figura sottostante (Zazzara,
2005):
95
Tavola 3.9: Posizione lunga in BTP
Tavola 3.10: Posizione corta in opzioni Call su USD
Dopo quanto detto fino ad ora, risulta immediato calcolare il VaR delle due posizioni e di
conseguenza è possibile confrontarle agevolmente:
per il Btp, usando il metodo delta-gamma e la deviazione standard dello yield to maturity
risulta
150.4%25,033,22
74,69%25,036,733,2000.100
2
BTPVaR
per la call, utilizzando le simulazioni Monte Carlo e la full valuation, risulta
640720.7360.8%10;1%47,10;035,1);(; 11. CCSCSCVaR ttttOPZ
96
Punti di debolezza
Misura di frequenza e non di severità
Dire che “con una probabilità del 99% la perdita giornaliera di questo portafoglio sarà minore del
VaR” è equivalente a dire che “con una probabilità dell‟1% la perdita giornaliera di questo
portafoglio sarà superiore al VaR”: il fatto è che quest‟ultima proposizione ci porta immediatamente
ad un‟altra domanda: “di quanto sarà superiore, la perdita, al VaR?”. Questo tipo di domanda ci
induce ad utilizzare misure di rischio diverse da quelle del VaR, che siano basate in particolare su
dati della coda della distribuzione. Il VaR non fornisce infatti alcuna informazione in merito alla
dimensione della perdita che si realizza all‟infuori dell‟intervallo di confidenza prescelto. Medesime
posizioni possono presentare lo stesso VaR ma riportare una struttura delle perdite molto diversa.
La tavola seguente cerca di chiarire quanto appena affermato.
Esempio di perdite relative a due portafogli azionari
Perdite Portafoglio A Portafoglio B
1 150.000 60.000
2 120.000 56.000
3 100.000 55.000
4 70.000 53.000
5 60.000 51.000
6 50.000 50.000
7 48.000 45.000
8 45.000 40.000
9 42.000 35.000
10 40.000 30.000
VaR(99%) 50.000 50.000
Maximum Loss – Max(L) 150.000 60.000
Maximum Excess Loss - [Max(L)-VaR] 100.000 10.000
Maximum Excess Loss/VaR 200% 20%
Expected Excess Loss E[L/(L>VaR) ] 50.000 5.000
Expected Excess Loss/VaR 100% 10%
Tavola 3.11: Perdite relative a due portafogli azionari
97
Il VaR non tiene in considerazione la liquidità
Il VaR non tiene in considerazione la liquidità delle posizioni in portafoglio. Il rischio di liquidità si
articola in due diverse forme, note come funding risk e market liquidity risk. Quello che qui
interessa è il secondo e cioè il rischio che una banca al fine di monetizzare una consistente
posizione in attività finanziarie, finisca per influenzarne in misura significativa (e sfavorevole) il
prezzo, a causa dell‟insufficiente profondità del mercato finanziario in cui tali attività sono
scambiate. Come vedremo più avanti i regolatori sono ben coscienti di ciò: “The current VaR
framework ignores differences in the underlying liquidity of trading book positions” (Basel
Committee on Banking Supervision, 2009).
Il VaR non è subadditivo
Il VaR non è una misura “coerente19
” del rischio. Le misure di VaR, infatti, non sono subadditive.
Con questo termine si intende la proprietà per la quale i rischio di un portafoglio composto da più
posizioni risulta pari o inferiore alla somma dei rischi delle singole posizioni. Questa proprietà
deriva dal fatto che qualunque portafoglio risente dell‟effetto di diversificazione legato al fatto che
la correlazione fra i fattori di mercato rilevanti è imperfetta. Se si abbandona l‟ipotesi di normalità
dei rendimenti di mercato, come notano Resti, Sironi (2008), il VaR non presenta questa proprietà e
può risultare:
19
Artzner, et al. (1999) definiscono coerente una misura che presenta:
invarianza alle traslazioni: l‟aggiunta al portafoglio di una quantità di contante riduce il rischio del medesimo
ammontare;
omogeneità positiva di grado uno: se raddoppiamo la dimensione di ogni posizione raddoppia anche il rischio
di portafoglio;
monotonicità: se le perdite sul portafoglio A sono maggiori di quelle sul portafoglio B in ogni possibile
scenario futuro, allora il irshcio del portafoglio A dev‟essere maggiore di quello del portafoglio B;
subadditività: il rischio di una somma di più sottoportafogli è minore o uguale alla somma dei rischi dei singoli
sottoportafogli.
)()()( YVaRXVaRYXVaR
98
Il VaR può avere comportamenti non regolari
Come vedremo meglio più avanti analizzando il backtesting, il VaR a volte si muove con “salti
improvvisi”. Inoltre, eventi estremi di mercato possono influenzare la stima del VaR per un
considerevole periodo di tempo.
I modelli VaR trascurano gli eventi eccezionali
Per come è costruito, il VaR ignora gli eventi che avvengono al di fuori dell‟intervallo di
confidenza scelto, sui quali non può fornire alcuna informazione. Va però detto che la possibilità di
aggiungere un coefficiente moltiplicativo alla formula del VaR permette di aumentare la protezione
rispetto agli eventi rari (dobbiamo ricordare però, che una protezione del 100% dai rischi è
inverosimile e tradisce la natura stessa della banca in termini di gestione del rischio).
I modelli VaR producono risultati divergenti
Le differenti metodologie utilizzate per calcolare il VaR (approccio varianze/covarianze,
simulazioni storiche, Monte Carlo, etc.) possono presentare nella pratica (e questo ci è stato
confermato dagli esponenti di Unicredito) risultati tra loro divergenti. I risultati di un modello VaR
dipendono infatti non solo dall‟approccio utilizzato ma anche dalle ipotesi adottate, dall‟ampiezza
del campione storico, dall‟orizzonte temporale di riferimento, dal numero di fattori di rischio
identificati.
I modelli VaR amplificano l’instabilità dei mercati
Se gli operatori del mercato sono dotati di modelli VaR sostanzialmente analoghi e sono
caratterizzati da un appetito al rischio simile, a fronte di un risultato negativo di mercato,
dovrebbero cercare di chiudere o ridurre le proprie posizioni nello stesso momento, generando un
risultato ancora peggiore. Va però ricordato che non tutti i modelli VaR sono uguali e che il risk
appetite è diverso nelle diverse istituzioni.
99
Altri limiti e problemi del VAR
Expected shortfall
Alcuni limiti precedentemente ricordati ed in particolare il fatto che il VaR è una misura di
frequenza e non di severità, possono essere superati attraverso la tecnica delle expected shortfall
(average shortfall, ES o extreme value at risk). Anche questa misura è caratterizzata da un
intervallo di confidenza e da un determinato orizzonte temporale. Detto c l‟intervallo di confidenza
e T l‟orizzonte temporale, l‟ES rappresenta il valore atteso delle perdite che il portafoglio potrebbe
subire nell‟(1-c) peggiore dei casi nel corso dell‟orizzonte temporale T.
Da un punto di vista economico le expected shortfall possono essere viste come il costo che le
autorità di vigilanza dovrebbero sostenere per salvare la banca (ripianando le sue perdite) se il suo
capitale (fissato pari al VaR) non fosse sufficiente o ancora come il costo (neutrale al rischio) che la
banca dovrebbe sostenere se volesse assicurarsi contro perdite superiori al VaR.
100
APPLICAZIONI DEI MODELLI VAR
Il VaR non è utilizzato solamente per misurazioni in senso stretto del rischio di mercato ma anche
in un più ampio contesto di attività strategiche, come la definizione dell‟appetito di rischio di una
banca, la fissazione di limiti di trading e l‟attività di monitoraggio e reporting. I destinatari finali di
queste misure sono diversi: la vigilanza (e cioè i regulator nazionali ed internazionali), il
management della banca (in particolare le aree di internal audit and control), gli azionisti e le
agenzie di rating. Ognuno di questi soggetti stabilisce requisiti specifici per la misurazione ed il
reporting dei rischi. Di solito, analizzando una misura di rischio, in questo caso il VaR, si
distinguono utilizzi interni o esterni (vedi tabella seguente).
Misura esterna Misura interna
È utilizzato per obiettivi di misurazione
regolamentare (determinazione del requisito
minimo di capitale a fronte del rischio di
mercato)
Introduce limiti operativi per il trading
È utilizzato per il reporting ad autorità di
vigilanza e agenzie di rating
È usato per ottimizzare il portafoglio in ottica
di Risk Adjusted Performance Measurement
(RAPM)
È utilizzato per il reporting al top management
e ai trading desk
Tavola 3.12: VaR come misura interna ed esterna
Rimandiamo alle parti specifiche della tesi per quanto riguarda l‟utilizzo del VaR a fini
regolamentari. Qui vogliamo invece sottolineare, per quanto riguarda le così dette misurazioni
esterne, che la Banca d‟Italia stabilisce: “I requisiti patrimoniali a fronte dei rischi di mercato
devono basarsi sul modello utilizzato a fini gestionali interni e non su specifiche elaborazioni
finalizzate esclusivamente al calcolo degli obblighi di vigilanza” (Banca d'Italia, Circolare n. 263
del 27 Dicembre 2006). Inoltre afferma che: “Il modello deve essere strettamente integrato nel
processo quotidiano di gestione del rischio” (Banca d'Italia, Circolare n. 263 del 27 Dicembre
2006). Questo è un aspetto molto interessante, poichè implica che le attività giornaliere di risk
101
management e gli operatori dei desk possano dare feedback utili all‟architettura e alle metodologie
di misurazione dei rischi.
Trading Limit
I modelli VaR permettono di fissare dei limiti operativi nella gestione del rischio. Grazie alla
struttura del VaR, che si basa sulla volatilità, questi limiti possono essere aggiornati nel momento in
cui si verifichino cambiamenti nelle condizioni di mercato, riflesse in variazioni della volatilità. I
limiti imposti agli operatori si adeguano automaticamente, al rialzo o al ribasso, alle variazioni delle
condizioni di volatilità e dunque di rischio del singolo mercato, favorendo così la riallocazione del
capitale verso mercati caratterizzati da temporanee condizioni di minore tensione.
Come si osserva dalla tavola sottostante, ai vari risk taker possono essere attribuiti dei limiti di
rischio. Ad esempio al capo del trading sul reddito fisso del portafoglio obbligazionario potrebbe
essere stato assegnato un limite globale di VaR di 1 milione di euro (Sironi, 2010).
Tavola 3.13: Limiti di rischio per diversi risk taker
Cosa significa? Stabilire un limite di un milione euro significa dire che il nostro appetito per il
rischio per questo tipo di attività è tale da non consentire una perdita superiore ad un milione di euro
in un giorno (sfortunato).
Evidentemente il capo dell‟attività di negoziazione può modificare l‟allocazione del rischio (limiti)
tra i vari desk mentre ogni desk deve rispettare il limite di VaR che gli è stato attribuito. Se la
volatilità aumenta, il singolo trader deve ridurre la propria posizione (market value) per evitare di
avere degli sconfinamenti.
102
La costruzione di misure di risk adjusted performance
A questo punto della tesi si può capire meglio quanto affermato nell‟introduzione riguardo alle
misure aggiustate per il rischio. Il VaR permette infatti di calcolare la redditività corretta per il
rischio delle singole posizioni. Quest‟ultima può essere calcolata ex ante come rapporto tra l‟utile
previsto ed il capitale a rischio, aiutando gli operatori a compiere scelte più efficienti, confrontando
il profilo di redditività corretta per il rischio di posizioni diverse, permettendo di costruire un
sistema di incentivi che non si basi unicamente sul profitto ma che tenga conto anche del profilo di
rischio di ogni investimento. Ex post permette inoltre di confrontare le performance di unità
organizzative diverse al fine di determinare quale unità stia utilizzando meglio il capitale ad essa
allocato. Le misure di redditività sono tutte riconducibili a quella del RAROC.
L‟esempio seguente (Sironi, 2010) mostra come questo indicatore sia utile per valutare il corretto
rendimento aggiustato per il rischio di portafogli diversi:
Portafoglioobbligazionario
Portafoglioazionario
Valore di mercato 100 100
Utile mensile 2 5
Redditività 2,00% 5,00%
Sensibilità (durationmodificata media e beta)
5,5 1
Volatilità mensile (tassi eindice azionario)
0,4% 6,5%
Fattore scalare 2,3 2,3
VaR(99%) 5,06 14,95
RAROC 39,53% 33,44%
Tavola 3.14: Rendimento aggiustato per il rischio di due portafogli
anteex
anteexCaR
UERAROC
)(
103
APPENDICE
Calcolo del VaR per un’opzione Call
Si consideri l‟esempio20
di una banca che al 28 dicembre 2004 avesse detenuto un‟opzione call, con
strike X pari a 1.300 dollari e vita residua di 3 mesi sull‟indice della borsa statunitense S&P500
(che quel giorno quotava 1213,54 dollari). Il valore corrente dell‟opzione, dato il valore presente
delle variabili di mercato, è pari a circa 2,30 dollari21
. Allo scopo di simulare la possibile
evoluzione del valore di mercato dell‟opzione si decide di utilizzare come campione storico di
riferimento i due anni compresi tra il primo gennaio 2003 ed il 28 dicembre 2004. Tale campione
storico è composto da 500 rendimenti giornalieri. La tabella seguente riporta l‟evoluzione
dell‟indice S&P nel corso dei due anni in esame ed i relativi rendimenti logaritmici giornalieri. Per
semplicità riportiamo solo i primi e gli ultimi undici dati in ordine temporale:
Date Adj,
Close*
Daily
returns
(right
hand
scale)
02/01/2003 909,03
03/01/2003 908,59 0,0%
06/01/2003 929,01 2,2%
07/01/2003 922,93 -0,7%
08/01/2003 909,93 -1,4%
09/01/2003 927,57 1,9%
10/01/2003 927,57 0,0%
13/01/2003 926,26 -0,1%
14/01/2003 931,66 0,6%
15/01/2003 918,22 -1,5%
16/01/2003 914,6 -0,4%
... ... ...
13/12/2004 1198,68 0,9%
14/12/2004 1203,38 0,4%
15/12/2004 1205,72 0,2%
16/12/2004 1203,21 -0,2%
17/12/2004 1194,2 -0,8%
20
L‟esempio è tratto da Resti, Sironi (2007). 21
Nel determinare il valore di mercato dell‟opzione è utilizzato il modello di Black & Scholes ipotizzando un
rendimento privo di rischio pari al 10% e una volatilità annua del rendimento dell‟indice S&P500 pari a 7,1%. Il valore
di un‟opzione call, utilizzando la formula di Black & Scholes, è pari a .
104
20/12/2004 1194,65 0,0%
21/12/2004 1205,45 0,9%
22/12/2004 1209,57 0,3%
23/12/2004 1210,13 0,0%
27/12/2004 1204,92 -0,4%
28/12/2004 1213,54 0,7%
Tavola 3.15: Rendimenti giornalieri dell’indice S&P500
La tabella sottostante riporta l‟evoluzione dell‟indice S&P nel corso dei due anni in esame relativa
ai rendimenti logaritmici giornalieri. Per semplicità riportiamo solo i primi e gli utlimi undici dati in
ordine temporale. Le due colonne successive mostrano invece i rendimenti in ordine di grandezza
iniziando da quelli peggiori. Ancora una volta vengono riportati unicamente i primi e gli ultimi
undici dati. La sesta colonna indica i valori che l‟indice S&P500 potrebbe assumere l‟indomani se,
partendo dal valore corrente (1213,54 dollari) subisse una variazione logaritmica pari a quella
indicata nella colonna precedente. La settima colonna indica quale sarebbe, dato questo nuovo
valore del sottostante, il nuovo valore di mercato dell‟opzione. L‟ultima colonna riscrive questi
valori come differenze rispetto al valore corrente dell‟opzione (2,28 dollari). Come è possibile
osservare, ai valori estremi dei rendimenti dei fattori di mercato corrispondono valori estremi
dell‟opzione: questo perchè la relazione tra il valore di una call e quello del suo sottostante, anche
se non è lineare, è monotono.
Date S&P500
Rendimento
logaritmico
giornaliero
dell'S&P500
Rank
Rendimento
logaritmico
giornaliero
dell'S&P500
Valore
simulato
dell'indice
S&P500
Valore
simulato
della Call
Variazione
del valore
della Call
02/01/2003 909,03 1 -3,60% 1169,853 0,18 -2,11
03/01/2003 908,59 0,00% 2 -3% 1177,134 0,3 -2
06/01/2003 929,01 2,20% 3 -2,60% 1181,988 0,39% -1,9
07/01/2003 922,93 -0,70%
4 -2,5% 1183,202 0,42 -1,88
08/01/2003 909,93 -1,40% 5 -2,3% 1185,629 0,49 -1,8
09/01/2003 927,57 1,90% 6 -1,9% 1190,483 0,65 1,65
10/01/2003 927,57 0,00% 7 -1,9% 1190,483 0,68 -1,61
13/01/2003 926,26 -0,10% 8 -1,8% 1191,696 0,72 -1,58
14/01/2003 931,66 0,60% 9 -1,8% 1191,696 0,72 -158
15/01/2003 918,22 -1,50% 10 -1,6% 1194,123 0,79 -1,5
16/01/2003 914,6 -0,40% 11 -1,6% 1193,9 0,8 -1,5
... ... ... ... ... ... ... ...
13/12/2004 1198,68 0,90% 490 1,9% 1237,2 6,41 4,12
105
14/12/2004 1203,38 0,40% 491 1,9% 1236,597 6,43 4,14
15/12/2004 1205,72 0,20% 492 2,1% 1239,024 7,2 4,72
16/12/2004 1203,21 -0,20% 493 2,1% 1239,024 7,11 4,81
17/12/2004 1194,2 -0,80% 494 2,2% 1240,238 7,32 5,02
20/12/2004 1194,65 0,00% 495 2,2% 1240,7 7,33 5,03
21/12/2004 1205,45 0,90% 496 2,2% 1240,238 7,36 5,06
22/12/2004 1209,57 0,30% 497 2,3% 1241,451 7,53 5,23
23/12/2004 1210,13 0,00% 498 2,6% 1245,092 8,66 6,36
27/12/2004 1204,92 -0,40% 499 3,4% 1254,8 12,23 9,93
28/12/2004 1213,54 0,70% 500 3,5% 1256,014 12,7 10,4
Tavola 3.16: Calcolo del valore di una Call
Si supponga a questo punto di voler determinare il VaR corrispondente ad un livello di confidenza
pari al 99%. La misura cercata è pari a 1,65 dollari. Tale valore corrisponde infatti alla sesta
variazione negativa più rilevante del valore di mercato dell‟opzione. Poichè il campione in esame è
composto da 500 dati giornalieri, ciò significa che solo in 5 delle 500 variazioni calcolate, ossia solo
nell‟1% dei casi, la perdita subita dalla banca risulterebbe maggiore di quella indicata. Allo stesso
modo, il VaR corrispondente ad un livello di confidenza pari al 98% risulta pari ad 1,5 dollari, ossia
all‟undicesima perdita più elevata.
Se invece la banca avesse venduto l‟opzione in esame, ossia avesse una posizione corta nei
confronti del prezzo dell‟opzione, il VaR corrispondente ai differenti livelli di confidenza andrebbe
calcolato utilizzando i dati relativi alle variazioni positive del valore di mercato dell‟opzione. Così,
per esempio, il VaR corrispondente al 99% di confidenza sarebbe pari a 5,3 dollari. Analogamente,
il VaR corrispondente al 98% di confidenza sarebbe pari a 4,12 dollari.
106
4 - CREDIT RISK
DEFINIZIONE DI CREDIT RISK
Per rischio di credito si intende la possibilità che una variazione inattesa del merito creditizio di una
controparte, nei confronti della quale esiste un‟esposizione, generi una corrispondente variazione
inattesa del valore di mercato della posizione creditoria. Questa definizione, come notano Savona,
et al. (2000), racchiude tre concetti che necessitano di essere esplicitati.
Rischio di migrazione
Anzitutto il rischio di credito non è confinato alla sola insolvenza di una controparte ma include
anche il semplice deterioramento del suo merito creditizio (downgrading). Si consideri per esempio
un prestito a tasso fisso: è evidente che, in presenza di un peggioramento del merito creditizio di un
debitore, il valore di mercato del prestito, determinato dal valore attuale dei flussi di cassa ad esso
associati, subisce una diminuzione. Questo perché il valore attuale dei flussi futuri va determinato
utilizzando un tasso di sconto che, oltre al tasso risk free per la scadenza corrispondente, incorpora
anche un premio al rischio che riflette la probabilità di insolvenza della controparte. Un
downgrading, innalzando tale probabilità, conduce automaticamente ad un corrispondente aumento
del premio al rischio e dunque ad una riduzione del valore attuale.
Il rischio di credito comprende quindi due diversi casi: il rischio di insolvenza (quando il debitore
interrompe i pagamenti) e il rischio di downgrading, detto anche di migrazione. Seguendo questa
logica il rischio di credito va misurato e gestito facendo riferimento non ad una semplice
distribuzione “binaria” dei possibili eventi (insolvenza verso non insolvenza) ma piuttosto ad una
distribuzione, discreta o continua, nella quale l‟insolvenza rappresenta unicamente l‟evento
estremo, preceduto da altri eventi in cui il debitore resta solvibile ma la probabilità di una sua
insolvenza futura si fa via via più elevata.
107
Rischio come evento inatteso
Un secondo concetto implicito nella definizione di partenza riguarda il fatto che affinchè si possa
realmente parlare di rischio occorre che la variazione del merito creditizio della controparte sia
inattesa. Se infatti una banca affida una controparte ritendendo che quest‟ultima potrà subire un
deterioramento della propria qualità, allora tale deterioramento (valutato nella decisione di
affidamento) è normalmente tenuto in considerazione nella determinazione del tasso attivo
(pricing). In altre parole l‟evoluzione attesa delle condizioni economico-finanziarie dell‟affidato
viene considerata in sede di stima della probabilità di insolvenza e quindi nella politica di pricing
(tasso attivo). La reale componente di rischio è rappresentata dalla possibilità che le valutazioni
effettuate si manifestino a posteriori errate, ossia che si verifichi un deterioramento della
controparte non previsto dall‟istituzione finanziaria creditrice. In questo senso il concetto di rischio
riguarda propriamente solo gli eventi che, seppure stimabili, risultano inattesi.
Esposizioni creditizie
Un terzo punto da richiamare riguarda il concetto di esposizione creditizia. Il rischio di credito non
è limitato agli impieghi classici di una banca (prestiti in bilancio) ma si estende anche alle posizioni
fuori bilancio come le garanzie prestate, gli strumenti derivati negoziati over the counter (sui quali
esiste un rischio di sostituzione o di pre-regolamento) e le transazioni in titoli, in valute o derivati in
attesa di regolamento (rischio di regolamento).
Eventi creditizi
Prima di proseguire nelle nostre argomentazioni vogliamo richiamare alcuni concetti base relativi
agli eventi creditizi e agli asset associati con i suddetti eventi creditizi, tratti da Banks (2010).
Bancarotta: è lo stato in cui una società o un individuo non è in grado di rispettare gli obblighi
assunti e ricorre al tribunale fallimentare. La procedura prevede l'inoltro di una istanza di
fallimento, a seguito della quale si attiva una sospensione automatica degli atti procedurali con cui
viene proibita la presentazione di azioni legali e si impedisce ai creditori di liquidare le garanzie o
di tentare di recuperare le somme dovute.
108
Fallimento nel pagamento di un‟obbligazione: è il rischio che il prenditore di fondi/obbligato a cui
facciamo riferimento sia insolvente per una delle sue obbligazioni, come ad esempio un titolo
emesso o un prestito.
Ristrutturazione del debito: è il processo di “sistemazione” del debito di una società per ridurre la
possibilità di ulteriori difficoltà finanziarie e/o per evitare il fallimento. In genere si stabilisce un
accordo tra mutuatario e mutuante per cambiare le condizioni esistenti del prestito, inclusi il piano
di rimborso, la scadenza e il tasso, al fine di evitare il default. Una ristrutturazione, di solito, lascia i
creditori con un valore inferiore e/o con un maggiore rischio di credito, mentre per la società
produce un onere del debito maggiormente gestibile.
Volendo definire gli asset associati ai suddetti eventi creditizi, possiamo suddividere gli impieghi
deteriorati o problematici in quattro categorie: incagli, esposizioni ristrutturate, sofferenze ed
esposizioni scadute e/o sconfinanti (Banca d'Italia (2008) e Banca d'Italia (1990)).
Le sofferenze rappresentano esposizioni per cassa e fuori bilancio (finanziamenti, titoli, derivati,
etc.) nei confronti di un soggetto in stato di insolvenza (anche non accertato giudizialmente) o in
situazioni sostanzialmente equiparabili, indipendentemente dalle eventuali previsioni di perdita
formulate dall‟azienda.
Le partite incagliate sono esposizioni per cassa e fuori bilancio (finanziamenti, titoli, derivati, etc.)
nei confronti di soggetti in temporanea situazione di obiettiva difficoltà, che sia prevedibile possa
essere rimossa in un congruo periodo di tempo.
Le esposizioni ristrutturate sono esposizioni per cassa e fuori bilancio (finanziamenti, titoli, derivati,
etc.) per le quali una banca (o un pool di banche), a causa del deterioramento delle condizioni
economico-finanziarie del debitore, acconsente a modifiche delle originarie condizioni contrattuali
(ad esempio, riscadenzamento dei termini, riduzione del debito e/o degli interessi) che diano luogo a
una perdita.
Le esposizoni scadute e/o sconfinanti sono esposizioni per cassa e “fuori bilancio” (titoli, derivati,
etc.) diverse da quelle classificate a sofferenza, incaglio o fra le esposizioni ristrutturate che alla
data di riferimento della segnalazione sono scadute o sconfinanti da oltre 90 giorni (fino al
31/12/2011 per le esposizioni nei confronti dei soggetti residenti o aventi sede in Italia si applica un
limite di 180 giorni anzichè di 90).
109
EXPECTED E UNEXPECTED LOSSES
Nella decisione di affidare una controparte la banca, in genere, tiene conto dell‟esistenza di una
probabilità non nulla di inadempienza della controparte e della possibilità di un aumento della stessa
nel tempo. Tale valutazione si riflette in una quantificazione dell‟ammontare delle perdite che la
banca si attende dall‟erogazione del credito.
“In linea di principio, la perdita attesa (expected loss, EL) di per sè non costituisce un problema per
la banca; infatti se le perdite eguagliassero sempre l‟ammontare atteso e la banca accantonasse fondi
per pari ammontare, non vi sarebbe alcuna incertezza sulle condizioni di profittabilità e quindi
alcuna conseguenza negativa sul reddito futuro. Il rischio in realtà si manifesta per effetto della
possibilità che le perdite possano risultare superiori a quelle attese; in altri termini, dalla possibilità
che si possa manifestare una perdita inattesa (unexpected loss, UL)” (Lusignani, 2004). Le
metodologie di misurazione delle componenti di perdita attesa ed inattesa devono essere capaci di
rappresentare il rischio non solo della singola transazione creditizia ma anche di un insieme di esse,
come ad esempio un portafoglio di crediti. Deve essere cioè possibile evidenziare gli effetti
dell‟aggregazione delle singole posizioni creditizie all‟interno di un portafoglio e quantificarne, se
esistono, gli effetti positivi in termini di riduzione del rischio. Come sappiamo, infatti,
l‟aggregazione delle singole transazioni in un portafoglio può dar luogo a rilevanti benefici di
diversificazione.
Cominciamo intanto ad analizzare i principali fattori che concorrono a determinare le componenti di
perdita attesa e perdita inattesa per le singole transazioni, adottando l‟approccio mark to market22
(MTM) che quantifica le perdite, sia singole che di un portafoglio, non solo in base all‟evento di
default ma anche di un deterioramento del merito di credito dell‟emittente. “Il rischio, quindi, non si
connette al solo fenomeno di insolvenza (default risk), ma anche alla possibile migrazione della
controparte verso classi di merito creditizio con probabilità di insolvenza superiore (migration
risk)” (Saita, 2000).
22
All‟approccio mark to market si contrappone l‟approccio default mode (DM) che identifica le misure di perdita attesa
ed inattesa ipotizzando che l‟evento che genera tali perdite sia riconducibile alla sola condizione di insolvenza.
110
Consideriamo il caso di un‟azienda immobiliare con un debito di 300 milioni di obbligazioni in
scadenza tra due anni (Gabbi 2, 2010). Ipotizziamo che essa abbia subito un abbassamento del
proprio rating da A2 a Baa1 (tavola 4.2).
Tavola 4.1: Cradit Rating e rischio
Dal momento che l‟obbligazione ha una scadenza di due anni, non possiamo escludere che prima
del rimborso possano capitare alla controparte presa in esame uno o più degli eventi creditizi che
sono stati sopra definiti. Questo è il motivo per cui diciamo che l‟ammontare del debito può essere
definito come una exposure at default. La seconda informazione è che il prenditore ha un merito
creditizio inferiore a quello precedente, merito che è stato assegnato da un‟agenzia di rating: questo
significa che secondo l‟agenzia si è accresciuta la probabilità di un evento creditizio sfavorevole. Le
agenzie di rating forniscono delle tavole (come quella riportata di seguito) che evidenziano le
expected loss (in termini percentuali) dei crediti in relazione al tempo ed alla classe di rating.
Tavola 4.2: Rating ed expected loss
111
Con questa tavola tratta da Gabbi (2010) possiamo stimare le perdite attese di questo credito prima
e dopo la decisione dell‟agenzia di rating. Vediamo che in rosso è evidenziata l‟expected loss per un
impiego od un bond con scadenza a due anni emesso da un‟azienda con rating A2, mentre in blu
quello di un‟azienda con rating Baa1. Sulla base del rating di partenza uguale ad A2 l‟expected loss
era pari a 115.500 euro (300.000.000 * 0,0385%); dopo il downgrading, il valore dell‟impiego
rimane uguale ma osserviamo una variazione delle expected loss che risultano pari a 462.000 euro
(300.000.000 * 0,154%). Il downgrading ha generato pertanto una crescita delle expected loss pari a
346.500 euro.
Per calcolare le perdite attese, il primo fattore che deve essere definito sono le probabilità di
default (PD), i cui valori sono riportati nella tavola seguente.
Tavola 4.3: Rating e PD
Se applichiamo i valori relativi alle probability of default associate alle diverse classi di rating,
moltiplicandoli per l‟ammontare dell‟impiego/obbligazione, otteniamo, nel caso di un‟azienda con
rating A2, 210.000 euro (300.000.000 * 0,07%) e nel caso di un‟azienda con rating Baa 1, 840.000
euro (300.000.000 * 0,28%): perché questi valori sono così differenti da quelli che avevamo stimato
in precedenza? Ciò è dovuto al fatto che nell‟evenienza di un default, di solito, una certa
percentuale del valore dell‟esposizione creditizia è recuperata. Infatti, ipotizziamo un recovery rate
pari al 45 per cento: in questo caso non perdiamo tutto il precedente ammontare, ma solo il 55 per
cento dello stesso. Ciò significa che per stimare le expected loss dobbiamo moltiplicare questo
valore (55 per cento) per l‟ammontare precedentemente stabilito.
112
210000 X 0,55 = 115462
840000 X 0,55 = 462000
-----------
346500
Il risultato finale è esattamente lo stesso che avevamo stimato come expected loss nel caso dei due
rating assegnati al debito.
Possiamo a questo punto passare ad una definizione più formale di perdita attesa. Al momento
dell‟erogazione del credito la banca dovrà, in primo luogo, valutare la probabilità che alla fine del
periodo (ad esempio un anno) il prenditore si possa trovare nella situazione di inadempienza
(Lusignani, 2004). Dovrà inoltre valutare, nel caso in cui si verifichi lo stato di insolvenza, quanta
parte del credito concesso potrà essere recuperata ed infine dovrà valutare quale potrà essere l‟entità
della propria esposizione creditizia (nel nostro esempio, per semplicità, quest‟ultima è rimasta
costante). Al momento dell‟erogazione del credito, la banca può quindi calcolare la perdita attesa
(EL) come prodotto delle seguenti tre componenti:
EL = PD * EAD * LGD
dove PD (Probability of Default) è la probabilità di inadempienza (insolvenza o mancato
pagamento), EAD (Exposure at Default) è l‟esposizione nel momento in cui si verifica
l‟inadempienza e LGD (Loss Given Default) è l‟ammontare di perdita al verificarsi dello stato di
inadempienza.
Per concludere possiamo affermare che le perdite attese sono perdite di tipo statistico, che si
realizzano in media, o ci si attende possano rappresentare la tendenza per l‟ammontare di perdite
che sono per loro natura incerte. Dal momento che questa è un‟aspettativa, può essere inclusa nel
rpicing dell‟operazione e rappresentare un costo dell‟operazione.
113
CREDIT RISK DRIVERS
Abbiamo fin qui visto i tre principali fattori che spiegano le perdite creditizie. Vogliamo ora chiarire
alcuni dei principali processi utilizzati per stimare il valore di queste componenti. I prossimi
paragrafi saranno pertanto dedicati all‟esame dell‟Exposure at Default, della Probabilità di Default
e della Loss Given Default.
Exposure at Default
L‟esposizione creditizia è una categoria logica suscettibile di diversi approfondimenti. In primo
luogo “si può osservare che sulle linee di credito a utilizzo discrezionale, l‟ammontare
dell‟esposizione al momento dell‟insolvenza tende ad essere superiore al livello di utilizzo corrente.
Viceversa, nei prestiti con piano di rientro predefinito, l‟esposizione residua al verificarsi
dell‟insolvenza è normalmente inferiore a quella corrente. Occorre dunque stimare l‟esposizione
attesa al momento dell‟insolvenza (EAD, exposure at default) tenendo conto dei comportamenti
tipici dei debitori e delle singole forme tecniche” (De Laurentis, 2001).
Secondo la vigilanza, l‟esposizone al momento del default (EAD) ricomprende il valore delle
attività di rischio per cassa e fuori bilancio. Per le operazioni fuori bilancio (garanzie rilasciate ed
impegni) l‟EAD viene determinata mediante un fattore di conversione creditizia (Credit Conversion
Factor, CCF) che rappresenta il rapporto tra la parte non utilizzata della linea di credito, che si
stima possa essere utilizzata in caso di default e la parte attualmente non utilizzata (Banca d'Italia,
Circolare n. 263 del 27 Dicembre 2006).
Da un punto di vista gestionale, come notano Moral (2009) e Gabbi (2) (2010), la stima dell‟EAD
richiede di misurare la parte utilizzata di un impiego (Drawn Portion), la parte non utilizzata
(Undrawn Portion) e un fattore di conversione creditizia (Credit Conversion Factor) che
rappresenta la percentuale della parte non utilizzata che potrebbe essere utilizzata dal prenditore in
un periodo vicino al default. La formula dell‟EAD è la seguente:
EAD = DP + UP*CCF
114
Figura 4.1: Spread di un prestito con rating BBB tra il 1991 ed il 2008
La Figura 3 mostra la serie temporale dei credit spread applicati alla parte utilizzata e alla parte non
utilizzata dei prestiti sindacati con rating BBB dal 1991 al 2009. Il picco registrato nell‟ultimo
periodo è spiegato con la crisi finanziaria dei sub-prime e con il fallimento di Lehman Brothers.
I tre fattori che spiegano l‟EAD dipendono dalla tipologia contrattuale del credito, dal rating, dalle
condizioni macroeconomiche e dalle caratteristiche geografiche o settoriali della controparte. Nel
caso di esposizioni fisse, come per esempio bullet e term loan, per il calcolo dell‟EAD si utilizza
normalmente il saldo contabile di bilancio; nel caso invece di esposizioni variabili, come le normali
aperture di credito in conto corrente (scoperto di conto), risulta insufficiente. Le banche in questo
caso devono stimare per ogni esposizione del proprio portafoglio l‟EAD, anche se non ci sono
regole strettamente prescrittive sulla metodologia da adottare. Per arrivare all‟effettivo calcolo
finale dell‟EAD occorre avere un data set relativo alle osservazioni storiche della parte utilizzata e
non utilizzata della facilitazione creditizia. Bisogna ricostruire la distribuzione dell‟EAD e utilizzare
una variabile random per modellizzarla (Moral, 2009).
115
Dal momento che per la maggioranza dei contratti la parte utilizzata e non utilizzata è definita
contrattualmente, uno dei maggiori problemi è quello di stimare il credit conversion factor (CCF).
0%
50%
100%
150%
200%
250%
300%
350%
400%
AAA-BBB BB B CCC-CC C
Figura 4.2: Relazione tra il Credit Conversion Factor e lo standing di un prenditore
La figura sopra riportata (Figura 4.2) mostra che il CCF dipende dallo “standing” del prenditore: ai
migliori clienti (le controparti più solide finanziariamente) è concesso infatti di usare ed “abusare”
della porzione non utilizzata, mentre i prenditori ad alto rischio hanno maggiori vincoli per
utilizzare più di quanto originariamente stabilito. Inoltre, il rischio di EAD è direttamente correlato
alla dimensione dell‟azienda, alla profittabilità e alla qualità delle garanzie. Naturalmente il rischio
di EAD è più elevato nelle fasi espansive del ciclo. Il livello di esposizione dipende inoltre dalla
scadenza del credito.
Da un punto di vista operativo, la costruzione di un modello per l‟EAD prevede sei differenti fasi
(Gabbi (2), 2010):
1. definire il metodo di misurazione;
2. identificare un adeguato data set di informazioni relativo ai risk driver;
3. raccogliere dati e preparare il database;
4. calcolo del Credit Conversion Factor per ogni esposizione creditizia;
5. scegliere il modello predittivo in grado di generare la forward looking exposure at default;
6. validare e fare il back test sui risultati del modello, per confermare la qualità delle stime.
116
Probability of default
Il secondo fattore che spiega le Expected Loss è la probabilità di default (PD). I modelli
tradizionalmente più diffusi per la previsione dell‟insolvenza di un‟impresa sono modelli di natura
quantitativa. All‟interno di questi modelli occorre segnalare in particolare i modelli di credit scoring
basati su indicatori economico/finanziari dell‟azienda da valutare e quelli basati su modelli di
option pricing, secondo l‟approccio proposto da Merton (1974). Il tratto comune dei modelli di
scoring consiste nel tentativo di distinguere, sulla base dell‟analisi di una serie di indicatori
economico-finanziari, tratti prevalentemente dai bilanci societari, le aziende indagate tra quelle
“sane” e “anomale”. I modelli di scoring non hanno normalmente come risultato la formulazione di
una probabilità di insolvenza, ma possono essere utilizzati per determinare tale probabilità. I
modelli basati sull‟option pricing prendono le mosse dal contributo di Merton secondo il quale la
componente azionaria di una società può essere interpretata come un‟opzione call sul valore delle
proprie attività avente come prezzo di esercizio il valore del debito contratto. Secondo tale
approccio l‟insolvenza di un‟impresa si verifica quando il valore delle sue attività scende al di sotto
del valore del debito; conoscendo il valore del debito, il valore dell‟attivo e la sua volatilità, sarà
dunque possibile stimare la probabilità di default dell‟impresa stessa (Saita, 2000).
A queste metodologie di tipo matematico-statistico si contrappongono metodologie di natura
maggiormente qualitativa, quali quelle seguite dalle agenzie internazionali di rating (Moody‟s,
Standard and Poor‟s e Fitch Ratings) o dalle banche con i loro sistemi di rating interno. Per rating si
deve intendere la classificazione di un prenditore o di una specifica operazione in una tra più classi
di rischio creditizio predefinite in modo contiguo e ordinale (di norma indicate con lettere o numeri)
a cui a seguito della fase di rating quantification (descritta nelle pagine seguenti) sono collegati
tassi attesi di insolvenza o di perdita diversi. L‟assegnazione di un rating interno consente di
discriminare tra le differenti operazioni accettate, in funzione del rischio associato ad ognuna di
esse. In questo contesto vi possono essere significative differenze tra banca e banca. Esistono,
tuttavia, alcuni punti fermi, che non trattiamo ma enunciamo semplicemente e che sono relativi a: la
scelta del numero di classi di rating, la selezione delle informazioni rilevanti, la scelta di una
definizione di insolvenza, il passaggio dal rating di PD alla valutazione delle diverse esposizioni
creditizie, i tempi e le logiche di revisione del rating (De Laurentis, et al., 2005). La figura seguente
da un‟idea dei criteri utilizzati nella fase di rating assignement.
117
Figura 4.3: Il rating assignement
Negli ultimi decenni, le banche che hanno sviluppato sistemi di rating della clientela hanno
generalmente attinto ad entrambi gli approcci sopra riportati (metodologie matematico-statistiche e
metodologie maggiormente qualitative). Così, per esempio, l‟attribuzione del rating ad una media
impresa è spesso basato, insieme, sull‟output di un modello quantitativo (ad esempio analisi
discriminante) e su analisi qualitative (riguardanti per esempio la posizione competitiva
dell‟impresa, il suo portafoglio prodotti, etc.).
Ci sono differenti modi di “disegnare” un sistema di rating di un‟azienda; ai fini della successiva
trattazione è importante soffermarci sulla distinzione tra rating “point in time” (PPT) e rating
“through the cycle” (TTC) (Resti, et al., 2007). Nel primo caso (PIT) il rating deve essere il più
possibile reattivo, cioè capace di riflettere in modo immediato eventuali variazioni delle condizioni
economico-finanziarie. Il rating through the cycle, invece, tende ad attribuire giudizi il più possibile
stabili e robusti rispetto all‟evoluzione di medio-lungo periodo dell‟impresa valutata e sono
relativamente indipendenti dai cambiamenti ciclici del merito creditizio di un cliente. Usualmente si
dice che le agenzie di rating danno il loro rating seguendo una prospettiva through the cycle mentre
le banche tendono ad utilizzare rating point in time, che cambiano a seconda della fase del ciclo
economico. Infatti, l‟attività delle agenzie e delle banche è guidata da un diverso sistema di
incentivi: nel primo caso l‟obiettivo è quello di offrire un‟opinione indipendente agli investitori
(independent credit opinion), fondata su criteri il più possibile oggettivi e precisi. Le agenzie di
rating, pur ricevendo commissioni dalle società oggetto di valutazione, devono assolutamente
118
tutelare la propria reputazione, ossia la credibilità dei propri giudizi, per garantire la propria stessa
sopravvivenza. Vanno dunque limitati al minimo i casi in cui un deterioramento della qualità
creditizia dell‟emittente contraddice le valutazioni precedentemente emesse dall‟agenzia,
costringendola a rivedere il proprio giudizio in senso peggiorativo. Questo significa che se
l‟economia attraversa una fase di espansione ma si ritiene che l‟emittente potrebbe diventare più
rischioso in presenza di una recessione, verrà assegnato un rating più basso che in qualche modo
anticipa gli effetti negativi dei possibili peggioramenti futuri del ciclo economico. Nel caso dei
rating interni, invece, la banca è insieme autore e destinatario delle proprie valutazioni, ed è
interessata a tutelare i propri prestiti e non tanto la propria reputazione di analista “infallibile”. Non
interessa cioè la stabilità del rating (e la sua capacità di anticipare valutazioni di medio-lungo
periodo), quanto la sua capacità di riflettere le condizioni attuali, segnalando tempestivamente
eventuali deterioramenti.
Quantificazione dei rating
Una volta classificati in classi di rating, i debitori e/o le linee di fido, si entra in una fase in cui
occorre quantificare il livello di rischio racchiuso nelle singole classi di rating (De Laurentis,
2001). Si passa così dai rating intesi come classificazioni discrete e ordinali del rischio alle misure
cardinali delle probabilità di default e di perdita associate alle singole classi di rating. Esistono in
proposito tre possibili approcci (Resti, et al., 2008):
l‟approccio statistico, che prevede che la PD venga calcolata per ogni singolo debitore a
partire dal valore del punteggio ottenuto con un modello di scoring. Tale approccio, se da un
lato è rapido e consente di assegnare ad ogni cliente una PD specifica, dall‟altro soffre di
due limitazioni. In primo luogo è praticabile soltanto quando la valutazione del cliente è
avvenuta attraverso un modello statistico (e non in caso di valutazione qualitativa operata da
un esperto). In secondo luogo, può basarsi su ipotesi di lavoro scarsamente realistiche. Un
esempio è quello delle PD ricavate dagli score di analisi discriminante che ipotizzano che la
distribuzione delle variabili utilizzate nello score sia di tipo normale multivariato. Queste
due limitazioni fanno si che l‟approccio statistico venga utilizzato raramente e con molta
cautela;
l‟approccio attuariale o delle frequenze di default, che prevede che il tasso di insolvenza
passato, registrato sulle diverse classi di rating, venga utilizzato come stima della PD futura
119
dei debitori assegnati alle differenti classi. Così, per esempio, se i dati passati mostrano che
l‟1 per cento dei clienti assegnati alla classe BB tende a fallire entro un anno, una PD dell‟1
per cento verrà assegnata a tutti i debitori oggi presenti in tale classe. Questo approccio, che
è alla base delle tavole presentate in precedenza, è generalmente seguito dalle agenzie di
rating che periodicamente diffondono statistiche sui default registrati negli anni e decenni
precedenti. Anche molte banche adottano questo approccio, ma i relativi risultati non
vengono resi pubblici;
l‟approccio del mapping. Proprio perché esistono dati pubblici per i tassi di default dei rating
emessi da agenzie, molte banche trovano utile stabilire una corrispondenza (mapping) tra i
propri rating interni e quelli di Moody‟s e Standard&Poor‟s e utilizzare quindi i tassi di
default pubblicati dalle agenzie come stima delle PD associate ai propri rating interni.
Figura 4.4: Correlazione tra rating e probabilità di default di un prenditore
L’approccio attuariale
A partire dagli anni ‟90 le principali agenzie di rating internazionali hanno iniziato a rendere
pubblici i dati relativi ai tassi di insolvenza o mortalità registrati dalle imprese dotate di rating.
Vengono inoltre diffusi periodicamente dati sulle variazioni di rating (migration) ossia sulla
frequenza con cui le imprese delle diverse classi di rating migrano verso altre classi (tassi di
migrazione). Simili dati vengono organizzati in matrici, dette matrici di transizione, di cui
riportiamo un esempio.
120
Figura 4.5: Matrice di transizione ad un anno
Dalla Figura 4.5 emerge in primo luogo che le classi di rating migliori sono caratterizzate da una
maggiore stabilità: per esempio, dai dati di Standard & Poor‟s emerge che un soggetto classificato
AAA ha una probabilità dell‟88,39 per cento di rimanere nella medesima classe dopo un anno. Tale
probabilità scende al 46,96 per cento per un soggetto inizialmente classificato CCC. In secondo
luogo è interessante notare che le classi di rating migliori (rispettivamente AAA e AA) hanno una
frequenza di default praticamente nulla. Se dunque ci concentrassimo sulla sola insolvenza,
finiremmo per considerare questo tipo di esposizioni praticamente prive di rischio. In realtà si nota
che chi investe, per esempio, in un‟obbligazione AAA, ha una probabilità pari al 7,63 per cento che
questa subisca un downgrading. Una matrice di transizione presenta un soddisfacente potere
discriminante quando:
le frequenze di default (default rate) sono più alte nel caso delle classi di rating peggiori;
i valori sulla diagonale sono elevati, il che indica che i rating sono stabili e forward looking;
i tassi di migrazione rispetto alle classi più “vicine” sono più alti dei tassi di migrazione
rispetto alle classi più “lontane”;
I rating delle agenzie, data la loro ampia disponibilità di serie storiche di dati, rappresentano dei
validi benchmark per i rating delle banche.
Se si confronta la matrice ad un anno (Figura 4.5) con una a cinque anni (Figura 4.6), si nota subito
che la stabilità dei rating è assai più bassa.
121
Figura 4.6: Matrice di transizione a 5 anni
La ragione risiede nella componente di decadimento dei rating che è presente anche quando essi
sono stimati con tecniche through the cycle.
La determinazione della Loss Given Default e del Recovery Rate
Per ottenere la valutazione della perdita attesa, come abbiamo visto, occorre aggiungere un ulteriore
elemento che è rappresentato dalla stima della perdita in caso di insolvenza (LGD, Loss Given
Default) o alternativamente del tasso di recupero del credito (RR, Recovery Rate) che rappresenta il
complemento a 1 della LGD. Numerose variabili interessano il Recovery Rate di un titolo o di un
prestito: il ciclo economico, la classe di seniority, il settore di appartenenza del mutuatario, i costi di
recupero sostenuti dalla banca. Sicuramente il Recovery Rate dipende dal ciclo economico: i periodi
di recessione sono caratterizzati da una minore capacità di recupero crediti. Negli utlimi anni sono
stati sviluppati nuovi approcci che modellizzano in modo esplicito ed analizzano empiricamente la
relazione tra PD e Recovery Rate. Tali modelli si basano sull‟ipotesi che le stesse condizioni
economiche che provocano i default possono causare anche la riduzione dei Recovery Rate. La
correlazione tra queste due variabili deriva pertanto dalla dipendenza di entrambe dal fattore
sistematico (Altman, et al., 2004).
Nel calcolo della LGD la soluzione tipica è quella di basarsi o sulle caratteristiche della singola
operazione oppure su quelle del settore di appartenenza dell‟impresa. Tralasciamo, perchè al di là
degli scopi di questa tesi, un‟analisi più approfondita del tema e rimandiamo quindi alla letteratura.
122
CREDIT MODEL PORTFOLIO
La Probability of Default ed i sistemi di rating, ancorchè rappresentino una parte essenziale per la
misurazione del rischio di credito, si limitano alla misurazione del rischio specifico di ogni
controparte. Ma compito del Credit Risk Management è valutare sia il rischio specifico che quello
dell‟intero portafoglio: infatti, la somma dei rischi specifici di ogni controparte ricompresa in un
portafoglio non è necessariamente uguale al rischio dell‟intero portafoglio a causa della presenza di
effetti di concentrazione e di correlazione.
Se si dovesse dare una definizione più precisa del rischio di credito di un portafoglio di prestiti
potremmo dire che esso è pari alla variazione del valore di un portafoglio creditizio dovuto al
fallimento di alcune controparti nel far fronte ai propri obblighi o al cambiamento nella percezione
del mercato riguardo l‟incapacità di continuare ad onorarli (Resti, et al., 2008). Più chiaramente:
quando prendiamo in considerazione un basket di prestiti (credit portfolio) siamo di fronte ad un
rischio speculativo, nel senso che esiste la possibilità di un guadagno o di una perdita di natura
finanziaria. Tutte le banche si aspettano che una frazione delle loro controparti possa fallire.
Quando la perdita effettiva è più alta di quella attesa, la banca si trova di fronte ad una perdita
inattesa; viceversa, quando la perdita effettiva è più bassa di quella attesa la banca registra una
crescita del proprio reddito.
Avevamo già accennato in precedenza che nell‟ambito del Credit Risk Management deve essere
fatta un‟importante distinzione tra perdite attese e perdite inattese, che dipendono dalla volatilità dei
fattori esplicativi (driver) utilizzati per stimare lo standing del prenditore di fondi.
Unexpected loss
Le unexpected loss rappresentano il “cuore” del rischio di credito e sono misurate dalla varianza
delle perdite rispetto alla media attesa. È chiaro che più alta è l‟incertezza nello stimare i tre driver
precedentemente definiti (PD, LGD, EAD) maggiore sarà la perdita inattesa. Inoltre, quest‟ultima
dipende da altri fattori, tra i quali sottolineiamo il rischio di correlazione e quello di concentrazione.
La concentrazione chiarisce perché è più rischioso prestare 10 milioni di euro a 10 aziende piuttosto
123
che prestare 100 mila euro a 1.000 aziende. La correlazione descrive la sensitività del portafoglio ai
cambiamenti dei fattori macroeconomici e fa capire perché è più rischioso prestare denaro a settori
molto ciclici. Su questi due ultimi aspetti si veda la figura seguente, tratta da Garside, et al., (1999).
Figura 4.7: La diversificazione del rischio
Esistono diversi modi per quantificare la perdita inattesa. Il più semplice è la deviazione standard
(volatilità) della distribuzione di probabilità delle perdite future. In alternativa, è possibile fare
riferimento ad un percentile della distribuzione delle perdite future, determinato secondo un certo
livello di confidenza (Resti, et al., 2008). Questo secondo approccio conduce ad una misura di
valore a rischio simile a quelle già viste per il rischio di mercato. La misurazione del rischio di
credito, in realtà, rappresenta un compito assai più arduo di quanto non accade nel caso dei rischi di
mercato. Ciò è dovuto in particolare a tre probemi chiave (Saita, 2000):
la non normalità della distribuzione sia dei rendimenti delle posizioni che dei tassi di
perdita;
la complessità nella determinazione dell‟effetto delle correlazioni tra posizioni diverse nel
calcolo del VaR di portafoglio;
la disomogeneità e la scarsità dei dati disponibili per la stima del rischio di credito.
124
Il primo aspetto è particolarmente evidente:
a) la media delle distribuzioni delle perdite non è nulla ma maggiore di zero. Si tratta infatti
della somma delle perdite attese sui singoli crediti che compongono il portafoglio;
b) la distribuzione delle perdite è fortemente asimmetrica: a fronte di una perdita minima pari a
zero (che costituisce il miglior risultato possibile per il detentore dell‟esposizione) e di una
elevata probabilità di ottenere perdite contenute, vi è una probabilità non nulla di ottenere
perdite estremamente elevate. La distribuzione dei tassi di perdita risulta dunque limitata ad
un estremo e caratterizzata da un‟unica lunga coda all‟altro estremo, a differenza della
distribuzione normale, mostrando una skeweness consistente (vedi la figura seguente).
Figura 4.8: La distribuzione delle perdite su credito
Secondariamente, l‟analisi dell‟impatto delle correlazioni tra le diverse posizioni ai fini della
determinazone del VaR di portafoglio, risulta, nel caso del rischio di credito, più complessa, sia
come conseguenza della già citata non normalità della distribuzione dei tassi di perdita, sia
soprattutto per la difficoltà ad individuare le determinanti della diversificazione stessa. Infatti, nel
caso del rischio di credito, l‟individuazione dei fattori di rischio e la riconduzione mediante il
mapping dell‟esposizione originaria ai singoli fattori appare problematica. Il primo problema è
rappresentato dalla scelta dei fattori di rischio, ovvero di quei fattori comuni alle diverse posizioni
creditorie che dovrebbero consentire di spiegare l‟andamento del portafoglio complessivo.
Identificare tali fattori nella classe di merito creditizio dell‟affidato (identificata ad esempio dalla
classe di rating della controparte) rappresenta una possibile scelta per il mapping delle posizioni;
una soluzione alternativa può essere rappresentata dal tentativo di scomporre l‟esposizione in
funzione della sensibilità ad un determinato insieme di variabili macroeconomiche. “Idealmente, la
125
scelta del modello di mapping da adottare dovrebbe tener conto della necessità di stimare sia
l‟andamento e le correlazioni dei diversi fattori di rischio, sia soprattutto la relazione tra variazione
del valore della posizione e variazione dei fattori di rischio. Ciò rappresenta un compito non molto
complesso nel caso dei rischi di mercato, mentre può costituire un problema ben maggiore nel caso
dei rischi di credito: si pensi ad esempio al tentativo di ricostruire il legame tra il valore di un
credito concesso ad un‟impresa operante nel settore alimentare e l‟andamento di fattori di rischio
quali il tasso di crescita del PIL o il saldo delle partite correnti” (Saita, 2000).
Ai nostri fini, non merita invece particolare attenzione l‟analisi dell‟ultimo problema aperto, ovvero
la disomogeneità e scarsità dei dati a disposizione. Diciamo solo che in mancanza di statistiche
relative al rischio di credito, spesso si ricorre a quelle disponibili sul mercato dei bond, con
riferimento prevalente al mercato statunitense (sulla cui adattabilità alla stima delle perdite dei
prestiti bancari si possono nutrire non poche perplessità).
La perdita inattesa per un impiego/bond
Se la perdita attesa è data dal valore medio di una distribuzione di perdita, la perdita inattesa (UL) è
riconducibile alla volatilità delle perdite attorno al loro valore medio. Nell‟approccio default mode,
come abbiamo visto, la variabilità del tasso di perdita dipende solamente dalla possibilità che
nell‟arco dell‟orizzonte temporale prescelto si manifesti l‟inadempienza della controparte affidata;
di conseguenza il valore di un‟esposizione creditizia può essere misurata sulla base di una
distribuzione binomiale23
. Ricordando che la perdita attesa è il prodotto tra PD, EAD e LGD, che in
talune situazioni possono risultare tra loro indipendenti, può essere applicato un teorema della
statistica secondo il quale la deviazione standard del prodotto di variabili indipendenti è una
funzione della media e della variazione di tali variabili (Lusignani, 2004). Il seguente esempio, in
cui stimiamo le perdite inattese di tre bond, cercherà di chiarire quanto appena detto.
23
Nell‟approccio default mode l‟evento del fallimento può essere rappresentato da una variabile binomiale, che assume
valore 1 (con probabilità PD) in caso di insolvenza del prenditore e valore 0 con probabilità 1-PD nel caso opposto di
sopravvivenza.
126
Esempio numerico - stima della unexpected loss per bond
Ipotizziamo che i tre bond presentino le caratteristiche sotto riportate24
:
Tavola 4.4: Caratteristiche di tre bond
Generalmente è fondamentale conoscere, per questo calcolo, la volatilità sia della LGD che della
PD. In questo esempio semplificato consideriamo l‟EAD come costante. Per quanto riguarda la PD,
il problema può essere superato introducendo l‟ipotesi di distribuzione binomiale della stessa.
Le perdite inattese sarebbero determinate da:
l‟aumento inaspettato dell‟EAD;
l‟aumento inaspettato delle PD;
una diminuzione inaspettata dei tassi di recupero (ovvero un aumento della LGD).
Per quanto riguarda la prima ipotesi, sappiamo che la volatilità dell‟EAD dipende dalle
caratteristiche tecniche di ogni singolo strumento. Per esempio, nel caso di un bond, la volatilità
dell‟EAD può essere considerata nulla, poichè una volta acquistato il bond non è più possibile
cambiarne l‟ammontare per tutta la scadenza. Nel nostro esempio, in cui consideriamo 3 bond, i dati
relativi alle EAD rimangono invariati: sotto questa ipotesi rimane da stimare la volatilità della PD
(dal momento che quella della LGD è conosciuta).
Possiamo ora riscrivere la nostra equazione generale:
UL=PD x EAD x LGD
come:
UL = EAD x ζ(IEL)
24
L‟esempio è tratto da Gabbi (2010).
127
con IEL che indica le perdite attese idealizzate date dal prodotto di PD ed LGD. Volendo stimare la
volatilità del prodotto di due variabili, siano esse Z e Y, random ed indipendenti e definendo
X=Y*Z, la varianza di X sarà data da:
dove μY e μZ rappresentano rispettivamente la media della variabile Y e della variabile Z. Poiche
l‟unexpecetd loss è calcolata come EAD * deviazione standard * (PD * LGD), risulta che:
Dobbiamo ora introdurre una nuova ipotesi: poichè ci troviamo in presenza di bond, possiamo
approssimare il rischio di credito a quello di una variabile binomiale, che quindi può presentare
solamente due stati di natura, nel nostro caso, default o non default. La PD sarà quindi la probabilità
che il bond vada in default e (1-PD) sarà la probabilità che ciò non avvenga. Una proprietà di questa
distribuzione è che la sua varianza può essere calcolata come:
Risulta adesso possibile calcolare le perdite inattese per ognuno dei tre bond; nel caso del bond con
rating AA, esse saranno pari a:
Lo stesso procedimento può essere effettuato per gli altri due bond. Il risultato finale è quindi:
EAD PD LGD PD*(1-PD) sigma (LGD) UL
200.000.000 0,73% 46,20% 0,72% 4,28% 7.899.719
5.000.000 1,06% 61,48% 1,05% 9,11% 318.467
10.000.000 6,05% 82,91% 5,68% 28,72% 2.089.373
Tavola 4.5: Calcolo delle unexpected loss per tre bond
Tuttavia, nel caso in cui le ipotesi di indipendenza delle tre componenti risultassero irrealistiche, la
quantificazione della perdita attesa diventa più complessa. Ciò richiede di analizzare le modalità di
variazione congiunta delle tre componenti (Lusignani, 2004). La complessità analitica di questa
222222
ZYZYYZX
222222
LGDPDLGDPDEL PDLGDEADUL
)1(2 PDPDPD
492,719.899.70428,0)0073,01(0073,00428,00073,0)0073,01(0073,0462,0000.000.200 2222 UL
128
soluzione è in molti casi elevata e, per questa ragione, la distribuzione di probabilità delle perdite è
spesso ottenuta mediante tecniche di simulazione, come si vedrà più avanti.
I modelli di portafoglio
Il metodo di stima delle perdite inattese si complica se passiamo da un obbligato a due o più (n). A
partire dalla seconda metà degli anni ‟90 sono stati sviluppati una serie di modelli per calcolare la
perdita inattesa su un portafoglio di esposizioni creditizie. I modelli più conosciuti sono i seguenti:
CreditMetrics, originariamente proposto dalla banca statunitense J.P. Morgan e fondato sui
dati relativi ai tassi di migrazione, ai tassi di insolvenza e agli spread (rispetto ai rendimenti
dei titoli di stato) dei debitori appartenenti a diverse categorie di rating;
CreditPortfolioView, sviluppato dalla società di consulenza McKinsey e fondato sull‟analisi
econometrica della relazione che lega i tassi di insolvenza e di migrazione all‟evoluzione del
ciclo macroeconomico;
CreditRisk+, proposto dalla banca di investimento svizzera Credit Swiss Financial Products
(CSFP), fondato sui modelli matematici attuariali propri del settore assicurativo;
PortfolioManager, sviluppato dalla società californiana KMV, basata sul modello di Merton
e sulle logiche di stima della probabilità di insolvenza ad esso legate.
Ai nostri fini potrà essere sufficiente soffermarsi soltanto sul modello proposto da CreditMetrics.
Peraltro, prima di analizzarlo, vogliamo discutere di due problemi molto importanti, quando si
utilizzano modelli basati sul VaR: la scelta dell‟orizzonte temporale di riferimento ed il livello di
confidenza. Come si ricorderà, sono temi che abbiamo già trattato relativamente ai rischi di
mercato, ma appare importante vedere la particolare declinazione che assumono quando ci si
rivolge al rischio di credito.
La Scelta dell’orizzonte temporale
Il VaR su un portafoglio di crediti dipende dalla distribuzione delle possibili perdite future. È
dunque necessario specificare a quale orizzonte di tempo si vuol fare riferimento. Normalmente
quest‟ultimo viene spesso fissato, in modo convenzionale, in un anno. Questa scelta è fatta per
129
diverse ragioni. Innanzitutto, i parametri stimati dal sistema di rating di una banca sono solitamente
riferiti ad un intervallo temporale di un anno. Se i modelli di portafoglio adottassero orizzonti
differenti, i sistemi di rating andrebbero aggiornati di conseguenza. Inoltre, il capitale economico a
cui si giunge attraverso i modelli di portafoglio viene utilizzato per la stesura dei budget annuali da
parte di molte banche. È quindi necessario che l‟orizzonte temporale di calcolo del capitale
economico sia coerente con l‟ampiezza dei budget. Un‟ulteriore motivazione risiede nel fatto che un
orizzonte temporale di un anno è solitamente sufficiente per organizzare un aumento di capitale che
consenta di ripristinare la dotazione patrimoniale ottimale dopo che questa è stata erosa da perdite
inattese. Infine, la scelta dell‟orizzonte temporale di un anno coincide spesso con l‟indice di
rotazione media del portafoglio. In altri termini, nell‟arco di un anno la banca rivede o rinnova,
mediamente, tutti i suoi prestiti.
La determinazione del livello di confidenza
La scelta del livello di confidenza per il calcolo del VaR rappresenta un passaggio più delicato nel
caso del rischio di credito di quanto non sia per esempio per la stima del rischio di mercato con
l‟approccio parametrico.
Per una banca che utilizza modelli di stima per il rischio di credito è opportuno adottare fin
dall‟inizio un livello di confidenza il più possibile credibile e condiviso dal management, dalle
autorità di vigilanza, dagli azionisti e dalle agenzie di rating.
L’approccio di CreditMetrics25
CreditMetrics stima la distribuzione delle variazioni di valore che un portafoglio di esposizioni
creditizie potrebbe subire entro un certo orizzonte temporale (generalmente un anno). Da tale
distribuzione è possibile ottenere la perdita attesa (EL) e misure di perdita inattesa (UL) quali la
deviazione standard delle perdite, i percentili ed il relativo VaR. CreditMetrics è un modello mark
to market, dunque considera sia le perdite dovute ad un default che quelle legate alla migrazione del
debitore in una diversa classe di rating.
25
L‟applicazione del modello CreditMetricsè tratta da Benninga (2000) e da (Resti, et al., 2008).
130
La stima del rischio per un singolo credito
Per descrivere gli effetti del deterioramento dell‟affidabilità della controparte, CreditMetrics adotta
le seguenti soluzioni:
1. il livello di rischio della controparte è definito sulla base del suo rating;
2. la possibile evoluzione del profilo di rischio del cliente è rappresentata mediante una matrice
(matrice di transizione) che esprime, come abbiamo visto, la probabilità che una controparte
avente un dato rating al tempo t si trovi in ciascuna delle diverse possibili classi di rating al
tempo t+1;
3. i tassi di attualizzazione sono ricavati ricostruendo per ogni classe di rating la curva dei tassi
forward relativa all‟orizzonte temporale (tipicamente un anno) sul quale si intende misurare
il rischio.
Ma procediamo con ordine. CreditMetrics ipotizza che per ogni esposizione presente nel
portafoglio della banca sia disponibile un rating (interno o calcolato da un‟agenzia esterna).
Figura 4.9: Matrice di transizione
Ipotizza inoltre che la banca abbia registrato in passato i tassi di default e di migrazione ad un anno
associati alle diverse classi di rating e che tali tassi (di cui diamo un esempio nella matrice di
transizione riportata nella figura 4.9) siano indicativi delle probabilità di default e di migrazione per
l‟anno successivo. I dati della tabella indicano ad esempio che per un‟impresa BBB la probabilità di
conservare nell‟anno successivo il proprio rating è pari all‟86,93%. La probabilità di migrazione
131
verso le classi adiacenti risulta abbastanza elevata: 5,95% per un upgrade in classe A, 5,3% per un
downgrade in classe BB; la probabilità di migrare verso le classi più lontane risulta ridotta e quella
di terminare l‟anno in default è dello 0,18%. Notiamo come l‟insolvenza sia solo uno dei possibili
“credit event”, cioè degli eventi che possono influenzare il valore di un credito. Si tratta di uno stato
assorbente nel senso che una volta terminata in default un‟impresa non può più tornare in uno stato
“sano”. I dati della tabella mostrano che un credito assegnato oggi alla classe BBB potrebbe trovarsi
tra un anno in una qualsiasi delle sette classi di rating. Dunque, poiché il valore di un‟esposizione
dipende dal suo merito creditizio, potrebbe assumere sette valori diversi. Ricaviamo questi possibili
valori del credito futuri. Il valore del credito tra un anno, come il valore di qualunque altro
investimento, sarà dato semplicemente dal valore attuale dei flussi di cassa attesi in futuro, calcolati
tra un anno sulla base di un tasso adeguato al rating futuro del debitore. Consideriamo per esempio
un titolo con rating BBB26
che prevede il pagamento di una cedola di 6 milioni di euro per i primi
quattro anni e di un‟ultima cedola tra cinque anni insieme al rimborso del capitale per complessivi
100 milioni. Immaginiamo di volerne calcolare il valore attuale, non oggi ma tra un anno.
Figura 4.10: Flussi di cassa nel tempo di un titolo
Questo significa che il primo flusso di cassa non dovrebbe essere scontato, in quanto verrebbe
incassato nell‟esatto momento in cui avviene il calcolo del valore annuale (tra un anno); il secondo
andrebbe scontato su un periodo di un solo anno e così via. L‟operazione di sconto non deve
ovviamente avvenire ai tassi correnti ma ad un tasso che rifletta i possibili valori dei tassi di
mercato tra un anno. Possiamo utilizzare a tale scopo i tassi forward validi per operazioni con
decorrenza tra un anno. Più precisamente, poiché tra un anno il credito potrebbe trovarsi in una
qualunque delle sette classi di rating, sarà necessario ripetere il calcolo del valore attuale sette volte,
utilizzando sette diverse curve dei tassi forward. La figura sottostante, tratta da Gupton, et al.,
(1997), fornisce un esempio di curve dei tassi forward zero coupon ad un anno per le diverse classi
26
Esempio tratto da (Gupton, et al., 1997).
132
di rating. Tale curva può essere calcolata sulla base di tassi spot riferiti ad ogni scadenza per ognuna
delle classi di rating27
.
Figura 4.11: Curve dei tassi forward zero coupon ad un anno per le diverse classi di rating
Consideriamo ora il titolo BBB ed immaginiamo che alla fine del primo anno esso si trovi ancora
nella stessa classe. Il suo valore attuale tra un anno (forward value) sarebbe uguale a:
Se viceversa, l‟emittente subisse un downgrading alla classe BB, il valore sarebbe :
Com‟è logico, un downgrading causerebbe quindi una riduzione di valore pari a 5,52 milioni di
euro (107,53-102,01). In modo analogo a questi due esempi, usando le diverse curve forward
indicate nella tabella precedente, è possibile ricavare il valore di mercato che il titolo avrebbe alla
fine dell‟anno in corrispondenza di tutte le possibili classi di rating; i risultati sono riportati in figura
4.12.
27
In questo modo, la curva ricavata per ogni classe di rating dipende da un lato dalla term structure dei titoli risk free e
dall‟altro dalla struttura per scadenza dei credit spread riferiti alle diverse classi di rating (Saita, 2000).
133
Figura 4.12: Valore di mercato di un titolo dopo un anno in corrispondenza di tutte le possibili classi di rating
Nella figura successiva affianchiamo ad ogni valore la relativa probabilità ricavata dalla matrice di
transizione.
Figura 4.13: Valori e rispettive probabilità di un titolo secondo le possibili classi di rating
134
Se l‟emittente divenisse insolvente il valore di mercato del titolo sarebbe dato dal relativo valore di
recupero. Quest‟ultimo potrebbe essere stimato dalla banca con un proprio modello interno o
facendo riferimento agli studi pubblicati dalle agenzie di rating, che stimano diversi tassi di
recupero attesi a seconda del grado di seniority del titolo e delle garanzie che lo assistono. La figura
4.14 da un esempio di tali dati.
Figura 4.14: Recovery Rate per diverse seniority class
Ipotizzando che il titolo esaminato fosse del tipo “senior secured”, gli verrà assegnato un valore
atteso in caso di default pari a 53,80 milioni di euro. Tale valore ha una probabilità pari alla PD di
un debitore di classe BBB. Sulla base dei dati raccolti nella Figura 10 possiamo calcolare il valore
atteso del credito tra un anno, pari a 107,07 milioni, ottenuto semplicemente come media degli otto
valori calcolati in precedenza, ognuno ponderato per la propria probabilità di accadimento. Si noti
che il valore atteso (107,07 milioni) è diverso dal valore in caso di permanenza del debitore nella
classe di rating iniziale e che è uguale a 107,53; la differenza far i due valori (107,53 – 107,07=
0,46) può essere considerata una misura della perdita attesa (EL) sul titolo. I possibili valori futuri
del credito possono quindi essere riscritti (vedi Figura 10) come variazioni (ΔVj) rispetto al valore
atteso. Dalla distribuzione di probabilità della tabella è possibile ricavare la deviazione standard dei
valori futuri del credito, calcolata come di consueto come:
135
9,222
j
jjJ
j
JVFV PVPFVEFV
È inoltre possibile calcolare il valore a rischio (VaR) corrispondente ad un certo livello di
confidenza “tagliando” la distribuzione delle variazioni di valore ad un anno in corrispondenza del
percentile desiderato. A tal fine , può essere utile affiancare ai ΔVj le relative probabilità cumulate,
calcolate partendo dalle perdite peggiori .
Figura 4.15: Calcolo del VaR attraverso le probabilità cumulate
Così per esempio il VaR al 99% di confidenza è ottenuto “tagliando” la distribuzione in
corrispondenza di un valore di perdite (8,99) che isola almeno l‟1% dei casi peggiori28
. Il VaR al
95% è ottenuto isolando almeno il 5% dei casi peggiori e risulta pari a 5,07. Se anziché calcolare il
VaR con il metodo del percentile avessimo utilizzato l‟approccio parametrico basato sulla
distribuzione normale, avremmo ottenuto misure molto diverse, sotto e sovrastimate rispetto al
valore reale. Avremmo infatti calcolato
75,69,232,299,01
%1%99
VV NzVaR
e
28
A causa della natura discreta, e non continua, della distribuzione di probabilità, in realtà il valore -8,99 viene superato
solo nello 0,3 per cento dei casi (0,12% + 0,18%).
-53,27%
-23,45%
-8,99%
-5,07%
0,46%
1,57%
2,10%
2,28%
0,18%
0,12%
1,17%
5,30%
86,93%
5,95%
0,33%
0,02%
0,18%
0,30%
1,47%
6,77%
93,70%
99,65%
99,98%
100,00%
Probabilità
pj(%) ΔVJ
Probabilità
cumulate
jK VV
kJ PC
-53,27%
-23,45%
-8,99%
-5,07%
0,46%
1,57%
2,10%
2,28%
-53,27%
-23,45%
-8,99%
-5,07%
0,46%
1,57%
2,10%
2,28%
0,18%
0,12%
1,17%
5,30%
86,93%
5,95%
0,33%
0,02%
0,18%
0,12%
1,17%
5,30%
86,93%
5,95%
0,33%
0,02%
0,18%
0,30%
1,47%
6,77%
93,70%
99,65%
99,98%
100,00%
0,18%
0,30%
1,47%
6,77%
93,70%
99,65%
99,98%
100,00%
Probabilità
pj(%) ΔVJ
Probabilità
cumulate
jK VV
kJ PC
136
77,49,264,195,01
%5%95
VV NzVaR
Il motivo di questa discrepanza è che la distribuzione dei valori futuri del credito da cui deriva
quella delle variazioni di valore è fortemente asimmetrica e dunque non può essere approssimata
con una normale. A conferma di quanto osservato in precedenza, infatti, forti variazioni negative di
valore sono relativamente poco probabili, mentre variazioni di modesta entità risultano assai più
frequenti.
La stima del rischio di due esposizioni
Passiamo ora dal caso di una singola esposizione a quello di un portafoglio29
. Per semplicità,
consideriamo inizialmente due sole esposizioni: un titolo con rating BB ed uno con rating A. Se i
default e le migrazioni dei due titoli fossero indipendenti, sarebbe immediato calcolare le
probabilità congiunte. Così, per esempio, la probabilità che entrambi restino nella propria classe
iniziale sarebbe data dal prodotto delle due rispettive probabilità. Utilizzando i dati riportati in
tabella si otterrebbe 80,53% * 91,05% = 73,32%. Analogamente, le probabilità che entrambi
diventino insolventi diverrebbe 0,06% * 1,06% ≈ 0,00%. La figura seguente riporta tali probabilità
congiunte, calcolate in ipotesi di indipendenza.
Figura 4.16: Probabilità congiunta di migrazione in ipotesi di indipendenza
29
A questo proposito ci riferiamo a Resti, et al., (2007).
137
L‟ipotesi di indipendenza è tuttavia molto irrealistica: è noto infatti che le variazioni del rating delle
imprese e le loro insolvenze sono in parte guidate da fattori comuni, come il ciclo economico, il
livello dei tassi di interesse ed altri ancora. È dunque necessario stimare le probabilità congiunte
nell‟ipotesi che tra i due debitori esista una certa correlazione. A tal fine, CreditMetrics:
1. utilizza una variante del modello di Merton dove non solo il default ma anche le migrazioni
verso rating diversi dipendono dalle variazioni nel valore degli attivi aziendali (AVR, asset
value return);
2. stima la correlazione tra gli AVR dei due debitori;
3. da tale correlazione ricava una distribuzione di probabilità congiunta che, diversamente dalla
tabella precedente, non implica indipendenza.
Figura 4.17: Il modello di Merton
L‟idea alla base dell‟approccio è la seguente: se si considera il valore delle attività dell‟impresa
come la possibile determinante del fallimento dell‟impresa stessa (che avviene in corrispondenza
del passaggio oltre una certa soglia) è possibile individuare anche soglie differenti che
corrispondono all‟attraversamento delle barriere tra una classe di rating e l‟altra. In altri termini,
considerando la distribuzione standardizzata dei rendimenti delle attività dell‟impresa, è possibile
ripartire la distribuzione in settori diversi: a rendimenti estremi negativi corrisponderà l‟evento di
default, a rendimenti molto negativi ma non tali da provocare lo stato di insolvenza corrisponderà
Lo
g o
f th
e a
ssets’
valu
e
At time T (eg., one year)
Value of debt (log)
Possible future evolutionsPast evolution
Today
Default
Probabilit
y
p
A borrower
defaults if the
value of its
assets drops
below the value
of debt
The Merton’s reference model
Lo
g o
f th
e a
ssets’
valu
e
At time T (eg., one year)
Value of debt (log)
Possible future evolutionsPast evolution
Today
Default
Probabilit
y
p
A borrower
defaults if the
value of its
assets drops
below the value
of debt
The Merton’s reference model
138
un declassamento a CCC; e così via, fino a giungere alle variazioni estremamente favorevoli in
grado di provocare un upgrading fino a AAA (confronta la figura 13).
Vediamo dunque, con alcuni esempi, come sia possibile estendere il modello di Merton
originariamente fondato su una logica binaria (sopravvivenza/insolvenza) al caso multinomiale che
include default e migrazioni tra rating diversi.
Figura 4.18: Distribuzione di probabilità standardizzata degli AVR
La figura presenta la distribuzione di probabilità standardizzata degli AVR di un‟impresa con rating
iniziale BB; indicheremo tali rendimenti come rBB e come nel modello di Merton ipotizzeremo che
la loro distribuzione sia normale. Se l‟anno prossimo si verificasse un rBB tale da portare il valore
dell‟attivo su livelli particolarmente bassi, l‟impresa, come suggerito dal modello, risulterebbe
insolvente; Indichiamo con zdef la soglia al di sotto della quale gli AVR determinano il fallimento
dell‟impresa. In presenza di AVR superiori a tale soglia l‟impresa resterebbe solvibile; tuttavia non
è detto che il suo rating resti invariato. Possiamo pensare che esista una seconda soglia zCCC tale che
se rBB è compreso tra zdef e zCCC, la forte riduzione del valore dell‟attivo induca gli analisti della
banca ad un downgrading del debitore in classe CCC. All‟estremo opposto esisterà una soglia zAA
tale che se gli rBB sono superiori ad essa gli analisti le assegneranno un rating AAA. Inoltre,
139
possiamo pensare che esistano due soglie zB e z BB tali che se l‟AVR è compreso tra di esse, il
valore degli attivi aziendali non cambia in misura sufficiente per giustificare una variazione di
rating e l‟impresa rimane in classe BB. Questo sistema di soglie (dette asset value return threshold,
o AVRT) è rappresentato nella figura precedente.
Nel modello di Merton originario la stima di zdef comportava un‟analisi del debito aziendale e del
leverage, mentre la conoscenza della distribuzione degli AVR implicava una stima della volatilità
dell‟attivo. In CreditMetrics, invece, zdef e tutte le altre AVRT, vengono ricavate indirettamente
dalle probabilità presenti nella matrice di transizione. Per esempio, se la probabilità che un soggetto
BB diventi insolvente in un anno è pari a 1,06 per cento, la soglia zdef deve essere individuata in
modo che sia:
Se immaginiamo di considerare gli AVR in forma standardizzata (cioè con valori già divisi per la
loro volatilità), la distribuzione di densità di probabilità degli AVR sarà una normale standard e la
condizione ora vista potrà essere riscritta come N(Zdef)=1,06%, da cui Zdef=N-1
(1,06%)=-2,30.
Analogamente, se la probabilità di downgrading a CCC (che corrisponde all‟area compresa fra Zdef
e ZCCC) è pari all‟1 per cento, deve essere:
Da cui ZCCC = N-1
(1,00% + 1,06%) = -2,04
Seguendo un ragionamento analogo si possono ricavare anche le altre AVRT (figura 4.19). Grazie a
questo accorgimento è possibile simulare la migrazione del rating del singolo emittente estraendo
valori casuali da una distribuzione normale e confrontando i valori così ottenuti con i valori soglia
determinati per ogni classe di rating. In funzione dell‟intervallo nel quale il valore estratto cade è
possibile determinare il rating del singolo soggetto per ogni giro della simulazione.
140
Figura 4.19: AVRT per le diverse classi di rating di un titolo di classe BB
Abbiamo considerato un‟impresa con rating BB perché questo è il rating del primo titolo compreso
nel portafoglio della banca. La stessa logica può essere seguita anche per gli AVR, rA di un‟impresa
con rating A (il secondo titolo presente nel portafoglio): le relative AVRT sono indicate nella figura
sottostante.
Figura 4.20: AVRT per le diverse classi di rating di un titolo di classe A
Abbiamo così visto come sia possibile ricavare le AVRT dalla matrice di transizione senza dover
conoscere il valore del debito o degli attivi dell‟impresa debitrice; inoltre, poichè abbiamo scelto di
141
considerare gli AVR in forma standardizzata, non abbiamo dovuto nemmeno preoccuparci di
conoscere la volatilità dei rendimenti dell‟attivo.
Figura 4.21: Correlazioni e probabilità di default congiunte
Se gli AVR standardizzati di un debitore sono descritti da una distribuzione normale standard,
allora la distribuzione congiunta degli AVR di due imprese debitrici è data da una normale standard
bivariata. Tale distribuzione, nel caso generico di due variabili casuali x ed y, è la seguente:
Mentre la sua funzione di densità cumulata è data dal seguente integrale doppio, calcolabile, o
meglio approssimabile, con numerose routine disponibili al calcolatore:
Entrambe le funzioni dipendono dal parametro ρ, che indica la correlazione tra gli AVR del primo e
del secondo debitore. Immaginiamo per ora di avere già stimato tale parametro e che le variazioni
);;(12
1);Pr( )1(2
2
2
2
22
YXNdxdyeYyXx
yxyxY X
One
default
Two
defaultOne default
Fir
m
j
Firm i Borrower “i” and
borrower “j” may
be more or less
exposed to default
if their asset values
are correlated to
the macroeconomic
cycle and to each
other
An asset
correlation of 20%
implies a default
correlation of 2-8%
Correlations and joint defaults
One
default
Two
defaultOne default
Fir
m
j
Firm i Borrower “i” and
borrower “j” may
be more or less
exposed to default
if their asset values
are correlated to
the macroeconomic
cycle and to each
other
An asset
correlation of 20%
implies a default
correlation of 2-8%
Correlations and joint defaults
142
dei valori dell‟attivo dei due clienti del nostro esempio siano caratterizzate da un coefficiente di
correlazione del 20%. Potremmo a questo punto utilizzare la formula precedente, il valore di ρ e i
valori delle Zdef per stimare la probabilità congiunta di default dei due debitori. La probabilità di
default congiunta di un prenditore BB con Zdef=-2,91 e di un debitore A con Zdef=-3,24 risulta pari a
0,00002730
.
Se invece desideriamo calcolare la probabilità che le due imprese si collochino a fine anno in una
data classe di rating, dovremo utilizzare una generalizzazione della precedente formula, utilizzando
per ogni impresa i valori delle due AVRT rilevanti. Per esempio, la probabilità che entrambe le
imprese conservino i rating di partenza, rispettivamente BB ed A, sarà data da:
0,7365.
Figura 4.22: Probabilità congiunta di migrazione in ipotesi di correlazione positiva
Notiamo che i valori differiscono da quelli delle probabilità congiunte in ipotesi di indipendenza
(Figura 4.16). Per esempio, la probabilità che entrambi i debitori rimangano nella classe di partenza
30
Il risultato può essere velocemente ottenuto tramite Excel con la funzione Bivar(x,y,ρ).
)98.151.1,37.123.1Pr( ABB rr
e2
98.1
51.1
37.1
23.1 2.012
1
2
22
2.012
4.0
AABBBB rrrr
ABBdrdr
143
è pari al 73,65% invece che al 73,32%; la probabilità che entrambi peggiorino di una classe è pari
allo 0,79% anziché allo 0,49%. Dall‟asset correlation positiva pari al 20% con cui sono stati
calcolati i valori, consegue una tendenza dei due debitori ad evolvere in modo simile.
La stima dell’asset correlation
Nel paragrafo precedente abbiamo ipotizzato di conoscere la correlazione tra i rendimenti degli
attivi dei due debitori e che questa fosse pari al 20%. In effetti, se entrambi fossero quotati, si
potrebbe ricavare dalla serie storica dei loro prezzi azionari una serie storica dei rispettivi valori
degli attivi e calcolare quindi la correlazione dei relativi rendimenti. Tuttavia, i debitori delle
banche sono spesso imprese non quotate. Inoltre, un portafoglio reale, comprende un numero
elevato di debitori, così che ricavare tutte le asset correlation per via analitica risulterebbe
eccessivamente laborioso e richiederebbe tempi troppo lunghi.
CreditMetrics utilizza quindi un approccio semplificato, basato su due artifici:
1. ipotizza che i rendimenti degli attivi di ogni impresa siano determinati da un insieme di
fattori di rischio sistematici e da un fattore idiosincratico. Il fattore idiosincratico è specifico
della singola impresa e dunque ha correlazione nulla con qualunque altro fattore. È invece
necessario stimare le correlazioni tra i fattori sistematici;
2. utilizza i rendimenti degli indici azionari di diversi paesi e di diversi settori; la correlazione
tra i rendimenti delle attività è dunque approssimata attraverso la correlazione dei
rendimenti azionari.
Con riferimento al primo punto, CreditMetrics ipotizza che l‟asset value return di un‟impresa j sia
dato da una combinazione lineare di uno o più fattori sistematici ik (legati, per esempio,
all‟andamento del settore chimico o automobilistico, ovvero a quello dell‟economia britannica o
francese) e di un termine εj specifico dell‟impresa j-esima. Analiticamente:
jjnjnjjj iiir ,2,21,1 ....
dove βk,j indica il peso del fattore i-esimo k nello spiegare il rendimento dell‟attivo dell‟impresa j,
mentre δj indica il peso della componente idiosincratica.
144
È necessario che per ogni debitore la banca specifichi questo sistema di pesi31
; è inoltre necessario,
come vedremo, che i pesi vengano standardizzati. Per quanto riguarda il peso dei fattori sistematici
è possibile aiutarsi con la ripartizione, per paese o per settore di attività, del fatturato, degli attivi o
dei profitti operativi dell‟impresa. Il peso del fattore idiosincratico, inoltre, dovrebbe essere tanto
maggiore quanto minori sono le dimensioni dell‟impresa: infatti, mentre il successo o l‟insuccesso
di un‟impresa di piccole dimensioni dipendono in misura rilevante da elementi specifici, il valore
dei grandi gruppi industriali è più direttamente connesso all‟andamento generale del settore o
dell‟economia nazionale.
L’applicazione ad un portafoglio di n posizioni
Quando il numero N di debitori è superiore a 2, il numero di stati possibili per cui è necessario
calcolare la distribuzione di probabilità congiunta cresce molto rapidamente. In generale se il
sistema di rating prevede g classi più il default, la distribuzione di probabilità congiunta comprende
(g+1)N casi. Per esempio, dato il sistema di rating richiesto da Basilea di 7 classi di rating, 20
debitori richiederebbero di stimare 820
probabilità diverse. A tal fine, la normale bivariata dovrebbe
essere sostituita da una normale multipla di ordine N e ciò complicherebbe enormemente i calcoli.
Per questo motivo conviene stimare la distribuzione dei valori futuri del portafoglio (e delle
differenze ΔV) dal valore atteso facendo ricorso a simulazioni Monte Carlo. Se si utilizza tale
approccio il processo di stima della distribuzione dei valori futuri del portafoglio si compone delle
seguenti fasi:
1. vengono individuate le AVRT corrispondenti alle diverse classi di rating;
2. vengono stimate le asset correlation tra gli N debitori;
3. viene calcolata la matrice T tale che T‟T=C;
4. si genera un vettore x contenente N estrazioni casuali da altrettante distribuzioni standard
indipendenti; da questo si ricava un vettore r=Tx contenente un possibile scenario per gli N
asset value return correlati dei debitori;
31
Per dettagli vedi Gupton, Finger e Batia (1997).
145
5. ogni valore rj del vettore r viene confrontato con le AVRT del relativo prenditore. In base al
confronto si determina se il prenditore rimane nella classe di rating di partenza, migra in una
classe diversa o termina in default;
6. in funzione dalla classe di rating così determinata e dell‟opportuna curva dei tassi forward
(oppure del valore di recupero in caso di default) è possibile calcolare il valore futuro di
ogni esposizione in portafoglio;
7. sommando i valori di tutte le n posizioni si determina il valore futuro del portafoglio in
questo scenario;
8. si torna al punto 4 per un numero elevato di volte, fino a generare una distribuzione di valori
futuri FV del portafoglio simulato sufficientemente numerosa da approssimare bene quella
teorica;
9. si calcola il valore medio di questa distribuzione, gli scostamenti dalla media, la deviazione
standard ed il VaR associato ad un livello di confidenza desiderato. Il valore medio può
inoltre essere confrontato con il valore del portafoglio nel caso in cui tutti i crediti
rimangano nella classe di rating iniziale e la differenza tra i due.
Pregi e limiti di CreditMetrics
Il modello illustrato presenta diversi pregi, tra cui ricordiamo:
l‟utilizzo di dati di mercato al contempo oggettivi e forward looking (curve dei rendimenti
zero-coupon forward, correlazioni tra indici azionari);
l‟adozione di una logica di valori di mercato;
il fatto di considerare non solo il rischio di insolvenza ma anche il rischio di migrazione,
ossia il rischio di un deterioramento del merito creditizio delle controparti;
il pieno ricononoscimento della natura asimmetrica della distribuzione dei valori di mercato
di un impiego.
Infine, un importante elemento di cui bisogna tener conto, è che utilizzando le simulazioni Monte
Carlo è possibile determinare il VaR marginale di specifiche posizioni rispetto al VaR totale di
146
portafoglio, come differenza tra il VaR complessivo del portafoglio ed il VaR del portafoglio al
quale viene sottratta l‟esposizione (o il gruppo di esposizioni) di cui si desidera stimare il contributo
marginale.
Sono tuttavia presenti dei limiti nell‟utilizzo di questo modello. Un primo problema è legato al fatto
che molti degli input necessari al modello possono essere ottenuti con facilità solo se la banca
possiede stime affidabili delle proprie matrici di transizione e se esiste un mercato liquido dal quale
trarre informazioni relative ai tassi forward richiesti sui crediti con differente livello di rating.
Un secondo limite di CreditMetrics è quello delle ipotesi implicite relative alle matrici di
transizione storiche. Anzitutto, l‟ipotesi che le frequenze storiche riflettano adeguatamente le
frequenze attese future, ossia che la matrice di transizione sia temporalmente stabile. In secondo
luogo, l‟ipotesi implicita che tali frequenze siano uguali per tutte le imprese appartenenti ad una
determinata classe di rating.
Un terzo limite è legato all‟assenza di una logica economica che spieghi le migrazioni e, dunque,
anche il fenomeno dell‟insolvenza. Da questo punto di vista, infatti, CreditMetrics appartiene alla
famiglia dei reduced-form model. Diversamente dai modelli strutturali originati dal modello di
Merton, i quali spiegano il processo che conduce all‟insolvenza di un‟impresa sulla base delle sue
caratteristiche strutturali (il rischio finanziario, riflesso nel rapporto tra il valore dell‟attivo ed il
valore del debito, e il rischio d‟impresa, riflesso nella variabilità del valore dell‟attivo) e dai modelli
di natura macroeconomica, i quali spiegano l‟evoluzione dei tassi di insolvenza sulla base
dell‟evoluzione del ciclo economico, i modelli in forma ridotta si limitano a utilizzare come input i
dati storici relativi ai tassi di insolvenza e di migrazione per classe di rating per stimare la
distribuzione delle perdite di portafoglio.
Infine, il processo di scomposizione dei rendimenti dei titoli azionari delle imprese controparti nei
relativi fattori specifici e sistematici risulta fortemente arbitrario e discrezionale, senza alcun
riferimento ad una precisa metodologia economicamente e finanziarimanete coerente con le altre
fasi del modello.
147
5 - L’EVOLUZIONE REGOLAMENTARE
Quando una banca sviluppa un proprio sistema di Risk Management, volto a misurare
l‟assorbimento di capitale dovuto ai suoi attivi a rischio, deve tener conto anche dei vincoli
derivanti dalla regolamentazione. Il principale vincolo regolamentare è oggi rappresentato dai
requisiti patrimoniali obbligatori originariamente proposti dal Comitato di Basilea nel 1988 (Basel
Committee on Banking Supervision, 1988) e successivamente recepiti dalle autorità di vigilanza di
oltre 150 Paesi, tra cui quelli dell‟Unione Europea. Come si vedrà nelle pagine seguenti, i requisiti
patrimoniali del 1988 hanno avuto un ruolo essenziale nel determinare le politiche gestionali delle
singole banche (effetti microeconomici) e nel rafforzare la stabilità del sistema bancario
internazionale (effetti macroeconomici). Sul piano microeconomico i requisiti patrimoniali hanno
influenzato in misura marcata la cultura aziendale delle banche, facendo emergere nuovi modelli
gestionali ed organizzativi. Sul piano macroeconomico va ricordato che l‟accordo del 1988 è
risultato efficace nel rendere più omogenei gli standard di patrimonializzazione dei diversi sistemi
bancari internazionali. Fino all‟ultima crisi, ma di ciò ci occuperemo nella seconda parte della tesi,
si può dire che la maggior patrimonializzazione richiesta ha rafforzato la stabilità delle banche che
avevano attraversato relativamente indenni alcune rilevanti crisi internazionali (per esempio la crisi
messicana del 1994, quella asiatico/russa del 1998, il fallimento del fondo Long Term Capital
Management del 1998, il crollo dei mercati azionari successivo alla bolla tecnologica di fine anni
‟90 e l‟incertezza seguita all‟11 settembre 2001). I requisiti patrimoniali originariamente focalizzati
sul solo rischio di credito sono stati successivamente estesi anche ai rischi di mercato (nel 1996) ed
ai rischi operativi (nel 2004). Le modifiche del 1996 e del 2004 sono particolarmente significative
perché hanno espressamente previsto la possibilità, per le banche, di utilizzare i propri modelli
interni a fini normativi, cioè per la determinazione del requisito patrimoniale obbligatorio. Nel
2004, il Comitato di Basilea ha completamente riscritto le regole del 1988 sui rischi di credito.
Anche in questo caso si è deciso di riconoscere i modelli interni quale strumento per la misurazione
dell‟adeguatezza patrimoniale delle banche. Più in generale la riforma dei requisiti sui rischi di
credito ha cercato di rendere più difficili le operazioni di arbitraggio regolamentare con cui molte
banche avevano inteso eludere la normativa del 1988. La riforma ha inoltre inteso allineare il
quadro regolamentare ai progressi compiuti nei sedici anni successivi al 1988, dai modelli per la
misurazione e la gestione del rischio di credito. Le regole del 2004, oltre ad articolare meglio i
148
requisiti patrimoniali obbligatori minimi, hanno poi attribuito un ruolo più esteso e premiante ad
altri due strumenti di controllo prudenziale: l‟attività di supervisione svolta dalle singole autorità di
vigilanza nazionali e la disciplina esercitata dal mercato nei confronti delle banche. La prima
sezione di questa parte della tesi illustra in modo estremamente sintetico le caratteristiche
dell‟accordo sul capitale proposto dal Comitato di Basilea nel 1988, soffermandosi sui limiti di tale
accordo. La seconda sezione è invece dedicata al nuovo accordo del 2004, formatosi dopo un
processo di consultazione tra autorità, studiosi e grandi banche durato cinque anni. Nell‟analisi
tralasceremo, perché non utile ai nostri scopi, l‟esame del requisito patrimoniale sul rischio
operativo. I problemi di adeguatezza patrimoniale regolamentare sollevati dalla recente crisi
saranno invece oggetto di analisi nel primo capitolo della seconda parte della tesi. In quella sede ci
soffermeremo sull‟analisi dei requisiti patrimoniali sui rischi di mercato: la riforma, in questo caso,
è avvenuta dopo una fase di consultazione pubblica iniziata nel 1993, con un apposito
emendamento all‟accordo nel gennaio 1996. Come vedremo, le nuove regole adottano logiche
simili ai modelli per la misura del capitale economico analizzati nei primi capitoli del nostro lavoro.
La normativa sul capitale delle banche, cresciuta ed evolutasi grazie al contributo comune di
banchieri, studiosi e autorità di vigilanza si è infatti significativamente avvicinata alle best practice
in materia di misura e controllo del rischio. Anziché costituire un fattore di rigidità, un mero
adempimento di obblighi regolamentari, essa ha dunque rappresentato per molte banche un ulteriore
veicolo di apprendimento e di evoluzione sul piano tecnico, organizzativo e gestionale.
149
L’ACCORDO SUL CAPITALE DEL 1988
Dal momento che il nostro obiettivo non è quello di una ricostruzione storica dell‟evoluzione della
normativa, evidenzieremo solo alcuni aspetti dell‟accordo del 1988, a costo di essere molto
schematici. Innanzitutto ricordiamo che il desiderio di requisiti patrimoniali uniformi rispondeva a
varie necessità ma in particolare a:
rendere più certa la solvibilità delle banche, scoraggiandole dall‟assumere rischi eccessivi;
garantire attraverso l‟applicazione dei requisiti su base consolidata anche la solvibilità delle
istituzione controllate da gruppi bancari esteri, promuovendo una maggiore stabilità nei
mercati finanziari internazionali;
superare le distorsioni competitive legate a diverse normative nazionali, favorendo la
formazione di un level playing field, ossia di condizioni concorrenziali uniformi per le
istituzioni finanziarie dei vari Paesi.
Il coefficiente patrimoniale
L‟accordo richiedeva alle banche un rapporto minimo dell‟8 per cento (coefficiente patrimoniale)
tra il patrimonio, così come definito dall‟accordo (patrimonio di vigilanza) e le attività ponderate
per il rischio. In simboli:
(1)
dove RC indica il patrimonio di vigilanza (capitale regolamentare o regulatory capital), Ai l‟attività
i-esima e wi la relativa ponderazione per il rischio. Definiamo ora in dettaglio RC, Ai e wi.
%8
i ii wA
RCCR
150
Il patrimonio di vigilanza
La definizione di patrimonio di vigilanza, diversamente dalle restanti parti del protocollo del 1988,
è stata sostanzialmente riconfermata in occasione del nuovo accordo del 2004. Solo a crisi iniziata
ci si è resi conto, come si vedrà meglio più avanti, dei limiti di una definizione del capitale che non
distingueva sufficientemente bene le componenti di qualità.
Il patrimonio di vigilanza, come si vede dalla figura sottostante, è suddiviso in due categorie: il
patrimonio di base, o Tier 1 capital, ed il patrimonio supplementare, o Tier 2 capital. Il patrimonio
di base è costituito dalle poste patrimoniali più pregiate, cioè contraddistinte da una elevata capacità
di proteggere i terzi dagli effetti di eventuali perdite subite dalla banca.
Figura 5.1: La composizione del Core capital e del Supplementary Capital
Molto schematicamente ricordiamo che il patrimonio di base include principalmente il capitale
azionario versato, le riserve palesi (riserve sovrapprezzo azioni, riserva legale, utili accantonati a
riserva, etc.), alcuni fondi generali come il fondo per rischi bancari generali ed alcuni strumenti
innovativi di capitale. Questi ultimi, come le preference share, sono state incluse nel patrimonio di
base da Basilea con un comunicato del 1988, purchè:
151
fossero garantiti ed esenti da condizioni che consentissero agli investitori di ottenere un
rimborso anticipato;
avessero natura permanente;
l‟eventuale rimborso anticipato su iniziativa dell‟emittente non potesse avvenire prima che
fossero trascorsi 5 anni dall‟emissione e fosse stato preventivamente autorizzato
dall‟autorità di vigilanza;
fosse stabilito che se in un dato periodo non fosse avvenuto il pagamento della
remunerazione prevista, il diritto alla remunerazione non fosse differito ma fosse perso
definitivamente;
fossero in grado di assorbire le perdite della banca senza che fosse necessario una procedura
di liquidazione o fallimento (on a going concern basis);
fossero subordinati in ipotesi di liquidazione della banca a tutti gli altri creditori ordinari e
subordinati.
Inoltre, tali strumenti innovativi non potevano rappresentare più del 15% del patrimonio di base (
per questo sono detti lower Tier 1) mentre le altre componenti di base formano l’upper Tier 1.
Il patrimonio supplementare (Tier 2) è composto invece da riserve occulte (undisclosed reserve)
riserve da rivalutazione, fondo rischi, strumenti ibridi di patrimonializzazione e prestiti subordinati
ordinari. Intendiamo chiarire che gli accantonamenti generali ed i fondi generali per rischi su
crediti sono voci del passivo create per far fronte a perdite non ancora identificate. L‟accordo di
Basilea prevede che possono essere computati nel Tier 2 fino ad un massimo pari all‟1,25 per cento
dell‟attivo ponderato per il rischio. Per le banche italiane queste poste risultano scarsamente
compatibili con i nuovi principi contabili che limitano la possibilità di creare fondi rischi generici a
fronte di perdite solo eventuali. Come si vedrà più avanti, la crisi ha avviato un dibattito sul
dynamic provisioning che rimette parzialmente in discussione il principio delle incurred loss
previste dagli IAS.
Gli strumenti ibridi di patrimonializzazione uniscono elementi tipici delle azioni e altri tipici del
debito. Essi hanno caratteristiche diverse da paese a paese che dipendono dalle singole autorità di
vigilanza. Tuttavia, devono avere determinati requisiti minimi:
devono essere interamente versati, non garantiti e subordinati a tutti i restanti debiti della
banca;
152
non possono essere rimborsati su iniziativa del creditore, né senza la preventiva
autorizzazione dell‟autorità di vigilanza;
devono poter essere abbattuti a fronte di perdite senza che sia necessaria una procedura di
liquidazione (è questa la principale differenza rispetto ai normali prestiti subordinati);
se hanno diritto ad una remunerazione periodica non sopprimibile e non riducibile, deve
essere possibile differirla se i profitti della banca non lo consentono.
Il dibattito e le nuove regole sulla qualità del capitale sono state rivolte a migliorare la consistenza
del capitale con particolare riferimento agli strumenti innovativi e a quelli ibridi, ed è questa la
ragione dell‟attenzione che abbiamo riservato a queste categorie di strumenti.
Le ponderazioni per il rischio
I pesi assegnati alle principali poste dell‟attivo dall‟accordo del 1988 erano più elevati (e dunque
implicavano un requisito patrimoniale più consistente) per le attività giudicate più rischiose. In
particolare le attività (Caselli, et al., 2004) venivano allocate in quattro categorie: a rischio nullo
(0%), basso (20%), medio (50%) e pieno (100%) in base a tre criteri: il loro grado di liquidità
(maggiore per la cassa, minore per i titoli, ancora più basso per i prestiti e le proprietà immobiliari),
la natura dei debitori (governi centrali e banche centrali, istituzioni sovranazionali, enti del settore
pubblico, banche, imprese) e l‟area geografica di residenza di questi ultimi (paesi dell‟area OCSE e
paesi non OCSE). Si giungeva così alle seguenti ponderazioni (wi):
1. 0% per la cassa e i crediti verso i governi, banche centrali ed Unione Europea;
2. 20% per i crediti verso banche e pubblica amministrazione;
3. 50% per i mutui ipotecari concessi per l‟acquisto di immobili residenziali;
4. 100% per le attività verso il settore privato, le partecipazioni, gli investimenti in prestiti
subordinati ed in strumenti ibridi di patrimonializzazione non dedotti dal patrimonio di
vigilanza.
Per completezza aggiungiamo che le attività incluse nel denominatore della (1) non erano solo
quelle per cassa (o sopra la linea o on balance sheet) ma anche quelle fuori bilancio (sotto la linea o
off balance sheet), come i crediti di firma, i contratti a termine ed altri strumenti derivati OTC.
153
I limiti dell’accordo del 1988
L‟approccio proposto nel 1988 presentava numerosi limiti. Nel seguito riportiamo i principali.
Focus sul solo rischio di credito – l‟accordo si concentrava principalmente sul rischio di
credito, ignorando i restanti rischi, in particolare quelli di tasso, di mercato e operativi.
Proprio per porre rimedio a questo limite il Comitato di Basilea varò nel 1996 un
emendamento che estendeva i requisiti patrimoniali obbligatori anche ai rischi di mercato.
Scarsa differenziazione del rischio – i pesi della formula (1) consideravano come un‟unica
categoria di rischio (ponderata al 100%) tutti i crediti verso imprese private, commerciali ed
industriali. Così facendo si assoggettavano al medesimo requisito patrimoniale anche
imprese con rating diversi, sott‟intendendo che tutte le imprese private presentassero un
identico rischio di credito.
Limitato riconoscimento del legame tra scadenze e rischio di credito – l‟accordo dell‟88
ignorava pressoché totalmente il legame tra scadenze e rischio di credito, riconoscendo un
limitato sconto sul requisito patrimoniale solo ad alcune poste a breve termine, come i
crediti di firma o i prestiti interbancari.
Mancato riconoscimento della diversificazione di portafoglio – lo schema del 1988 non
considerava i benefici derivanti dalla diversificazione del rischio. Se la normativa non
riconosce questo effetto e i portafogli costituiti da un determinato numero di esposizioni ben
diversificate richiedono lo stesso ammontare di patrimonio di portafogli fortemente
concentrati su pochi clienti (o su pochi paesi e pochi settori), non si fornisce alcun incentivo
alle banche alla diversificazione del rischio creditizio.
Limitato riconoscimento degli strumenti di risk mitigation – un ultimo limite dell‟accordo
del 1988 è che esso riconosceva solo in modo molto parziale i benefici (in termini di
riduzione dei rischi) connessi all‟utilizzo di garanzie e derivati creditizi. In questo modo le
banche non erano sufficientemente incentivate ad utilizzare questi strumenti.
I limiti ora ricordati facevano si che i rischi misurati secondo l‟accordo del 1988 fossero
sensibilmente diversi da quelli stimati sulla base di modelli interni di rating e di VaR creditizio,
come quelli presentati in precedenza. Simili divergenze avevano favorito la diffusione di operazioni
di arbitraggio regolamentare, attraverso le quali le banche avevano:
154
accresciuto le esposizioni creditizie caratterizzate da un requisito patrimoniale inferiore
all‟assorbimento di capitale misurato da modelli interni;
ceduto a terzi le esposizioni creditizie meno rischiose caratterizzate da un requisito
patrimoniale inferiore al grado di rischio effettivo.
Simili operazioni finivano per peggiorare la qualità del portafoglio creditizio delle banche e
risultavano dunque in palese contrasto con le finalità dell‟accordo volto a rendere più stabile il
sistema creditizio.
155
IL NUOVO ACCORDO DI BASILEA
I limiti dello schema del 1988 e le distorsioni derivanti dalle operazioni di arbitraggio
regolamentare hanno indotto le autorità di vigilanza ad avviare nel 1999 una riforma. Se nel 1988 il
Comitato di Basilea aveva scelto di imporre alle banche un meccanismo semplice, uniforme, ma
troppo elementare per consentire una reale misurazione del rischio, nel riformare l‟Accordo ha
cercato di sviluppare uno schema più articolato e realistico. A tal fine, ribadendo la scelta compiuta
nel 1996 per i rischi di mercato, ha assegnato un ruolo più significativo ai modelli per la misura dei
rischi di credito e del rischio operativo sviluppati internamente dalle banche, sia pure verificandone
affidabilità ed integrità. In questa sezione daremo per sommi capi un‟idea dei contenuti di questa
riforma soffermandoci in particolare sulle caratteristiche del così detto primo pilastro e del secondo.
Il primo pilastro: l’approccio standard al rischio di credito
Nel nuovo accordo di vigilanza emanato nel 2004, la vigilanza è basata su 3 pilastri, destinati a
rinforzarsi a vicenda: requisiti minimi di capitale, supervisione da parte delle autorità e disciplina di
mercato. Anche se il Comitato di Basilea assegna un'identica importanza a tutti e tre, il primo
pilastro ha ricevuto la maggiore attenzione, visto che è lì che vengono fissate le nuove regole
quantitative di calcolo del capitale minimo di vigilanza. Come detto in precedenza i requisiti
patrimoniali non riguardano solo il rischio di credito. I requisiti sul rischio di mercato sono rimasti
sostanzialmente invariati nel 2004 e vengono tutt'ora calcolati secondo le regole del 1996; un nuovo
requisito destinato ad assorbire un ammontare non trascurabile di capitale è stato introdotto a fronte
del rischio operativo, il cui esame per altro esula dagli scopi del nostro lavoro.
Per quanto riguarda il rischio di credito il primo pilastro segna una cesura con il passato visto che i
prestiti emessi ad una medesima categoria di controparti, per esempio imprese private o Stati
sovrani, richiedono una copertura patrimoniale differente a secondo della loro intrinseca rischiosità.
Più in particolare il Comitato individua tre alternative per superare il precedente sistema di requisiti
patrimoniali:
uno standardised approach che riconosce i rating esterni e le tecniche di mitigazione dei
rischi (risk mitigation) attraverso una più articolata struttura di ponderazioni;
156
due internal rating based approach, basati sulle valutazioni quantitative e qualitative del
rischio sviluppate internamente alle singole banche, in una versione base (foundation) e
avanzata (advanced).
“Una terza possibilità invece, quella di utilizzare un portfolio modelling approach simile a quello
ammesso per i rischi di mercato nel 1996, che presuppone di disporre di un modello completo di
gestione delle perdite inattese a livello di portafoglio, è stata invece rimandata al futuro poichè, pur
riconoscendo i risultati potenzialmente più accurati ottenibili dai modelli di portafoglio, al momento
esistono significativi ostacoli concernenti la possibilità di validazione dei modelli” (Caselli, et al.,
2004).
Nelle pagine seguenti accenniamo solo brevemente agli aspetti fondamentali dell'approccio
standard e ci soffermiamo invece sull'approccio basato sui rating interni (in particolare su quello
avanzato).
L’approccio standard
L‟approccio standardizzato presenta due principali novità:
l‟utilizzo dei rating esterni, che però ha un limitato impatto per la maggioranza delle banche
medie e piccole dal momento che la loro clientela (piccole e medie imprese) non è dotata di
rating esterno;
la considerazione più estesa delle tecniche di risk mitigation.
Nell‟approccio standard, l‟ammontare di capitale richiesto su un prestito di un euro a privati, privo
di valide garanzie (fissato pari a 8 centesimi dall‟accordo del 1988) può ridursi ad 1,6 centesimi o
salire a 12, in funzione del rating che il cliente riceve da una o più agenzie per la valutazione esterna
del merito di credito. A rating migliori si associano pesi minori nel calcolo dei risk weighted asset;
inoltre, come nell‟accordo del 1988, diverse categorie di controparti (per esempio imprese non
finanziarie, stati, banche) comportano scale di ponderazioni diverse. Questo doppio ordine di criteri
(rating e categorie di controparti) è sintetizzato nella figura seguente, che utilizza come esempio di
scala di rating le classi messe a punto da Standard & Poor‟s.
157
Figura 5.2: Pesi per il calcolo dei Risk Weighted Asset per le diverse categorie di controparti
Anche se la tabella può sembrare complessa, il suo significato è intuitivo: le righe indicano le
diverse classi di prenditori, identificate da Basilea II (imprese, soggetti sovrani, banche, piccole
imprese e privati riuniti nella categoria dei portafogli retail, più alcune tipologie di prestiti); le
colonne riportano i diversi rating che potrebbero venire assegnati ad una controparte. Combinando
righe e colonne ci si avvede che per esempio un prestito di 100 euro ad un‟impresa non finanziaria
con rating AAA si traduce in 20 euro di risk weighted asset e conduce dunque ad un requisito
patrimoniale di 20 * 8% = 1,6 euro (1,6% dell‟esposizione non ponderata). In maniera analoga un
prestito di 100 euro ad uno stato sovrano con rating minore di B- darà luogo ad un‟esposizione
ponderata di 150 euro, richiedendo dunque una copertura patrimoniale di 150 * 8% = 12 euro (12%
del valore nominale). Le ultime due colonne richiedono qualche chiarimento. Le esposizioni verso
imprese sprovviste di rating vengono di norma ponderate al 100%. In secondo luogo, i prestiti
scaduti (cioè quelli per cui sia intervenuto un ritardo superiore a 90 giorni su un qualsiasi rimborso
di interessi o capitale) vengono normalmente ponderati al 150%. Tralasciamo, poiché non rilevante
ai fini della nostra trattazione l‟esame di altre righe della tabella, quelle delle caratteristiche delle
esposizioni verso banche, i crediti retail ed i crediti assistiti da ipoteca così come il trattamento delle
garanzie reali e personali nel metodo standardizzato.
L'approccio basato sui rating interni
I fattori di rischio
Le banche che fanno richiesta di essere ammesse ad utilizzare l'approccio dei metodi interni (e i cui
sistemi per la misura del rischio vengono approvati dalle autorità di vigilanza nazionali) sono
158
responsabili in tutto o in parte per la stima del grado di rischiosità associato a ogni singolo prestito e
al portafoglio crediti nel suo complesso. A tal proposito l'accordo individua 6 grandi driver di
rischio, suscettibili di determinare l'entità delle possibili perdite future su un credito. Essi sono:
1. il rischio di insolvenza, misurato attraverso la probabilità di default (PD) a un anno, catturata
dal sistema di rating della banca;
2. il rischio di recupero, misurato attraverso la Loss Given Default (LGD), e cioè la percentuale
di perdita in caso di default. Tale perdita deve includere i costi sostenuti per il recupero del
credito e scontare il valore finanziario del tempo trascorso tra il default e il (parziale)
recupero;
3. Il rischio di esposizione, legato al fatto che l'Exposure at Default (EAD) può differire anche
in modo sensibile da quella corrente;
4. i tre profili ora citati fanno riferimento alle perdite in cui una banca incorre in caso di
insolvenza del debitore. Ad essi va affiancato un ulteriore fattore: per i prestiti con più lunga
scadenza infatti, esiste anche un rischio di downgrading (retrocessione). Il rischio di
downgrading cresce con la maturity (M) di un finanziamento, che rappresenta il quarto
profilo di rischio da misurare;
5. se dall'analisi di un singolo credito si passa a misurare un rischio a livello di portafoglio,
intervengono due ulteriori dimensioni: la prima è la granularità delle esposizioni (tendenza a
erogare pochi e grandi fidi, oppure un elevato numero di finanziamenti ad importo basso),
detta anche name concentration. Le formule di calcolo del capitale minimo obbligatorio
riportate nell'accordo ipotizzano come vedremo meglio in seguito che il portafoglio abbia
granularità infinita, cioè name concentration nulla (in altri termini che sia costituito da un
numero elevatissimo di piccole esposizioni). Si tratta evidentemente di un‟ipotesi
irrealistica; l'imposizione di eventuali correttivi viene lasciata alle singole autorità nazionali
nell'ambito del secondo pilastro;
6. la seconda dimensione rilevante a livello di portafoglio crediti è la correlazione tra
prenditori. Essa sarà più elevata se la banca eroga credito a debitori concentrati in poche
aree geografiche o in pochi settori di attività, dunque soggetti a fattori di rischio comuni (si
parla in tal caso di industry concentration); sarà più modesta se la banca presta a debitori
ben diversificati e le cui sorti appaiano relativamente indipendenti. Il Comitato ha optato per
159
uno schema semplificato, dettando i valori della correlazione tra debitori all'interno di un
approccio "per grandi blocchi"; alle banche non è dunque richiesto di verificare l'effettivo
grado di diversificazione dei propri portafogli.
I fattori da 1 a 4 (PD, LGD, EAD e Maturity) rappresentano i parametri fondamentali che un
sistema di rating deve adeguatamente misurare.
A seconda del grado di sofisticazione raggiunto dai loro modelli e dai loro archivi storici (database),
le banche sono ammesse ad utilizzare due distinti approcci:
approccio di base (foundation), nel quale è possibile stimare con proprie metodologie
interne soltanto la PD dei debitori, facendo invece riferimento a valori prefissati dalle
autorità per quanto riguarda LGD, EAD e Maturity;
approccio avanzato (advanced), dove è consentito misurare con metodologie proprie, di cui
vanno comunque dimostrate l'efficacia e la solidità, tutti e quattro i profili di rischio.
Alle banche come si è visto non viene concesso in nessun caso di misurare granularità e
correlazione del proprio portafoglio di prestiti; queste infatti risultano fissate su livelli standard
decisi a tavolino dalle autorità e identici per qualunque banca assoggettata all'Accordo. Questo
significa che le banche pur potendo stimare gli input del modello per la stima del rischio di credito,
non sono autorizzate a sostituire il modello deciso dalle autorità con modelli interni di capitale
economico. Questi ultimi sono stati infatti giudicati dal Comitato non ancora pienamente affidabili.
I requisiti minimi del sistema di rating interno
Se una banca vuole essere autorizzata ad utilizzare il proprio sistema di rating interno per il calcolo
del capitale minimo, deve rispettare una serie di requisiti minimi. Per quanto riguarda la PD dei
clienti si richiede che le banche documentino per iscritto le principali caratteristiche dei sistemi di
misurazione adottati. È dunque necessario che vengano specificate le definizioni associate alle
diverse classi di merito (almeno 7) della scala di rating e soprattutto i criteri (plausibili ed intuitivi)
seguiti per assegnare una data controparte ad una certa classe. Il nuovo accordo non entra nel merito
di come debba essere costruito il sistema di rating della PD in una banca: non specifica quindi quali
indicatori (per esempio quali indici di bilancio) vadano utilizzati nell‟assegnazione dei rating e
nemmeno obbliga le banche ad adottare sistemi automatici, basati su tecniche statistiche di scoring.
160
A quest‟ultimo proposito, pur prevedendo l‟utilizzo di algoritmi statistici, l‟accordo avverte che essi
sono ammissibili solo come base primaria o parziale per l‟assegnazione del rating: vengono cioè
considerati alla stregua di un semilavorato che deve essere soggetto alla supervisione da parte degli
esperti bancari. Il Comitato ha stabilito una definizione di insolvenza a cui fare riferimento per la
stima della PD. Un debitore è insolvente se ricorre almeno una delle due condizioni:
una condizione soggettiva: la banca ritiene improbabile che il debitore adempia in pieno alle
sue obbligazioni;
una condizione oggettiva: la controparte è in ritardo di più di 90 giorni su almeno una delle
sue obbligazioni. Tale termine, come abbiamo visto, era stato prolungato inizialmente (a
discrezione dell‟Autorità di Vigilanza nazionale) a 180 giorni per alcuni paesi tra cui l‟Italia.
Per quanto riguarda la misura di LGD, EAD e maturity è necessario distinguere tra banche ammesse
ad utilizzare l‟approccio di base o quello avanzato. Nel primo caso LGD, EAD e maturity sono
misurate sulla base di criteri imposti dalle autorità. Nell‟approccio avanzato, le banche sono
autorizzate ad utilizzare invece le proprie stime interne di LGD ed EAD a patto che esse convincano
le autorità che tali modelli sono solidi sul piano concettuale e coerenti con l‟esperienza passata. Le
stime devono rappresentare una media di lungo periodo ponderata per le insolvenze ed essere basate
su dati relativi ad esposizioni e controparti simili. È richiesto l‟impiego di dati storici relativi ad un
intero ciclo economico e comunque a non meno di 7 anni (5 anni nel caso delle esposizioni rateali).
La maturity, infine, deve essere stimata tenendo conto dell‟impatto di eventuali pagamenti
intermedi previsti durante la vita del credito.
Accanto ai requisiti ora ricordati che attengono alle caratteristiche tecniche del sistema di rating, ve
ne sono altri che riguardano il modo in cui gli strumenti descritti devono essere calati nella realtà
operativa della banca. Il nuovo accordo prevede espressamente che un sistema di rating in possesso
di tutti i requisiti elencati in precedenza non sia accettabile se non svolge un ruolo essenziale
nell‟autorizzazione dei fidi, nella gestione del rischio, nell‟allocazione interna di capitale e nelle
funzioni di governo societario. Si vuole dunque che il sistema di rating rappresenti l‟infrastruttura
decisionale su cui fanno perno, ad esempio, la scelta di concedere un credito, il computo degli
accantonamenti necessari a fronteggiare le minusvalenze future, il dimensionamento della quota di
capitale aziendale affidata in dote alle diverse aree strategiche che ruotano attorno alla funzione
crediti.
161
Dal sistema di rating al capitale minimo obbligatorio
Nell'approccio standard, il patrimonio minimo associato ad un'esposizione è semplicemente pari
all'8% degli attivi ponderati per il rischio utilizzando un appropriato sistema di pesi. Nell'approccio
dei rating interni, il meccanismo per trasformare le caratteristiche di un prestito (PD, LGD, EAD,
maturity) e del relativo portafoglio (granularità e correlazione) in un requisito patrimoniale è
necessariamente più complesso.
Il modello definito da Basilea II e sul quale ci soffermiamo in appendice è una versione semplificata
del modello di CreditMetrics il quale a sua volta si basa (come abbiamo visto) sulle assunzioni del
modello di Merton. Formalmente, il valore degli asset di un debitore i al tempo t è definito come
dove Z e ε sono variabili random indipendenti (normali standard) e rappresentano rispettivamente
un fattore di rischio sistematico ed uno idiosincratico. Il fattore comune Z può essere interpretato
come una variabile che evidenzia lo stato dell‟economia. Il parametro ρ misura invece la
correlazione tra i valori degli asset dei differenti debitori. Il modello ipotizza che un debitore i è
insolvente quando V cade sotto una certa soglia. In pratica i parametri che si riferiscono ad un
prenditore singolo (la PD) ed i parametri che sono specifici di ogni tipo di prestito (LGD, EAD e
maturity) sono integrati in un modello di portafoglio in modo da calcolare le perdite inattese ed il
connesso capitale regolamentare. Per limitare la discrezione dei singoli intermediari, Basilea II ha
definito i valori di alcuni parametri:
1. le perdite totali devono essere calcolate con un intervallo di confidenza del 99,9%, cioè
assumendo che il valore del fattore di rischio sistemico appartenga allo 0,1 percentile della
distribuzione;
2. le correlazioni ρ sono fissate dalle autorità di vigilanza32
e dipendono, come si vedrà meglio
in seguito, dal tipo di portafoglio preso in considerazione;
3. si ipotizza che il portafoglio prestiti sia infinitamente granulare, cioè che i singoli prestiti
siano identitici e di piccole dimensioni.
32
Le correlazioni dipendono dal tipo di portafoglio e in alcuni casi variano all‟interno di un certo intervallo. Più
chiaramente, per i prestiti alle imprese, le correlazioni variano tra il 12 ed il 24 per cento in relazione al valore della PD.
Sono del 15% per i mutui ipotecari, 4% per le esposizioni revolving e tra il 3 ed il 16% per le altre esposizioni retail.
iti ZV 21
162
In questo tipo di modello la probabilità di default di un prenditore i-esimo condizionata a Zt
considerato nello 0,1% della coda sinistra della sua distribuzione, è data da:
dove φ(x) è la funzione di densità cumulata di una variabile random distribuita secondo una
normale standard. Nell‟ultima uguaglianza si ipotizza la normalità di εi e un intervallo di confidenza
del 99,9%. Questi passaggi ci consentono di utilizzare la formula per calcolare i requisiti di capitale
di un prestito. In ultima istanza, trascurando per semplicità l‟effetto della maturity, la formula
risulta che il capitale (K) è uguale a:
Il termine (a) è il valore atteso delle perdite su credito dipendenti dal fattore di rischio sistemico che
si presenta nello 0,1% dei casi. Il termine (b) rappresenta la perdita attesa ottenuta moltiplicando la
probabilità di default individuale del prestito per la LGD. Il requisito di capitale è dato dalle perdite
inattese e cioè dalla differenza tra (a) e (b). Infine, 1,06 è un fattore moltiplicativo scelto dal
comitato di Basilea per mantenere il livello dei requisiti patrimoniali in linea con Basilea I su base
aggregata.
Il secondo pilastro
Mentre il primo pilastro si incentra sulle modalità e sulle tecniche di misurazione dei principali
rischi cui sono esposti gli intermediari creditizi – di credito, di mercato, operativi – ai fini della
determinazione del requisito patrimoniale, il secondo pilastro offre una visione più ampia e per certi
aspetti più qualitativa del processo volto a garantire la solvibilità degli intermediari. Più
163
specificamente, il secondo pilastro è finalizzato ad una valutazione, da parte delle banche, della
complessità dei rischi cui sono esposte, sia in termini di dotazione patrimoniale che di adeguatezza
dei processi e presidi organizzativi. Inoltre le banche sono tenute a valutare la propria vulnerabilità
ad eventi eccezionali ma plausibili (stress testing).
I requisiti di vigilanza del secondo pilastro prevedono lo sviluppo del processo ICAAP (Internal
Capital Adequacy Assessment Process) e del processo SREP (Supervisory Review and Evaluation
Process). Il primo è a carico delle banche, che sono tenute ad effettuare un‟autonoma valutazione
della propria adeguatezza patrimoniale, attuale e prospettica, in relazione a tutti i rischi assunti e
alle strategie aziendali; il secondo è di competenza dell‟Autorità di Vigilanza, che riesamina
l‟ICAAP, formula un giudizio complessivo sulla banca e attiva, ove necessario, le misure correttive.
Lo SREP si basa sul confronto tra la Vigilanza e le banche; ciò consente alla Banca d‟Italia di
acquisire una conoscenza più approfondita del processo ICAAP e delle ipotesi metodologiche
sottostanti e alle banche di illustrare le motivazioni a sostegno delle proprie valutazioni.
La sfida del secondo pilastro
Il Secondo Pilastro si colloca all‟intersezione fra obblighi normativi e opportunità gestionali. I
requisiti regolamentari in esso contenuti potrebbero essere in qualche caso avvertiti come una
minaccia; da essi possono infatti conseguire, per le banche, requisiti patrimoniali addizionali
rispetto al minimo regolamentare previsto dal primo pilastro, o comunque altri interventi correttivi
rilevanti, quali il divieto di effettuare determinate operazioni o di distribuire i dividendi.
Tuttavia, il processo di valutazione del complesso dei rischi rilevanti, prevista dal secondo pilastro,
se correttamente implementato, può sensibilmente accrescere la razionalità delle decisioni aziendali
in un‟area – quella del governo del rischio e del valore – particolarmente vitale e strategica agli
occhi degli azionisti e delle Autorità. In questo senso, il secondo pilastro dovrebbe essere vissuto
come un‟importante opportunità per restringere il divario tra capitale regolamentare e capitale
economico, riducendo il tradizionale strabismo di cui soffre un management costretto a guardare
contemporanemante al vincolo patrimoniale imposto dalla Vigilanza e alla misura di risk-taking
capacity da cui discendono le aspettative di remunerazione degli azionisti.
164
APPENDICE
Il modello di riferimento
Per trasformare la PD, la LGD, l‟EAD e la maturity di un prestito in un requisito patrimoniale,
come abbiamo detto, è necessario un ulteriore ingrediente: il grado di diversificazione del
portafoglio. A parità di condizioni un portafoglio assai diversificato è meno rischioso dal momento
che i default e la sopravvivenza di un prestito si compensano a vicenda, mentre il livello delle
perdite è più stabile nel tempo. Il Comitato di Basilea ha sviluppato una funzione che tenesse conto
di tali effetti. Consideriamo un portafoglio di crediti composto da un elevato numero di piccoli
prestiti e immaginiamo, in linea con il modello di Merton, che ogni prenditore fallisca se e solo se il
valore delle sue attività cade al di sotto di una certa soglia (per esempio il valore dei debiti) al
termine di un dato orizzonte temporale. Immaginiamo inoltre che il cambiamento percentuale che si
verificherà nel prossimo anno nel valore degli attivi (AVR) dell‟i-esimo prenditore, possa essere
espresso come:
[1]
cioè come una combinazione lineare di due componenti: il fattore Z, che risponde al ciclo
macroeconomico (e dunque è il medesimo per tutti i debitori) e il fattore εj che dipende soltanto dal
rischio individuale, cioè idiosincratico, del titolare del prestito.
In base ai pesi utilizzati nella formula un prenditore può essere più o meno esposto al ciclo: al
crescere di w tutti i debitori tendono ad essere sempre più correlati tra loro, mentre una diminuzione
di w, significa che le caratteristiche idiosincratiche prevalgono e che i singoli prenditori sono
sempre più indipendenti. Si noti che questa rappresentazione dell‟effetto delle variabili
macroeconomiche sul valore delle attività di un‟azienda rappresenta una semplificazione del
modello multifattoriale ad esempio, di CreditMetrics, dove due o più variabili causali rappresentano
settori diversi, aree geografiche distinte o differenti grandezze macroeconomiche. Tuttavia simili
modelli sarebbero poco maneggevoli a fini regolamentari33
; per questa ragione il Comitato di
Basilea ha deciso di attenersi ad uno schema unifattoriale come quello presentato.
33
Un modello multifattoriale renderebbe più complessi i calcoli e soprattutto renderebbe i requisiti di capitale sul
nuovo prestito dipendenti dalla composizione del portafoglio di ogni banca.
ii wZwZ 21
165
Se si assume che Z ed εi seguano una distribuzione normale standard, dall‟equazione 1 consegue
che anche Zi segua una distribuzione di questo tipo. Si noti che per ogni coppia di debitori i e j, la
correlazione tra asset value return è data da:
ρ(Zi,Zj)=w2
[2]
Come logico, quanto più è elevata la dipendenza (w) delle attività di ogni azienda dal ciclo
economico, tanto più alta sarà la correlazione (ρ) tra l‟andamento delle attività delle due imprese.
Sappiamo che il debitore i-esimo diviene insolvente se e solo se Zi è minore di α, dove α indica il
suo default point. Indichiamo ora con pi=PD la probabilità di insolvenza non condizionale (cioè
indipendente dal valore assunto del fattore Z) di tale debitore; si avrà allora che N(α)=pi , dove N(.)
indica come di consueto la distribuzione di probabilità cumulata normale standard.
Supponiamo ora di conoscere l‟andamento della congiuntura macroeconomica nel prossimo anno34
.
Ciò equivale a supporre di conoscere il particolare valore (diciamo Z*) che verrà assunto dal fattore
macro Z. Allora si avrà:
[3]
e l‟azienda i-esima diverrà insolvente se e solo se:
[4]
cioè se:
[5]
Poichè εi segue una distribuzione normale standard, la probabilità di insolvenza per il debitore i,
condizionata a Z=z* sarà semplicemente:
[6]
La probabilità condizionata è dunque una funzione f(.) di Z, della PD non condizionata pi e del
parametro w. Si noti che essendo il nostro portafoglio infinitamente granulare, la percentuale di
insolvenze effettivamente registrata quando Z=Z* sarà esattamente pari a questa probabilità di
34
Si tratta di un‟ipotesi irrealistica che provvederemo ad eliminare in seguito.
ii wZwZ 21*
ii wZwZ 21*
166
default condizionata. In altre parole in presenza di un numero molto elevato di crediti l‟errore
casuale si affievolisce e le distribuzioni osservate tendono a coincidere con quelle teoriche. La
probabilità condizionale mostrata nella formula precedente può perciò essere considerata come la
percentuale di insolvenze, o ancora, (data un‟esposizone di un‟euro ed una LGD del 100%) come la
perdita che il nostro portafoglio crediti dovrà effettivamente sopportare se il fattore
macroeconomico assumerà il valore Z*.
Tuttavia non sappiamo quale valore assumerà il fattore Z: infiniti valori di Z* possono generare
infiniti valori delle nostre perdite future. Poichè però sappiamo che Z segue una distribuzione
normale standard, dove l‟x-esimo percentile è dato da:
Zx|N(Zi)=x
possiamo usare l‟equazione [6] per indicare un valore di perdita L che verrà superato soltanto nell‟x
per cento dei casi. Chiaramente tale valore è:
[8]
Questa equazione fornisce l‟ammontare di capitale e riserve necessario per fronteggiare l‟(1- x) per
cento di tutte le possibili perdite. Per esempio ponendo x=0,1% e ρ=w2=15% si ottiene un requisito
patrimoniale che dipende a questo punto solo dalla PD non condizionale del debitore.
[9]
Per poter vedere il tasso di insolvenza come una perdita unitaria su un prestito di un euro, abbiamo
imposto una LGD del 100%. Questa ipotesi può essere facilmente rimossa correggendo la [8] in
base all‟effetiva LGD (in pratica ipotizzando che un prestito di 2 euro con una LGD del 50 per
cento possa essere trattato come un prestito di un euro con una LGD del 100 per cento, la formula
diventerà:
167
[10]
La scelta dei parametri
Data la struttura della [10] è evidente che i parametri x e w svolgono un ruolo cruciale nella
determinazione del requisito patrimoniale per un dato livello di PD. In particolare quanto più
piccolo è x, cioè la percentuale di casi che le autorità accettano essere scoperta, tanto più il modello
si fa severo e conduce a requisiti patrimoniali più elevati. Il Comitato di Basilea ha optato per un
valore di x pari allo 0,1%, accettando dunque che capitale e riserve prescritti dalla normativa del
primo pilastro possono non essere sufficienti in un caso su mille. Per quanto riguarda w ed il suo
quadrato ρ è possibile dimostrare che valori crescenti di questo parametro generano a parità di LGD
e PD un requisito via via più elevato. Sul piano logico ciò dipende dal fatto che quanto più i prestiti
presenti in un portafoglio sono sensibili al fattore macroeconomico Z tanto più essi tendono a
risultare insolventi in maniera congiunta, rendendo più probabili situazioni di rischio estremo.
Ovviamente non tutte le esposizioni presenti nel portafoglio di prestiti di una banca sono
ugualmente sensibili ai rischi macroeconomici; al contrario è probabile che:
i prestiti di taglia più piccola siano relativamente più esposti a rischi di tipo individuale
(legati alla componente ε, cioè all‟onestà e capacità del singolo prenditore);
i debitori meno affidabili, cioè con una PD più elevata, siano tali per effetto di rischi
idiosincratici, cioè diversificabili (dunque anche in questo caso legati ad ε).
Queste due tipologie di prenditori dovrebbero dunque presentare una asset correlation più ridotta.
Per questo, il Comitato di Basilea non ha scelto un unico valore di ρ valido per qualunque
esposizione, ma ha proceduto per famiglie di crediti simili o per meglio dire, per sottoportafogli.
La tavola seguente riporta i principali sottoportafogli in cui le banche che adottano il metodo dei
rating interni devono suddividere i propri portafogli ed i valori di ρ scelti per ognuno di essi.
168
Sottoportafoglio Descrizione Asset Correlation (ρ)
Esposizioni rotative
ratail qualificate
Esposizioni con persone
fisiche, non superiori a
100.000 euro e non assistite
da garanzie o impegni
4%
Crediti retail garantiti
da ipoteca su
immobili residenziali
Mutui ipotecari su immobili
residenziali concessi al
proprietario
15%
Esposizioni retail
generiche, incluse le
piccole imprese
Esposizioni verso singoli 3-16% a seconda della PD
Esposizioni verso
imprese, soggetti
sovrani e banche
Esclusi i finanziamenti
immobili ad elevata
volatilità
12-24% a seconda della PD
Esposizioni verso
imprese di medie
dimensioni
Imprese facenti parte di un
gruppo il cui fatturato non
supera i 50 milioni di euro
Come le precedenti ma con
uno sconto che può
raggiungere il 4% nel caso
di fatturato consolidato non
superiore ai 5 milioni di euro
Finanziamenti di
immobili ocmmerciali
a elevata volatilità
Solo per le banche in grado
di valutarli con il proprio
sistema di rating
12-30% a seconda della PD
Tavola 5.1: Metodo IRB e suddivisione dei portafogli di una banca
Come si vede, i valori di ρ crescono man mano che si passa alle esposizioni verso soggetti di taglia
minore ai prestiti a grandi controparti.
Per ogni prestito, sostituendo nella (10) la sua PD e la sua LGD ed il valore di ρ valido per il
sottoportafoglio di appartenenza ricavato dalla tabella sopra esposta, si ottiene un‟indicazione sul
fabbisogno unitario di capitale e riserve che la banca deve accantonare per far fronte al 99,9% dei
possibili casi futuri. Non si tratta ancora, tuttavia, della versione completa della formula del calcolo
del capitale riportata nel nuovo accordo: per arrivarci è necessario considerare ancora due passaggi
logici. Il primo riguarda la distinzione tra perdite attese ed inattese; il secondo l‟effetto della vita
residua.
169
Perdite attese ed inattese
Il capitale quantificato attraverso la (10) copre ogni possibile perdita futura fino ad un certo livello
di confidenza (in particolare, fino al 99,9% dei casi); ciò significa che esso include sia le perdite
attese che una certa porzione di perdite inattese, che si verificheranno solo in determinati scenari
estremi.
Figura 5.3: Distribuzione delle perdite future su un portafoglio crediti
La figura soprastante visualizza questo concetto, mostrando un fac-simile della distribuzione di
probabilità delle perdite future su un portafoglio crediti; si tratta di una distribuzione asimmetrica a
destra, visto che a un numero elevato di scenari contraddistinti da perdite modeste fa riscontro un
limitato numero di casi il cui danno può rivelarsi assai elevato. La copertura patrimoniale suggerita
dalla (10) fronteggia tutte le possibili perdite tranne lo 0,1% di situazioni peggiori; come detto essa
va dunque oltre la media della distribuzione (perdita attesa o expected loss, EL) ed include anche un
certo ammontare di perdite inattese (unexpected loss, UL). In simboli:
L = EL + UL (11)
È dunque utile distinguere, come abbiamo già visto in passato, tra le due componenti presenti nella
(10): la perdita attesa, che sarebbe opportuno coprire con accantonamenti/riserve e la perdita
170
inattesa che è necessario fronteggiare con capitale. Osserviamo che è relativamente facile
quantificare questi due addendi, visto che il tasso unitario di perdita attesa su un prestito è dato dal
prodotto PD * LGD. Data la (10), ricordando che il livello di confidenza è del 99,9%, si ha dunque:
EL = PD * LGD (12)
da cui
(13)
Sul piano pratico il primo pilastro richiede alle banche che adottano il metodo IRB di quantificare
separatamente perdite attese ed inattese e stabilisce che:
la perdita attesa assoluta (calcolata, per ogni esposizione, moltiplicando la EL unitaria per
l‟EAD) possa essere coperta attraverso gli accantonamenti a riserva effettuati dalla banca;
la perdita inattesa assoluta (calcolata per ogni esposizione moltiplicando la UL unitaria per
l‟EAD) debba essere coperta con capitale. Possiamo dunque vedere la UL della formula (13)
come un requisito di capitale in senso stretto.
La (13) non rappresenta ancora la versione finale della formula. Per ottenerla occorre considerare
l‟effetto della vita residua35
e lo scaling factor36
.
La formula completa per il calcolo della UL unitaria rettificata per il maturity adjustment (b) e per
lo scaling factor (ζ) risulta pari a:
(14)
Moltiplicando la (14) e la (11) per l‟EAD è dunque possibile calcolare, rispettivamente, la quantità
di capitale e di accantonamenti a riserva richiesti a fronte di ogni prestito, alle banche che adottano
il metodo del rating interno. Per mostrare come, concludiamo con un breve esempio tratto da Resti
(2005).
35
Per i prestiti con più lunga scadenza esiste il rischio di downgrading. Questo rischio cresce con la maturity (M) di un
finanziamento che rappresenta un ulteriore profilo di rischio da misurare. Si noti che nessun aggiustamento per la vita
residua ha luogo per le esposizioni retail. 36
Il Comitato di Basilea per prevenire il rischio che l‟adozione dell‟accordo possa condurre ad un sistematico
inasprimento/depauperamento nei livelli patrimoniali del sistema bancario internazionale ha inserito nel calcolo del
requisito di capitale finale, un fattore di scala concordato a livello internazionale (pari attualmente a 1,06).
171
Esempio
Consideriamo un prestito a tre anni, con EAD pari a 100.000 euro effettuato ad un‟impresa con PD
= 1% e fatturato di 5 milioni di euro, su cui si stima una LGD del 45%. La perdita attesa assoluta
sarà semplicemente pari a:
EL * EAD = PD * LGD *EAD = 1% * 45% * 100.000 = 450 euro
La perdita inattesa assoluta sarà invece pari a:
Osserviamo che, in questo caso, ρ = w2 è pari circa a 15,3%; di conseguenza w vale all‟incirca
39,1%. Inoltre assumendo che il fattore b sia pari a 1,346 e che lo scaling factor valga 1,06
otteniamo:
Questa perdita inattesa assoluta dovrà essere coperta con capitale.
172
PARTE SECONDA
1 - BASILEA III E TRADING BOOK
LE PROPOSTE DEL DICEMBRE 2009
Il contesto di riferimento
Esiste ormai un'ampia letteratura37
sulla crisi, sulle sue possibili cause macroeconomiche e
microeconomiche38
. Tralasciamo qui le cause macroeconomiche (nell‟Annual Report relativo al
2009 la BIS individua, tra le cause scatenanti la crisi, gli squilibri internazionali legati ad una
crescita trainata dalle esportazioni e dalla leva finanziaria ed i bassi tassi di interesse che hanno
indotto un boom del credito)39
.
Per l'impianto di questa tesi è invece importante soffermare l'attenzione sulle cause
microeconomiche. Secondo la Banca dei Regolamenti Internazionali (Bank of International
Settlements, 2009), queste sono riconducibili a problemi di incentivi, di misurazione dei rischi e di
regolamentazione. Tra i problemi di misurazione del rischio la BIS cita la sottostima del possibile
esito catastrofico di eventi infrequenti, la crescente importanza degli strumenti di nuova creazione a
volte opachi, l‟affidamento eccessivo sugli andamenti storici come buoni predittori di quelli futuri.
Sempre secondo la BIS, anche le lacune regolamentari avrebbero contribuito alla crisi: avendo
37
De Laroisière (2009), Financial Services Authority (2009), The Group of Thirty (2009), Bank of International
Settlements (2009), Financial Stability Forum (2009). 38
La Banca dei Regolamenti Internazionali, nell‟Annual Report relativo al 2009, fa riferimento a cinque fasi della crisi:
il preludio della crisi, che ha portata all'acquisizione di Bear Stearns nel marzo del 2008; il graduale deterioramento
delle condizioni finanziarie iniziato a metà marzo e culminato con il fallimento di Lehman Brothers il 15 settembre
2008; la perdita di fiducia a livello mondiale, la fuga massiccia verso la qualità e il quasi tracollo del sistema finanziario
da metà settembre agli ultimi di ottobre; il grave declino dell'economia mondiale a partire dagli ultimi giorni di ottobre;
l'intensificarsi della contrazione ciclica e i primi segnali di stabilizzazione dopo metà marzo 2009. 39
Su di esse ha scritto, come ricordato da Draghi, spiegazioni interessanti Raghuram Rajan, della Chicago‟s Booth
School of Business (Rajan, 2005).
173
sottovalutato la severità dell‟impatto di eventi avversi, i regulator avrebbero definito dei requisiti
minimi insufficienti per far fronte a scenari di stress.
Nelle prossime pagine ci soffermeremo su alcune criticità dei sistemi di misurazione del rischio
evidenziate dalla crisi. Cercheremo di affrontare questo tema da una duplice prospettiva: quella dei
risk manager, più operativa, e quella delle autorità di vigilanza.
Partiamo dalle proposte che i regolatori hanno introdotto per ovviare alle sopracitate lacune. La
risposta delle autorità è avvenuta in due tempi: prima con l‟introduzione di misure di emergenza,
poi con l'avvio di un processo più organico di riforma (Carosio, 2010). Più specificatamente i capi
di Stato e di governo dei paesi del G20 hanno dato mandato al Financial Stability Board di
formulare specifiche raccomandazioni, che i comitati tecnici hanno poi tradotto in proposte concrete
di revisione degli standard internazionali. Di seguito riportiamo un schema con i principali attori
coinvolti nel processo di adeguamento della normativa e le loro relazioni.
Figura 1.1: Gli attori coinvolti nel processo di adeguamento della normativa
Nella figura 1.1 sono riportati:
174
il Comitato di Basilea, che contribuisce alla comprensione delle problematiche chiave di
vigilanza e migliora la qualità della supervisione bancaria a livello mondiale. Sviluppa
inoltre le linee guida e gli standard di vigilanza;
il Committee of European Banking Supervisors (CEBS), che fornisce pareri alla
Commissione Europea in merito a problematiche relative alle politiche bancarie e promuove
la cooperazione e la convergenza nell‟Unione Europea delle procedure di vigilanza;
il Financial Stability Forum, che analizza le vulnerabilità del sistema finanziario ed
identifica o sopraintende le azioni necessarie per risolverle;
la Commissione Europea, che redige le proposte per gli emendamenti della direttiva sul
requisito di capitale (Capital Requirement Directive, CRD) da presentare al Parlamento
Europeo ed al Consiglio Europeo;
il Parlamento Europeo/Consiglio Europeo, che approva le leggi europee e promulga le
direttive e le normative;
le banche: le banche e gli istituti finanziari possono esprimere la loro posizione riguardo alle
proposte di emendamento della Capital Requirement Directive (CRD) rispondendo alla
documentazione di consultazione;
la direttiva UE: si tratta di un atto legislativo dell‟Unione Europea che richiede una serie di
comportamenti da parte degli stati membri. La direttiva deve essere infatti recepita da questi
ultimi, cui viene lasciata una certa libertà in merito alle norme specifiche da adottare. La
Direttiva si distingue dalle altre normative dell‟Unione Europea, che non richiedono
l‟implementazione di nessuna misura particolare.
175
I problemi sollevati dalla crisi
La crisi finanziaria ha fatto emergere una serie di problemi. Relativamente, ad esempio, al tema del
livello e della qualità del capitale, si può notare come molte delle banche che hanno richiesto
interventi governativi sul capitale avevano ratio patrimoniali pre-crisi al di sopra dei minimi. In
teoria questo livello, secondo Basilea II, avrebbe dovuto mettere tali banche al riparo da eventuali
eventi negativi inattesi. Peraltro, la qualità del capitale non era così soddisfacente. La tabella
sottostante, ripresa da uno studio di Intesa Sanpaolo (Coletti, 2009), evidenzia infatti come,
nonostante il Tier 1 ratio dei principali gruppi bancari europei a fine 2007 fosse pari al 7,32% (e
quindi relativamente elevato), a tale ammontare contribuissero in modo determinante gli strumenti
ibridi (17% del Tier 1).
Figura 1.2: I ratio di capitale dei 15 maggiori gruppi europei
Un‟altra lacuna della normativa è relativa ai livelli di leva: i ratio patrimoniali pesati per il rischio
non sono stati infatti in grado di garantire una fisiologica leva finanziaria. Come si può osservare
dalla figura 1.3, tratta anch‟essa da Coletti (2009), alcune grandi banche europee avevano, all‟inizio
176
della crisi, dei leverage ratio (Total Asset/Tier 1) estremamente elevati (si vedano in particolare i
casi di UBS e Deutsche Bank).
Figura 1.3: Total Asset / Tier 1
La crisi ha inoltre evidenziato la natura “pro-ciclica” di Basilea II. Con questo termine si intende il
rischio che il sistema di requisiti patrimoniali per le banche, fondato sul sistema di rating, possa
accentuare le fluttuazioni del ciclo economico. La figura seguente evidenzia il circolo “vizioso”
della pro-ciclicità.
Figura 1.4: Il circolo vizioso della pro-ciclicità
177
In presenza di coefficienti patrimoniali, il deterioramento del ciclo economico associato a più
elevati tassi di insolvenza e ad una maggiore frequenza di declassamenti (downgrading) porta ad un
inasprimento dei requisiti di capitale imposti alle banche. Questa situazione conduce, in presenza di
una dotazione data di patrimonio, ad una contrazione del credito bancario all‟economia, di fatto
accentuando la condizione recessiva (Resti, 2005). Il contrario avviene in una fase di crescita
economica. In presenza di un generale miglioramento del merito di credito delle controparti, le
ponderazioni per il rischio ed i coefficienti patrimoniali si allentano, di fatto consentendo alle
banche di aumentare l‟offerta di credito all‟economia.
La crisi ha evidenziato anche una scarsa attenzione da parte del management bancario e delle
autorità di vigilanza al tema della liquidità. Infatti, nelle prime fasi della crisi diverse importanti
banche hanno attraversato un periodo di forte carenza di liquidità cui sono state in grado di ovviare
solamente grazie alla messa a disposizione da parte delle banche centrali di abbondante liquidità “a
buon mercato”. Tutto ciò è stato ben documentato nel citato Annual Report della Banca dei
Regolamenti Internazionali, da cui è tratta la seguente figura (Bank of International Settlements,
2009).
Figura 1.5: L’evoluzione della crisi del 2007
La vigilanza “microprudenziale” si è infine rivelata poco efficace rispetto al rischio sistemico. Con
questo termine si intende indicare l‟effetto potenzialmente dannoso per la stabilità del sistema
finanziario della situazione di crisi di singole banche (con connessi fenomeni di contagio). Infatti,
come osservato da Pennacchi (2009), il rischio sistemico presente nell‟attività bancaria ha condotto
in passato e anche durante la recente crisi ad eventi altamente correlati con le fasi recessive
178
dell‟economia40
. Il grafico sotto riportato è una nostra elaborazione basata su dati del Federal
Deposit Insurance Corporation.
Figura 1.6: Numero di fallimenti delle banche americane tra il 2000 ed il 2010
Le proposte di riforma del sistema di adeguatezza patrimoniale
I problemi sollevati dalla crisi hanno indotto il Comitato di Basilea ad introdurre nuove disposizioni
regolamentari.
Dovendo riepilogare le proposte di riforma del sistema di adeguatezza patrimoniale, un ottimo
punto di partenza è il documento, pubblicato nel dicembre del 2009, “Strenghtening the resilience
of the banking sector” (Basel Committee on Banking Supervision, 2009). All‟inizio dello stesso si
legge infatti la diagnosi complessiva del Comitato:
“One of the main reasons the economic and financial crisis became so severe was that the banking
sectors of many countries had built up excessive on and off balance sheet leverage. This was
accompanied by a gradual erosion of the level and quality of the capital base. At the same time,
many banks were holding insufficient liquidity buffers. The banking system therefore was not able
to absorb the resulting systemic trading and credit losses nor could it cope with the re
40
L‟analisi di Pennacchi si sofferma sul sistema delle banche commerciali americane nel periodo 1930-2008.
179
intermediation of large off balance sheet exposures that had built up in the shadow banking system.
The crisis was further amplified by a pro cyclical deleveraging process and by the
interconnectedness of systemic institutions through an array of complex transactions.”.
Per andare più in profondità sulle singole proposte dobbiamo ricorrere ad una serie più articolata di
documenti, che abbiamo citato volta per volta quando necessario e che abbiamo comunque riportato
in bibliografia. I documenti principali a cui facciamo riferimento nel seguito della tesi sono i
seguenti:
• “Revision to the Basel II market risk framework” (Luglio 2009) e “Guidelines for
computing capital for incremental risk in the trading book‖ (Basel Committee on
Banking Supervision, 2009), che includono come rilevanti ai nostri fini misure relative a:
• The incremental risk capital charge;
• The comprehensive risk measure (CRM) for correlation trading portfolios;
• New requirement for capital charge in the trading book;
“Strenghtening the resilience of banking sector” (Dicembre 2009), che include proposte
relative a:
o Quantità del Capitale;
o Qualità del Capitale;
o Leverage ratio;
o Prociclicità.
• “International framework for liquidity risk measurements standards and monitoring” (Basel
Committee on Banking Supervision, Dicembre 2009);
• Comunicato stampa del Luglio 2010 (Basel Committee on Banking Supervision, Luglio
2010) “The group of governors and heads of supervision reach broad agreement on Basel
Committee capital and liquidity reform package”. Nell‟allegato a tale comunicato sono state
riviste e chiarite alcune delle regole già pubblicate nel dicembre 2009;
• Comunicato stampa del settembre 2010 (Basel Committee on Banking Supervision,
Settembre 2010) “Higher global minimum capital standards announced by the group of
governors and heads of supervision”.Gli allegati a quest‟ultimo comunicato si focalizzano
180
sui nuovi requisiti minimi di capitale, sui buffer anticiclici e sulle date di implementazione
delle diverse proposte. In particolare si afferma che l‟applicazione delle nuove regole avrà
luogo a far data dal gennaio 2013 mentre la completa applicazione avverrà a partire dal 1
gennaio 2019.
Le nuove regole andranno a regime con gradualità per non ostacolare la ripresa economica. Di
seguito illustriamo le principali proposte di modifica della regolamentazione prudenziale esistente
prima della crisi.
La qualità del capitale
Il patrimonio è alla base della regolamentazione prudenziale. Un livello di capitale adeguato è,
come abbiamo visto, sinonimo di stabilità e permette alle banche di poter sfruttare possibili nuovi
investimenti e opportunità di crescita.
Le recenti proposte del Comitato di Basilea mirano a migliorare: “…the quality, consistency and
transparency of the capital base” (Basel Committee on Banking Supervision, Dicembre 2009).
La composizione del capitale bancario ha evidenziato negli anni immediatamente precedenti la crisi
un crescente rilievo degli strumenti ibridi ed innovativi computabili in lower Tier 1 e upper Tier 2
che di fatto, nel momento del bisogno, non hanno agito da “loss absorber” (Coletti, 2009) . Questo
aspetto è stato sottolineato anche da Acharya, et al., (2009): “Even as banks and financial
intermediaries have suffered large credit losses in the financial crisis of 2007-09, they have raised
substantial amount of new capital. However, the composition of bank capital has shifted
from...common equity to...debt-like hybrid claims such as preferred equity and subordinated debts.
The erosion of common equity has been exacerbated by large scale payments of dividends”
181
Tavola 1.1: Capitale raccolto per tipologia di capitale
Coletti (2009) ha mostrato anch‟essa che il rafforzamento del patrimonio di base (+6%)
sperimentato da un campione di grandi banche dell‟area euro nel periodo 2007-2008 è spiegato
principalmente dall‟incremento degli strumenti ibridi (+32%) accompagnato da un più contenuto
incremento della componente core. L‟attenzione delle autorità di vigilanza è stata rivolta pertanto
ad accrescere la qualità ed il peso del core Tier 1. Il Comitato di Basilea, nelle sue recenti proposte,
ha infatti confermato la ripartizione del patrimonio di vigilanza in patrimonio base (Tier 1), a
copertura delle perdite in un'ottica di continuità aziendale, e patrimonio supplementare (Tier 2), a
copertura delle perdite in caso di liquidazione. Relativamente al core Tier 1 si afferma che esso
dovrà includere il common equity, detto anche patrimonio core, che per le società per azioni sarà
costituito essenzialmente da azioni ordinarie e riserve di utili (Basel Committee on Banking
Supervision, Luglio 2010), (Basel Committee on Banking Supervision, Settembre 2010). Mentre il
requisito di capitale complessivo rimane invariato all‟8%, quello in termini di common equity è
stato fissato al 4,5% (in Basilea II il coefficiente minimo ancorchè non ufficialmente previsto era
182
del 2%); per gli altri strumenti di qualità primaria il requisito sale dal 4% al 6% (Tier 1 ratio).
Inoltre, dal common equity devono essere dedotte (regulating adjustements) attività immateriali
(avviamento) e altre poste dell‟attivo (come le partecipazioni) di non agevole realizzo, secondo
criteri più rigorosi che in passato41
.
Evidentemente rimangono aperti una serie di quesiti di non agevole soluzione. In particolare non è
facile rispondere alla domanda di quale sia il livello ottimo di capitale di una banca. Presentare dei
livelli di capitale regolamentare eccessivamente elevati (rispetto al capitale economico) nelle fasi
positive del ciclo, infatti, potrebbe rappresentare un oneroso fardello per le banche (Resti, 2010).
I nuovi livelli dei requisiti dovranno essere raggiunti gradualmente, entro il 2015; anche le nuove
deduzioni dal capitale saranno introdotte con gradualità e diverranno operative nel 2018 (Basel
Committee on Banking Supervision, Settembre 2010).
Il leverage ratio
Una dettagliata descrizione delle proposte sul leverage ratio può essere trovata nel documento
Basel Committee on Banking Supervision (Dicembre 2009).
L‟evidenza empirica dimostra come molte grandi banche internazionali avessero accresciuto la leva
finanziaria senza per questo ridurre il proprio coefficiente patrimoniale pesato per il rischio.
Nell‟aprile 2009 il Financial Stability Board chiedeva: “The Basel Committee should supplement
the risk based capital requirement with a simple, non-risk based measure to help contain the build
up of leverage in the banking system and put a floor under the Basel II framework” (Financial
Stability Forum, Aprile 2009).
L‟introduzione del leverage ratio, definito come il rapporto massimo tra il volume delle attività e
delle esposizioni fuori bilancio e il capitale, ha una finalità duplice. Da un lato, infatti, consente di
contenere il livello di indebitamento nelle fasi di elevata crescita economica, dall'altro, invece, può
41
Per quanto riguarda l‟Italia, il dibattito sulla qualità del capitale si è incentrato in particolare sul trattamento delle
imposte differite relative agli accantonamenti su crediti. Il regime fiscale del nostro Paese ha infatti limiti
particolarmente stringenti alla deducibilità delle svalutazioni e delle perdite su crediti. La proposta finale del Comitato
si è modificata rispetto a quella originaria, che prevedeva la totale deduzione di queste poste immateriali dal capitale
delle banche, ed ora richiede la deduzione solamente per la parte che eccede una certa soglia del capitale di qualità
primaria della banca. Anche la proposta di dedurre integralmente gli interessi di terzi in società comprese nei gruppi
bancari è stata rivista, alleviando il peso della riforma per banche organizzate in strutture di gruppo articolate
(Associazione Bancaria Italiana, Aprile 2010).
183
supplire ad eventuali carenze o imperfezioni nei modelli interni per la valutazione del rischio,
soprattutto di quelli sviluppati per prodotti finanziari particolarmente complessi ed innovativi.
In linea con le richieste del G20, il Comitato di Basilea ha proposto di introdurre un requisito
minimo di capitale (Tier 1) pari al 3% rispetto al totale dell‟attivo non ponderato per il rischio
(leverage ratio) (Basel Committee on Banking Supervision, Luglio 2010).
Questo indicatore è stato costruito in modo da non prestarsi a facili arbitraggi regolamentari, così da
catturare tutte le attività di una banca (in bilancio e fuori) ed essere neutrale rispetto alle diverse
regole contabili vigenti nelle principali giurisdizioni (Basel Committee on Banking Supervision,
Settembre 2010), ma su questo torneremo più avanti.
Anche per il leverage ratio è prevista un‟entrata in vigore graduale, per verificarne sul campo gli
effetti e poter ridurre i correttivi che dovessero risultare necessari. Diverrà una regola prudenziale
vincolante per le banche a partire dal 2018.
Il Trading Book
Nel corso della crisi le perdite subite da numerose istituzioni finanziarie hanno superato in misura
rilevante le misure di VaR generate dai modelli interni, mettendone in discussione la robustezza.
Inoltre, sono emersi con chiarezza i problemi di rischio di credito (default risk, migration risk,
spread risk) e di liquidità connessi a strumenti inseriti nel trading book. Questi due aspetti, rischio
di credito e di liquidità, sono infatti normalmente trascurati dai modelli di misurazione del rischio di
mercato.
Due sono le principali proposte di Basilea sulle attività di negoziazione: la prima è quella di
introdurre un requisito addizionale per il rischio specifico delle posizioni del trading book
(Incremental Risk Charge) (Basel Committee on Banking Supervision, Luglio 2009), mentre la
seconda è quella di richiedere un requisito patrimoniale addizionale per il rischio di perdite in
periodi di forte stress (stressed VaR) (Basel Committee on Banking Supervision, Luglio 2009).
L‟obiettivo più innovativo è quello di imporre alle banche, tramite l’Incremental Risk Charge, un
requisito patrimoniale che tenga in adeguata considerazione il rischio di liquidità (market liquidity
risk) delle posizioni, specie di quelle con profilo creditizio. L‟introduzione di queste misure
comporta, come si vedrà, un‟importante incremento dei requisiti patrimoniali a fronte dei rischi di
184
mercato e fa sorgere una serie di quesiti: come si sono comportati i modelli VaR durante la crisi?
Hanno manifestato una sufficiente robustezza? Esiste ancora la convenienza per l‟approccio dei
modelli interni rispetto all‟approccio standard? La risposta a questi e a simili interrogativi è uno
degli obiettivi principali di questa tesi.
Buffer anticiclici
Il Financial Stability Forum nel 2009 riportava: “The present crisis has demonstrated the disruptive
effects of procyclicality – mutually reinforcing interactions between the financial and real sectors of
the economy that tend to amplify business cycle fluctuations and cause or exacerbate financial
instability. Addressing procyclicality in the financial system is an essential component of
strengthening the macroprudential orientation of regulatory and supervisory frameworks.”
(Financial Stability Forum, Aprile 2009).
Prima della crisi, il Comitato di Basilea aveva tentato di ovviare al rischio di pro-ciclicità inerente
l‟accordo del 2004 seguendo tre modalità (Resti, et al., 2008). La prima risposta prevedeva di
rendere più “piatta“ la curva delle ponderazioni per il rischio.
Figura 1.7: Requisiti di capitale nel draft del 2001 ed in quello del 2003
185
Il Comitato nel draft del 2004, l‟ultima versione rilasciata, optava sia per ragioni di calibrazione che
per ragioni politiche per una funzione meno “ripida”: in altri termini le variazioni della probabilità
di default dei diversi segmenti di clientela implicavano minori requisiti patrimoniali rispetto alla
versione originaria. Una seconda risposta di Basilea II era quella di utilizzare probabilità di default
più a lungo termine, privilegiando chiaramente sistemi di misurazione della PD through the cycle
rispetto a quelli point in time. Infine gli stress test ed il capitale addizionale (buffer) previsti nel
secondo pilastro dovevano essere predisposti anche per far fronte al suddetto rischio di pro-ciclicità.
Le proposte attuali si basano su tre meccanismi tra loro complementari:
buffer patrimoniale anticiclico (proposta luglio 2010);
PD anticicliche (proposta CEBS);
accantonamenti anticiclici (dynamic provisioning vigente in Spagna e proposta IASB
favorita dal Comitato di Basilea).
Queste proposte presentano alcuni interrogativi: quale forma dovrebbero assumere le PD e gli
accantonamenti anticiclici? L‟esperienza spagnola legata al dynamic statistical provisioning può
rappresentare un utile benchmark di riferimento? Su questi ed altri interrogativi ci addentreremo
nell‟apposita sezione della tesi.
Il rischio di liquidità
Nel documento “Strenghtening the resilience of banking sector” (Dicembre 2009) il Comitato di
Basilea afferma che la crisi di liquidità è uno dei principali aspetti della recente crisi finanziaria.
“Throughout the global financial crisis which began in mid-2007, many banks struggled to
maintain adequate liquidity. Unprecedented levels of liquidity support were required from central
banks in order to sustain the financial system and even with such extensive support a number of
banks failed, were forced into mergers or required resolution. These circumstances and events
were preceded by several years of ample liquidity in the financial system, during which liquidity
risk and its management did not receive the same level of scrutiny and priority as other risk areas.
The crisis illustrated how quickly and severely liquidity risks can crystallise and certain sources of
funding can evaporate, compounding concerns related to the valuation of assets and capital
adequacy”.
186
Il Comitato di Basilea propone una serie di regole quantitative che possano tutelare il singolo
intermediario ed abbassare il rischio di contagio ad altri operatori. Una prima regola (liquidity
coverage ratio), finalizzata a garantire l'equilibrio di breve periodo, consiste nel dotarsi, da parte
delle banche, di cuscinetti di attività liquide in grado di coprire eventuali variazioni di cassa
inaspettate in un orizzonte di 30 giorni, anche sotto condizioni di stress molto severe, senza che sia
necessario ricorrere al mercato. Una seconda regola (net stable funding ratio) risponde invece
all'esigenza di evitare squilibri strutturali nella composizione per scadenze delle passività e attività
di bilancio, su un orizzonte temporale più lungo.
Così come per i ratio patrimoniali, anche per gli indicatori di liquidità è stato previsto un periodo
transitorio. Dopo una fase di osservazione iniziale, l‟indicatore di breve termine entrerà in vigore
nel 2015, quello strutturale nel 2018.
Gli operatori sistemicamente rilevanti
Uno degli elementi che ha contribuito a rendere più gravi gli effetti della crisi e a complicarne la
gestione è stata la presenza di operatori sistemicamente rilevanti, spesso cross border e in alcuni
casi di dimensioni molto elevate. Per completezza, delineiamo di seguito alcuni aspetti rilevanti di
questo ulteriore rischio che si è materializzato durante la crisi.
Alcune banche presentano un potenziale elevato di rischio sistemico, cioè il rischio che una
eventuale loro insolvenza determini quella di altre istituzioni finanziarie. La crisi di una singola
istituzione diventa cioè quella dell‟intero sistema finanziario. Che cosa genera tale rischio? In primo
luogo si può fare riferimento al “contagio”. Il fallimento di una banca può generare infatti perdite
rilevanti per altre banche (sia sull‟interbancario – crisi di liquidità - che in relazione ad operazioni in
derivati – rischio di controparte -) che conducono ad altri fallimenti. Dietro al rischio sistemico vi è
la possibile comune dipendenza di più istituzioni finanziarie dai medesimi fattori di rischio.
Pertanto la crisi di una banca si verifica contestualmente a quella di diverse altre banche.
Un altro aspetto da tenere in considerazione è l'identificazione delle istituzioni sistemiche.
Tradizionalmente, la rilevanza sistemica è stata fatta coincidere con la dimensione “too big to fail”,
criterio che pare oggi parziale ed insoddisfacente. La crisi ha infatti mostrato come anche operatori
di piccole dimensioni, attraverso il loro fallimento, possano avere un impatto sostanziale
sull'equilibrio del sistema finanziario e che, anche a parità di dimensione, le ripercussioni sul
187
sistema sono diverse, in relazione, ad esempio, al grado di interconnessione o al modello di business
adottato. Gli elementi da tenere in considerazione vanno pertanto oltre la semplice dimensione e
comprendono caratteristiche come le interconnessioni, la composizione dell'attivo e del passivo, lo
sfruttamento della leva finanziaria, il grado di trasformazione delle scadenze.
Come ridurre il rischio posto dagli intermediari sistemici? Una prima soluzione potrebbe essere
quella di impedirne la formazione, attraverso vincoli di tipo strutturale sul modello del Glass-
Steagall Act (la legge che negli Stati Uniti separava banche commerciali e banche d'investimento), o
comunque distinguendo le attività in base alla loro rischiosità: quelle più tradizionali andrebbero
sottoposte a regolamentazione e quelle più rischiose lasciate deregolamentate ma senza la
possibilità di salvataggi pubblici. Una lezione molto chiara offerta dalla crisi è però quanto
facilmente gli shock si propaghino dagli intermediari non regolati a quelli regolati e come anche i
primi possano assumere rilevanza sistemica, così da richiedere un soccorso.
Si sono anche valutati strumenti di tipo prudenziale, come requisiti patrimoniali aggiuntivi alle
banche che presentino rischi sistemici. In questo modo si potrebbero allineare il costo sociale e
quello privato connessi con il fallimento dell'istituzione sistemica; la diffusione presso gli
investitori di strumenti di debito che si convertono in azioni prima dell'intervento pubblico
(contingent capital), consoliderebbe la disciplina di mercato e ridurrebbe il costo dei salvataggi.
188
CAPITAL REQUIREMENT FOR TRADING BOOK
ACTIVITIES
Framework regolamentare per i rischi di mercato – Alcuni cenni
introduttivi
Negli ultimi anni un significativo impulso allo sviluppo dei modelli per la misura dei rischi di
mercato è venuto dalle autorità di vigilanza che hanno introdotto due importanti innovazioni
normative:
a partire dal 1993, l'estensione dei requisiti patrimoniali ai rischi di mercato attraverso un
approccio semplificato ma basato sul mark to market e ispirato ad una logica di fondo
analoga a quella dei modelli VaR (Basel Committee on Banking Supervision, 1993 (a)),
(Basel Committee on Banking Supervision, 1993 (b)). Le autorità hanno così costretto le
banche a sviluppare dei data warehouse per la misura del rischio di mercato basato sul
valore corrente delle posizioni; la disponibilità di questi dati ha poi funzionato da incentivo
per lo sviluppo di modelli interni di risk management;
a partire dal 1996 (Basel Committee on Banking Supervision, 1996) l'autorizzazione,
concessa alle banche più avanzate, ad adottare i propri modelli interni per determinare il
requisito patrimoniale sui rischi di mercato (approccio dei modelli interni).
Può essere interessante richiamare brevemente le principali tappe che hanno scandito l'introduzione
dei requisiti patrimoniali sul rischio di mercato. L'accordo di Basilea del 1988 era infatti limitato al
rischio di credito. Tale scelta era divenuta via via più inadeguata, a causa di numerosi fattori: lo
sviluppo dell'attività di negoziazione, in particolare di derivati, svolta da numerose grandi banche;
la maggiore volatilità dei mercati finanziari; il processo di cartolarizzazione delle attività
finanziarie, che aveva portato molte istituzioni bancarie a rafforzare la propria presenza sui mercati
mobiliari.
Per estendere i requisiti patrimoniali anche ai rischi di mercato, il Comitato di Basilea formulò
alcune proposte, presentate nell'aprile del '93 e riviste due anni dopo (Basel Committee on Banking
Supervision, 1993 (a)) (Basel Committee on Banking Supervision, 1993 (b)); a conclusione di tale
189
processo di consultazione, il Comitato approvò, a fine 1995, un emendamento all'accordo del 1988
pubblicato nel gennaio dell'anno successivo (il Market Risk Amendment del 1996). Nel 1993 anche
l'Unione Europea intervenne con una propria direttiva (93/6/CEE, nota come CAD I, o Capital
Adequacy Directive I) che sostituiva la direttiva 89/647 sulla solvibilità degli enti creditizi; nel
1998, le principali innovazioni introdotte dal Market Risk Amendment (e in particolare l'approccio
dei modelli interni) vennero recepite con una seconda direttiva (direttiva 98/31, nota come CAD
II42
).
I testi del 1993 (Documenti di consultazione e direttiva CAD I) introducevano una metodologia di
calcolo intesa a tenere conto, attraverso criteri identici per tutte le banche, delle principali fonti di
rischio di mercato. Questo approccio standard risultava tuttavia eccessivamente rigido e
semplicistico per le banche di maggiori dimensioni, in grado di sviluppare e calibrare modelli di
misura del rischio più sofisticati. Per evitare che per tali istituzioni l'approccio standard diventasse
una “camicia di forza”, suscettibile di disincentivare gli investimenti in strumenti avanzati di misura
del rischio, i testi del 1996-'98 (Market Risk Amendment e CAD II) consentivano l'utilizzo di
modelli interni per il calcolo del requisito patrimoniale, a patto che venissero rispettati alcuni
requisiti minimi di qualità. Tale scelta rappresentava un passaggio rivoluzionario (Marsella, et al.,
1997): le autorità di vigilanza rinunciavano a dettare il contenuto dei modelli, limitandosi a
verificarne la solidità e l'efficacia. Così facendo, accettavano di limitare i propri poteri
regolamentari per consentire alle banche di usare un unico modello di misura del rischio tanto a fini
normativi quanto a fini gestionali interni. Il medesimo approccio, come abbiamo già visto
analizzando l‟evoluzione normativa alla fine della prima parte della tesi, è sttao poi seguito nel 2004
relativamente al rischio di credito.
Per calcolare il Market risk charge,le banche possono adottare due approcci:
una metodologia "Standard", in base alla quale le differenti esposizioni hanno diverse
ponderazioni del rischio;
l'approccio dei "Modelli interni", in base al quale alle banche è concesso di utilizzare i
propri modelli interni di Value At Risk (VAR).
Nella pratica, le banche utilizzano una combinazione dei due approcci. Nelle pagine che seguono
limitiamo la nostra attenzione all‟approccio dei modelli interni. Vogliamo però prima evidenziare
(in una sorta di glossario) i principali termini utilizzati dalla vigilanza.
42
A tal proposito si veda Resti, et al., (2008).
190
Il rischio di mercato viene genericamente definito da quest‟ultima come il rischio di perdite, nelle
posizioni in bilancio e fuori bilancio, a seguito di variazioni sfavorevoli dei fattori di mercato. Tra
questi, il Comitato ne individua espressamente quattro: i tassi d'interesse (che influenzano il valore
delle posizioni in titoli di debito), i prezzi azionari (posizioni in titoli di capitale), i prezzi delle
materie prime o commodity (posizioni in strumenti finanziari collegati ai prezzi delle materie prime)
e i tassi di cambio (posizioni in valuta estera).
Il rischio su titoli di debito e di capitale viene a sua volta suddiviso in due componenti:
il rischio generico, ossia il rischio di perdite causate da un generalizzato andamento
sfavorevole dei fattori di mercato (in particolare: un rialzo dei tassi per le obbligazioni, un
calo dell'indice di borsa per le azioni);
il rischio specifico, ossia il rischio di perdite su specifici titoli, causato da un andamento
sfavorevole di fattori propri di un singolo emittente (fallimento, crisi aziendale, etc.).
Per quanto riguarda le posizioni in titoli di debito e titoli di capitale, i requisiti patrimoniali sono
limitati alle posizioni incluse nel portafoglio di negoziazione (trading book o trading portfolio).
L’approccio dei modelli interni
Tra le novità più rilevanti dell‟emendamento del gennaio 1996 vi era la possibilità per le banche di
scegliere tra il sistema standardizzato e un modello interno di misurazione del rischio (Marsella, et
al., 1997). Per poter essere accettati a fini regolamentari, tuttavia, i modelli interni dovevano
uniformarsi ad alcuni requisiti minimi. In particolare vennero fissati i seguenti requisiti quantitativi
tutt'ora43
in vigore:
il VaR deve essere stimato su base giornaliera;
il livello di confidenza utilizzato dev'essere del 99 per cento;
l'orizzonte di rischio (holding period) deve essere di almeno 10 giorni lavorativi;
il campione storico per la stima della volatilità deve essere di almeno un anno;
i dati relativi a volatilità e correlazioni devono essere aggiornati con una frequenza almeno
trimestrale;
43
Prima dell‟entrata in vigore di Basilea III.
191
il VaR complessivo deve essere ottenuto sommando i VaR connessi alle diverse categorie di
rischi di mercato (ipotizzando dunque correlazione perfetta);
i modelli devono adeguatamente cogliere i diversi profili di rischio (delta, gamma, e vega)
dei contratti di opzione.
Ai requisiti quantitativi si affiancavano e tutt'ora si affiancano i seguenti criteri qualitativi:
le banche devono disporre di un'unità autonoma di gestione del rischio, responsabile della
progettazione e applicazione dello stesso. Questa unità deve periodicamente effettuare test
retrospettivi, ossia raffronti ex post tra le misure del rischio stimate e le effettive variazioni
del valore del portafoglio;
il modello di misurazione del rischio deve essere integrato da regolari prove di stress, volte
a simulare le perdite potenziali in situazioni di mercato estreme;
il modello di misurazione del rischio deve essere regolarmente sottoposto a verifiche e
controlli concernenti la sua adeguatezza ed il suo funzionamento;
l'alta direzione deve essere attivamente coinvolta nel processo di controllo dei rischi e
considerare tale controllo come un aspetto essenziale della gestione, cui vanno allocate
risorse rilevanti;
il modello interno di misurazione del rischio deve essere integrato nel processo giornaliero
di gestione del rischio e utilizzato congiuntamente ai limiti interni giornalieri di esposizione;
il modello deve comunque essere esplicitamente approvato dalle autorità di vigilanza, le
quali verificano che esso sia concettualmente corretto, applicato con integrità e storicamente
accurato nel prevedere le perdite e che la banca disponga di sufficiente personale per
gestirlo.
Se il modello interno rispetta questi criteri (quantitativi e qualitativi) potrà essere utilizzato per
determinare il capitale minimo obbligatorio a fronte dei rischi di mercato. In particolare, ogni
giorno il requisito patrimoniale sarà dato dalla media dei VaR relativi ai sessanta giorni precedenti
moltiplicata per un fattore di sicurezza F fissato dalle autorità, oppure dal VaR del giorno
precedente se maggiore. Inoltre, se come spesso accade, il modello interno stima solo i rischi
generici e non quelli specifici connessi ai singoli titoli ed emittenti, allora, il capitale andrà integrato
con il requisito sul rischio specifico (ks) calcolato secondo l'approccio standard. In sintesi il capitale
sui rischi di mercato è dato da:
192
dove VaRt-1 indica il VaR decadale, al 99 per cento di confidenza relativo al giorno t-1 ed F
rappresenta il fattore di sicurezza44
. A proposito di quest'ultimo, l'emendamento del gennaio '96
confermò che tale fattore è pari a 3 e tale decisione venne motivata dalla considerazione che la
media dei VaR giornalieri deve essere convertita in un requisito patrimoniale che offra una
sufficiente copertura contro perdite cumulate derivanti da condizioni di mercato avverse per un
periodo di tempo prolungato. Si chiarì inoltre che per determinare l'eventuale maggiorazione di F
oltre a 3 occorreva esaminare i risultati di appositi test retrospettivi (backtesting) da svolgersi
trimestralmente confrontando le perdite effettive con le indicazioni fornite dai modelli interni.
Pregi e limiti dell'approccio dei modelli interni
L'approccio dei modelli interni rappresentò, come abbiamo detto, una sorta di rivoluzione nella
politica di vigilanza: per la prima volta infatti le istituzioni finanziarie vennero lasciate libere di
determinare il proprio requisito di capitale sulla base di misure di rischio prodotte internamente. Da
un rapporto distaccato tra autorità di controllo e soggetti controllati, ci si mosse dunque verso un
rapporto più stretto basato sulla fiducia, sulla collaborazione e sullo scambio di tecniche ed
informazioni . Proprio per questo, tuttavia, nacque un rischio di cattura regolamentare (regulatory
capture) destinato ad inasprirsi con la riforma del 2004: le autorità di vigilanza dopo aver condiviso
con la banca i suoi modelli, richiedendo cambiamenti e approvandone in modo formale la struttura
finale, potrebbero essere meno libere di segnalare in futuro i limiti e gli errori di strumenti che esse
stesse hanno concorso a designare (Resti, et al., 2008). Un altro limite dell'approccio dei modelli
44 Riportiamo di seguito le disposizioni di vigilanza della Banca d’Italia: “Il calcolo del VaR dunque deve essere
effettuato su base giornaliera e deve prevedere un intervallo di confidenza unilaterale del 99% ed un periodo di detenzione pari a 10 giorni. Inoltre, il periodo storico di osservazione deve riferirsi ad almeno un anno precedente, tranne nel caso in cui un aumento improvviso e significativo delle volatilità dei prezzi giustifichi un periodo di osservazione più breve. Per le banche che impiegano sistemi di ponderazione, il periodo di osservazione può risalire ai 6 mesi precedenti in termini di media ponderata. Le serie di dati utilizzate devono essere aggiornate con frequenza almeno trimestrale. Le banche procedono ad aggiornamenti più frequenti ogni qual volta le condizioni di mercato mutino in maniera sostanziale. Per il calcolo del VaR, le banche possono utilizzare correlazioni empiriche nell'ambito della stessa categoria di rischio e fra categorie di rischio distinte. La Banca d'Italia accerta che il metodo di misurazione delle correlazioni della banca sia corretto e applicato in maniera esaustiva.”
SRi
it
tMKT k
VaR
FVaRk
60
max
60
1,1
193
interni è legato alla mancata considerazione del rischio di liquidità e di credito connesso con le
posizioni presenti nel portafoglio di negoziazione. Quest‟ultimo limite era ravvisabile non solo a
livello di Pillar I ma anche il Pillar II risulta incompleto nel modellizzare i rischi associati alle
posizioni di trading, non normando, per esempio, il rischio di liquidità e la rating migration.
Un ulteriore limite è rappresentato dal fatto che i metodi di calcolo dei modelli interni sono per loro
natura pro-ciclici, facendo aumentare il VaR quando aumenta la volatilità del mercato.
La crisi e le proposte di Basilea
Nel corso della crisi le perdite subite da numerose istituzioni finanziarie hanno superato
ampiamente le misure in termini di VaR generate dai modelli interni, come si vedrà nelle pagine
seguenti. Il Comitato di Basilea ha pertanto introdotto due nuove misure:
Stressed VaR, cioè un requisito patrimoniale addizionale per il rischio di perdite in periodi
di forti stress;
Incremental Risk Charge, cioè un requisito addizionale per il rischio specifico delle
posizioni del trading book.
Al fine di cogliere l'inadeguatezza del precedente framework è indispensabile però soffermarci sul
concetto e le modalità di backtesting di questi modelli.
Backtesting e valutazione dei modelli VaR
La diffusione dei modelli VAR quali strumenti fondamentali per la misurazione dei rischi di
mercato ha reso sempre più importante lo sviluppo di tecniche di valutazione della qualità di questi
modelli (indici di performance). Tali test retrospettivi, più comunemente denominati backtesting,
sono basati sul confronto tra le indicazioni del modello e i risultati dell'attività di negoziazione
(Resti, et al., 2008); più precisamente sul confronto tra la stima giornaliera del VaR e le perdite
effettive del giorno successivo. La logica sottostante è semplice: se il modello è corretto, le perdite
effettive dovrebbero risultare superiori al VaR con una frequenza coerente con quella definita dal
livello di confidenza. Così, per esempio, se il VaR giornaliero risulta pari a 75 e il livello di
confidenza del modello è pari al 99%, è verosimile attendersi perdite superiori a 75 unicamente
194
nell'1% dei casi, ossia per 2,5 giorni su 250 giorni di negoziazione annui. Se il numero di giorni in
cui le perdite risultano superiori a 75 risulta inferiore o di poco superiore a 2,5, è verosimile che il
modello sia adeguato. Viceversa, se il numero di giorni in cui le perdite risultano superiori a 75
risulta significativamente diverso da quanto previsto dall'intervallo di confidenza, è verosimile che
il modello sia inadeguato.
Di seguito riportiamo una figura relativa al Credit Suisse First Boston per il periodo che va dal 1
gennaio 2001 al 1 gennaio 2005, esemplificativo delle tecniche di backtesting (The Level and
Quality of Value-at-Risk Disclosure by Commercial Banks, 2009). Nel periodo considerato si sono
verificate solo 3 eccezioni, a dimostrazione di una sostanziale robustezza del modello.
Figura 1.8: Backtesting relativo al Credit Suisse First Boston tra il primo gennaio 2001 ed il primo gennaio 2005
Senza addentrarci ulteriormente nei problemi posti dalle tecniche alternative di backtesting45
,
passiamo direttamente al backtesting così come considerato dal Comitato di Basilea.
Backtesting dei modelli VAR secondo Basilea
Le condizioni richieste dalle autorità di vigilanza per accettare un modello interno includono
l'obbligo di sottoporlo ad un backtesting periodico trimestrale, basato sugli ultimi 250 risultati
giornalieri dell'attività di negoziazione. Se gli esiti del backtesting non sono pienamente
rassicuranti, il requisito patrimoniale minimo generato dal modello (pari alla media dei VaR
decadali relativi agli ultimi 60 giorni moltiplicata per un fattore di sicurezza pari a tre) viene
accresciuto; più precisamente, il fattore di sicurezza viene aumentato da 3 fino a 4 e in misura tanto
45
A tal proposito si veda Kupiec (1995).
195
maggiore quanto peggiore è la performance del modello. La tabella sottostante mostra la
maggiorazione del fattore moltiplicativo in relazione al numero di eccezioni riscontrate.
Zona Numero di eccezioni Maggiorazione Fattore di
moltiplicazione
Verde 0 0,00 3
1 0,00 3
2 0,00 3
3 0,00 3
4 0,00 3
Gialla 5 0,4 3,4
6 0,5 3,5
7 0,65 3,65
8 0,75 3,75
9 0,85 3,85
Rossa ≥10 1 4
Tavola 1.2: Eccezioni e fattore moltiplicativo
Fonte: Basel Committee (1996)
Generalmente, nel caso di un modello con livello di confidenza del 99 per cento ed un test
retrospettivo basato su 250 osservazioni, la maggiorazione varia da un valore nullo, nel caso in cui
il numero delle eccezioni sia pari al massimo a 4, fino ad un valore pari a uno, nel caso in cui il
numero di eccezioni sia pari o superiore a 10. Se i risultati si collocano nella zona gialla, la
maggiorazione viene decisa dall‟organo di vigilanza in funzione della motivazione sottostante le
eccezioni. Il Comitato di Basilea distingue i fattori causali in quattro categorie (Basel Committee of
Banking Supervision, 2006):
integrità del modello: l‟eccezione si è verificata perchè le posizioni di rischio sono state
riportate in modo scorretto;
accuratezza del modello: l‟eccezione si è verificata perchè il modello non misura il rischio in
modo sufficientemente preciso;
negoziazioni intraday: l‟eccezione si è verificata perchè le posizioni di rischio si sono
modificate durante la giornata di negoziazione;
196
evoluzione del mercato: l‟eccezione si è verificata perchè i mercati sono stati
particolarmente volatili o perchè le correlazioni si sono modificate.
Il Comitato si è espresso in modo piuttosto vago circa le conseguenze delle diverse categorie di
fattori causali sottostanti le eccezioni (Resti, et al., 2008). Se le eccezioni sono dovute alle prime
due categorie di fattori causali la maggiorazione deve essere applicata; se invece sono attribuibili
alla terza categoria bisogna considerare “seriamente” l‟applicazione della maggiorazione. Il
Comitato non si esprime circa le conseguenze di eccezioni dovute all‟ultima categoria di cause,
limitandosi ad affermare che questa tipologia di eccezioni “is expected to occur at least some of the
time”.
Cosa è successo sui mercati finanziari nel terzo trimestre del 2007
Numerose fonti che illustreremo di seguito hanno evidenziato come nel terzo e quarto trimestre del
2007 il numero di eccezioni, cioè il numero di volte in cui le perdite giornaliere di trading
eccedevano i limiti previsti dai modelli VaR usualmente con un livello di confidenza del 95-99%, è
stato straordinariamente elevato. Nel numero di febbraio del 2008 di Risk Magazine (Campbell,
2008), Alexander Campbell rilevava come Credit Suisse avesse riportato nel terzo trimestre 2007
undici eccezioni in presenza di un livello di confidenza del 99%, Lehman Brothers ne aveva
riportate tre al 95%, Goldman Sachs cinque al 95%, Morgan Stanley sei al 95%, Bear Stearns dieci
al 99% e infine UBS sedici al 99%.
Rank Firm Q307 end VaR (€m) % change Q207-Q307
1 Goldman Sachs (1) 133 -3% 5 confidence level 95%
2 UBS (2) 131 56% 16 confidence level 99%
3 Lehmann Brothers (1) 101 15% 3 confidence level 95%
4 Credit Suisse (2) 98 68% 11 confidence level 99%
5 Merrill Lynch (2) 83 16% not disclosed
6 Morgan Stanley (2) 82 -6% not disclosed
7 Citigroup (2) 79 -23% not disclosed
8 Deutsche Bank (2) 76 -11% not disclosed
9 Bear Sterns (1) 35 22% 10 confidence level N/A
10 UniCredit MIB * (2) 34 61% 7 confidence level 99%
11 BBVA (2) 23 62% not disclosed
12 Santander (1) 22 -12% not disclosed
13 Commerzbank (3) 8 7% not disclosed
Backtesting exceptions Q307
Figura 1.9: Backtesting tra il secondo ed il terzo quarto del 2007
197
Questo elevato numero di eccezioni evidenzia che i modelli delle diverse istituzioni finanziarie non
riflettevano bene la situazione di mercato. La crescita della volatilità nel terzo ma anche nel quarto
trimestre del 2007, secondo molti commentatori, ha infatti sottolineato la fragilità di questi modelli.
Secondo un‟intervista riportata nell‟articolo citato “La maggioranza delle istituzioni utilizza per il
calcolo del VaR il metodo delle simulazioni storiche (Enrico Dalla Vecchia, Chief Risk Officer di
Fannie Mae in Washington nel febbraio del 2008) e questo ha rappresentato probabilmente un
problema alla fine di un periodo di bassa volatilità”. L‟articolo riporta anche il parere di Tobias
Guildman, Chief Risk Officer a Credit Suisse: “Il VaR è un tool per normali condizioni di mercato e
non è indicato per situazioni di stress. Sarebbe stato molto difficile per i VaR model catturare i
recenti eventi di mercato soprattutto per il fatto che essi si sono determinati dopo un periodo
relativamente lungo di bassa volatilità”.
Nel numero di aprile del 2008 di RatingsDirect (Standard&Poor's, 2008), Standard & Poor's
rilevava come la stima ufficiale di Deutsche Bank del proprio requisito di capitale a fronte del
rischio di mercato fosse pari a 1,8 miliardi di euro. Ciononostante i Risk Weighted Asset a fronte del
rischio di mercato erano pari a 14 miliardi, implicando un requisito regolamentare pari a 1,1
miliardi di euro e cioè il 40% in meno della stima del capitale economico. Cosa significa questo?
Che le metodologie di VaR durante la crisi non hanno dato buona prova di sè.
198
IL DIBATTITO JORION-TALEB
La posizione di Taleb
Il dibattito teorico ha problematizzato queste contraddizioni dei modelli. Pensiamo che sia utile
rifarsi in particolare al dibattito tra Taleb e Jorion.
Nel settembre 2009 all‟House Committee on Science and Technology, si sono susseguite una serie
di audizioni in cui è stato chiesto a consulenti, accademici e banchieri il loro parere sulla robustezza
dei sistemi di misurazione del rischio basati sul VaR. In particolare, l‟obiettivo di un sottocomitato
su “investigation and oversight” era quello di stabilire (Hearing Charter, 2009):
il ruolo del VaR e dei metodi di misurazione relativi allo stesso durante la passata crisi
finanziaria;
i punti di forza e di debolezza dell‟utilizzo del VaR;
il grado in cui il VaR è capito e può essere manipolato all‟interno delle istituzioni;
e, cosa più importante ai nostri fini, come devono utilizzare il VaR le autorità di vigilanza
federali per svolgere le proprie attività regolamentari.
Utilizzando le stesse parole del Comitato, si trattava di stabilire “from a policy perspective how
regulators will use VaR numbers produced by firms and wether it’s an appropriate guide to set
capital reserve requirements”. Prima di riprendere alcuni passi dell‟intervento di Nassim Taleb,
riportiamo quanto da lui detto in un capitolo del suo famoso libro “Il cigno nero”46
. Taleb
evidenziava come la curva gaussiana debba essere utilizzata solo in un mondo (“mediocristan”),
rappresentato da oggetti – come l‟altezza degli uomini – che non presentano eventi estremi, mentre,
in quello di “estremistan”, il mondo a cui appartengono i mercati finanziari e creditizi, vigono altre
leggi, che sono meglio interpretate ad esempio dai modelli statistici di Mandelbrot. Elenchiamo di
seguito i principali problemi che, nell‟audizione, Taleb associava ai modelli VaR :
problemi conosciuti da lungo tempo. Taleb ricorda la sua esperienza di trader agli inizi
degli anni ‟90, momento di introduzione dei primi modelli VaR. Egli avrebbe sperimentato
in più di un‟occasione che delle perdite stimate dal VaR come non superiori a 100,000$ si
46
Ci riferiamo al capitolo 15, “la grande frode intelletuale” de “il Cigno nero”, Nassim Taleb.
199
fossero rivelate successivamente superiori a 10 milioni di dollari (quindi il VaR avrebbe
sottostimato le perdite di 100 volte). Secondo Taleb il fatto che l‟uso del VaR non sia stato
sospeso dopo il fallimento del Long Term Capital Management Fund47
è addirittura
incredibile: anzi Basilea II avrebbe cominciato a promuoverne l‟adozione proprio in quel
periodo;
il VaR è inefficace e manca di robustezza. Secondo Taleb la stima dei rischi ha poco a che
fare con le nozioni tradizionali di misura. Infatti, più raro è un evento più difficile è
calcolare la sua probabilità (e cosa non trascurabile, più raro è un evento, più grandi
possono essere le sue conseguenze). Il tipo di casualità (randomness) con cui abbiamo a che
fare con le variabili economiche e finanziarie non presenta una struttura ben conosciuta e
ben trattabile e può determinare eventi estremi, la cui intensità non può essere conosciuta a
priori. La statistica convenzionale fallisce in questo ambito:
o nel caso dei sistemi finanziari ci troviamo infatti di fronte a sistemi complessi
caratterizzati da alta interdipendenza, bassa prevedibilità e vulnerabilità ad eventi
estremi (su questo rimandiamo a (Taleb, 2007) e a (Taleb, 2005));
o il VaR non può essere replicato “out of sample”, dal momento che quasi mai il
passato è un buon predittore del futuro. Inoltre, una diminuzione del VaR non
significa una diminuzione del rischio; abbastanza spesso, secondo Taleb, potrebbe
avvenire il contrario;
il VaR incoraggerebbe assunzioni del rischio ―high volatility, high blowup‖,
comportamenti che sono compatibili – secondo Taleb - con la struttura di incentivi e di
bonus tipici del mondo della finanza. La tavola sottostante rappresenta posizioni che
apparentemente parrebbero solide ma che, a causa di un evento raro ma possibile, possono
distruggere rapidamente tutto il valore creato in precedenza (vedi la tavola sottoriportata
tratta da Taleb (2009)).
47
Il Long-Term Capital Management era un hedge fund con sede a Greenwich, che utilizzava aggressive strategie di
trading accoppiate con un alto effetto di leva finanziaria. Fallì nella seconda parte degli anni ‟90 determinando un
effetto contagio per parecchie istituzioni. LTCM fu fondato nel 1994 e tra i propri membri del Consiglio di
Amministrazione annoverava Myron Scholes e Robert Merton che, come noto, vinsero nel ‟97 il Nobel per l‟economia.
È interessante confrontare la posizione di Taleb con quella assunta da Jorion nel suo “Lessons Learned from Long-Term
Capital Management” (Jorion, 1999).
200
Grafico 3.1: Distruzione del valore nel tempo causato da un evento inatteso
Secondo Taleb, questo profilo con apparente bassa volatilità (periodi da 1 a 10), collegato
all‟utilizzo di serie storiche recenti e all‟ipotesi di normalità delle distribuzioni dei
rendimenti (che secondo Taleb sono accompagnate da ottimi guadagni per i trader attraverso
i bonus nei periodi favorevoli di mercato) ha caratterizzato gli investimenti mobiliari di
molte banche ed hedge funds nelle crisi del 1982, 1991 e 2008;
un‟altra pecca che affligerebbe il VaR, secondo lo scrittore del “Cigno nero”, sarebbe la
presenza di alcune caratteristiche psicologiche indotte dal suo utilizzo. Esso infatti
incentiverebbe l‟assunzione di rischio da parte di chi lo utilizza: i suoi utilizzatori
tenderebbero a sottostimare l‟impatto di un evento avverso, semplicemente perchè raro e
poco frequente48
.
Questa recente presa di posizione riprende un famoso dibattito che egli stesso ebbe con Jorion
(Taleb, 1997), (Jorion, 1997).
48
Questo effetto viene chiamato anchoring. Numerosi studi dimostrano che i professionisti sono fortemente influenzati
da numeri che essi sanno essere irrilevanti a fini decisionali. Per una letteratura sull‟argomento Taleb rimanda a Birtie
Englich and Thomas Mussweiler, “Sentencing under Uncertainty: Anchoring Effects in the Courtroom”, Journal of
Applied Social Psychology, vol. 32, no 2 (Feb. 2006).
201
La posizione di Jorion
Per capire la posizione di Jorion sul VaR e la crisi, facciamo riferimento ad un suo recente
intervento (Credit Lessons from the Past Crisis, 2009) in cui classifica i rischi in tre categorie:
Known Knowns;
Known Unknowns;
Unknown Unknowns.
Tali categorie corrispondono a diversi livelli di incertezza.
Known knowns
Una prima obiezione di Jorion a Taleb si basa sul concetto di rischio “known knowns”.
Le perdite straordinarie, che secondo Taleb inficierebbero la qualità del VaR, secondo Jorion
dimostrano invece soltanto un mix di sfortuna e/o di risk appetite del management troppo elevato.
Ad esempio Jorion considera un portafoglio azionario con un beta di 0,5 e analizza la distribuzione
dei rendimenti annuali delle azioni statunitensi a partire dal 1871. Queste informazioni possono
essere utilizzate come sappiamo per costruire una distribuzione dei rendimenti del portafoglio in
questione. L'indice S&P ha perso il 38% nel 2008. Il portafoglio iniziale dovrebbe aver perso il
19% (avendo un beta di 0,5). Questa perdita è una combinazione come detto di sfortuna (una forte
caduta dell'indice S&P) e del risk appetite (misurato dal beta). Se la distribuzione è stata
correttamente misurata, il risultato è in linea con le aspettative e non presenta errori e pertanto il
VaR identifica correttamente tutti i fattori di rischio. Jorion inoltre ribadisce nell‟articolo citato che
è sbagliato interpretare il VaR come la massima perdita possibile: il VaR deve essere visto come
una misura di dispersione che dovrebbe essere superata con una certa regolarità, ad esempio,
nell'1% dei casi se si adotta un livello di confidenza del 99%. Il VaR non descrive
l'ammontare/estensione delle perdite nella left tail. Posizioni corte in opzioni possono generare
perdite non frequenti ma molto pesanti. Per superare queste vulnerabilità occorre esaminare anche
la distribuzione delle perdite oltre il VaR. Questo può essere fatto, per esempio, con il conditional
VaR, che è la media delle perdite nella coda.
202
Known unknowns
Malgrado la consistenza del VaR, i sistemi di misurazione possono rivelare numerosi (conosciuti)
punti deboli:
il risk manager potrebbe aver ignorato importanti fattori di rischio conosciuti;
la distribuzione dei fattori di rischio, includendo volatilità e correlazioni, potrebbe essere
misurata in modo inaccurato;
il processo di mapping potrebbe essere scorretto.
Questi tre esempi ricadono nella categoria del model risk. Ipotizziamo, ad esempio, che un risk
manager avesse stimato la volatilità dell'indice S&P utilizzando il periodo di 2 anni (come in
figura), che va dal 31/12/2004 al 31/12/2006.
Figura 1.10: Volatilità giornaliera dell’indice S&P
Dal momento che questo periodo è stato straordinariamente calmo, ciò ha fatto sottostimare il
rischio per gli anni seguenti (2007-2008). La figura sopra esposta, rappresenta le previsioni di
volatilità giornaliera dell'indice S&P utilizzando una media pesata esponenziale con un tasso di
decadimento di 0,94 (EWMA). Questo modello mostra che nel periodo 2004-2006 la volatilità è
203
stata eccezionalmente bassa, con una media dello 0,7% su base giornaliera. Come risultato
parecchie istituzioni finanziarie hanno iniziato il 2007 con alti livelli di leva. Quando la volatilità ha
iniziato a salire durante il 2007, i modelli di rischio hanno sperimentato parecchie eccezioni. Il
grafico mostra inoltre la stima della volatilità costruita con il metodo delle medie mobili con una
finestra di un anno (MA) che è l'orizzonte tipico della maggioranza dei VaR model utilizzato con il
metodo delle simulazioni storiche. Si vede che il modello costruito con le medie mobili sottostima
sistematicamente la volatilità costruita con il metodo esponenziale a partire da metà 2007, giusto il
periodo in cui la maggioranza dei modelli di rischio delle banche hanno cominciato a
sottoperformare. Un altro esempio di problemi di risk model citato da Jorion è la struttura delle
correlazioni usata dalle agenzie di rating per valutare le differenti tranches di asset backed pools.
Infine, un ultimo esempio di risk model è rappresentato dal fatto che i modelli di VaR non tengono
in considerazione il rischio di liquidità sia nella dimensione dell'asset liquidity risk (l'impatto sul
prezzo di larghi volumi di vendita di asset) che del funding liquidity risk49
.
Unknow unknowns
Infine Jorion ammette l‟esistenza di una serie di eventi del tutto imprevedibili per i quali i modelli
VaR non sono adeguati. Come esempio è citato il rischio regolamentare connesso all'improvvisa
sospensione delle vendite allo scoperto (fine 2007, BIS, Annual Report 2009) oppure alla
conversione delle banche d'investimento in commercial bank (avvenuta negli Stati Uniti) che ha
accelerato il deleveraging dell'industria. Questi rischi hanno inciso pesantemente sul mercato a
partire dal 2008. Jorion dichiara altresì che il VaR non è certamente in grado di prezzare il rischio
sistemico connesso al fallimento contemporaneo di numerose controparti. In tali situazioni i
regulator diventano effettivamente i risk manager di ultima istanza.
49 Si può dire che con questa osservazione Jorion anticipa i provvedimenti delle autorità di vigilanza. È infatti noto che
il Comitato di Basilea non aveva fino alla crisi richiesto dei requisiti formali di capitale a fronte del rischio di liquidità.
L‟introduzione, relativamente al trading book, di un incremental risk charge, può essere considerato una sorta di
risposta al risk model insito nella vecchia formulazione.
204
Risk management lessons
Come ovviare a questi problemi posti dalla crisi? Su alcune ricette pratiche a cui l'esperienza può
consigliare, ci diffonderemo tra poco proponendo i risultati di un‟intervista effettuata di recente con
il reparto validazione di Unicredito. Qui vogliamo evidenziare gli insegnamenti della crisi secondo
Jorion (Credit Lessons from the Past Crisis, 2009).
La caratteristica chiave, secondo l‟autore, di un moderno e robusto sistema di misurazione dei rischi
è che si strutturi a partire da informazioni a livello di singola posizione. Le principali componenti di
un moderno sistema di misurazione del rischio sono descritte nella figura 1.11:
utilizzando i dati di mercato viene costruita la distribuzione dei fattori di rischio, che può
essere normale, empirica o altro;
tutte le posizioni di portafoglio vengono censite e mappate rispetto ai fattori di rischio;
il motore di calcolo è utilizzato per costruire la distribuzione dei profitti e perdite di
portafoglio relativamente al periodo selezionato.
Come sappiamo quest‟ultima distribuzione può essere sintetizzata da un numero, cioè il VaR.
Figura 1.11: Componenti di un moderno sistema di misurazione del rischio
205
L‟aspetto centrale di questo sistema è l‟essere “position based” e quindi tale da riconoscere una
estrema crucialità alla fase di mapping di tutte le singole posizioni rispetto all‟insieme dei fattori di
rischio.
Il VaR, soprattutto quando si utilizza il metodo delle simulazioni storiche, spesso si basa su dati
passati (backward looking) ed assume che le distribuzioni siano stabili e significative per il futuro.
Jorion esorta i risk manager alla costruzione di scenari forward looking. Raccomanda loro, inoltre,
di fare stress test sui modelli utilizzando assunzioni di worst case scenario per le distribuzioni e i
parametri chiave (come la volatilità e la correlazione). Le banche, soprattutto, dovrebbero essere
pronte a reagire ai primi segni di debolezza dei loro modelli. Analizziamo l'esperienza di UBS del
2007. Normalmente, come abbiamo visto, la banca avrebbe dovuto sperimentare 2 o 3 eccezioni
(l'1% di 250 giorni). Invece, durante l‟intero 2007, furono sperimentate ben 29 eccezioni. La
differenza dei risultati era di tale ampiezza che si poteva sicuramente concludere che il sistema di
risk management di UBS mostrava forti “lacune”. Nel suo annual report, UBS ha spiegato che
“come sempre abbiamo imparato dall'esperienza...in coerenza con la nostra filosofia di continui
miglioramenti stiamo rivedendo tutti gli aspetti dei nostri sistemi di misurazione del market risk”
(UBS, 2008). Tornando alle tabelle che consideravano il backtesting di Credit Swiss, Unicredit,
etc., si può notare una rilevante dispersione delle performance tra le differenti banche. Ciò dovrebbe
chiarire che non è vero che tutti i sistemi di risk management che hanno utilizzato il VaR hanno
sottoperformato durante il 2007. Nocera (2009) descrive come il framework di Backtesting è stato
usato da Goldman Sachs. Nel dicembre 2006 la banca si era resa conto che le perdite del suo desk
mutui avevano ecceduto il VaR per parecchi giorni di seguito. Dopo dettagliate analisi l'azienda
decise di "get closer to home", cioè di ridurre le proprie esposizioni. Ciò spiega perchè nell'estate
del 2007 Goldman Sachs è stata in grado di evitare i disastri di Bern Sterns e Lehman Brothers.
206
LE NUOVE PROPOSTE DI BASILEA
Riconoscendo che l'esistente framework, basato sull'Amendment to the Capital Accord del 1996 non
catturava alcuni rischi chiave, il Comitato di Basilea ha introdotto una serie di proposte di modifica.
Le più significative riguardano l‟inclusione nel calcolo del requisito di capitale a fronte del market
risk dello Stressed VaR e l‟introduzione dell‟Incremental Risk Capital Charge.
Stressed VaR
Nella nuova proposta di Basilea, si richiede, come in passato, di calcolare il VaR decadale del
trading book con un livello di confidenza del 99%. Lo Stressed VaR considera come input del
modello un periodo di un anno che nel passato è stato associato a perdite significative. Il periodo
storico selezionato deve essere approvato dall‟organo di vigilanza. Queste disposizioni sono
rintracciabili ai punti i e j della nuova regolamentazione al capo 4 paragrafo 718 (Lxxvi) (Basel
Committee on Banking Supervision, Luglio 2009). Più precisamente ivi si afferma:
Punto i
“La banca deve calcolare una misura di “Stressed Value at Risk”. Questa misura è intesa replicare
un calcolo del VaR che sarebbe generato sul portafoglio corrente, se i fattori di mercato (volatilità,
tassi, etc.) sperimentassero un periodo di stress e dovrebbe perciò essere basata su un orizzonte
temporale di 10 giorni, un livello di confidenza del 99%, usando come input del modello dati storici
calibrati su 12 mesi contigui e che riguardino un periodo di stress rilevante per la banca. Il periodo
utilizzato deve essere approvato dai regolatori”.
Basilea suggerisce, ma solo a titolo esemplificativo, che per parecchi portafogli, il periodo di 12
mesi a cavallo tra il 2007 e il 2008 dovrebbe rappresentare adeguatamente un simile periodo di
stress. Comunque potrebbero essere presi in esame anche altri intervalli significativi.
Punto j
Dal momento che non sono richiesti dai regolatori specifici tipi di modelli (ad esempio matrici
varianze/covarianze, simulazioni storiche o Monte Carlo) possono essere utilizzate differenti
207
tecniche per trasferire i modelli usati per il normale VaR in quelli che quantificano il VaR
"stressato". L'additional stressed VaR deve essere calcolato almeno su base settimanale.
Punto k
Su base giornaliera ogni banca deve aggiungere al normale requisito di capitale calcolato come
sopra, il maggiore tra l‟ultimo disponibile stressed VaR calcolato secondo il punto i e la media degli
stressed VaR calcolati nei precedenti 60 gironi, moltiplicati per un fattore ms. Questo fattore sarà
stabilito dalle autorità di vigilanza nazionali sulla base della qualità dei sistemi di risk management
esistenti e non dovrà essere inferiore a 3. Il nuovo requisito di capitale dovrà perciò essere calcolato
come segue:
Questo requisito addizionale dovrebbe tra l'altro consentire di ridurre la pro-ciclicità dei requisiti di
capitale per il market risk. Tali nuove regole entreranno in vigore nel 2011 con la segnalazione
relativa al capitale regolamentare al 31 dicembre 201050
.
L’Incremental Risk Charge
L‟Incremental Risk Charge (IRC) è rivolto unicamente alle banche che adottano il modello interno
(Basel Committee on Banking Supervision, Luglio 2009). L‟IRC stima l‟esposizione del trading
book ad alcuni rischi sulla base di un orizzonte temporale di un anno ed un livello di confidenza del
99,9%, prendendo adeguatamente in considerazione la liquidità delle singole posizioni. Nei principi
per calcolare l‟IRC il Comitato di Basilea afferma che, limitatamente alle posizioni a cui esso è
applicabile, deve catturare:
il rischio di default: ovvero le perdite potenziali dirette ed indirette connesse al default di
una controparte;
il rischio di migrazione: ovvero le perdite potenziali dirette ed indirette dovute ad un
downgrade o un upgrade del rating interno o esterno di una controparte (credit migration
event).
50
Le singole autorità di vigilanza nazionali stanno provvedendo all‟introduzione, tenendo però conto dei tempi legati al
recepimento della Direttiva, pubblicazione sulla Gazzetta ufficiale, produzione della nuova normativa di vigilanza.
208
Principali impatti
Nell'ottobre 2009 il Comitato di Basilea ha pubblicato i risultati dell'analisi d'impatto delle nuove
proposte regolamentari sul trading book (Basel Committee on Banking Supervision, Ottobre 2009).
Lo scopo dell'esercizio includeva l'analisi d'impatto del:
requisito di capitale per l'Incremental Risk Charge;
requisito di capitale per lo stressed Value at Risk;
requisito di capitale per le esposizioni cartolarizzate nel trading book;
requisito di capitale modificato a fronte del rischio specifico di alcune esposizioni azionarie
considerate con il metodo standardizzato.
Lo studio ha considerato dati provenienti da 43 banche di 10 paesi e ha condotto ai seguenti
principali risultati:
in media l'introduzione delle nuove norme richiede un aumento di almeno l'11,5% (mediana
3,2%) dei requisiti complessivi di capitale che risultano pari al 223,7% in media (mediana
102,0%) se limitati ai soli requisiti a fronte del rischio di mercato;
il requisito di capitale a fronte dell'Incremental Risk Charge determina in media (mediana)
una crescita del capitale complessivo del 6,6% (3,6%). Espresso in termini di requisiti a
fronte del market risk quest'ultimo determina in media una crescita del 102,7% (60,4%);
l'introduzione dello stressed VaR determina in media (mediana) una crescita del requisito
complessivo pari al 4,6% (2,7%). Espresso in termini di market risk l'aumento è del 110,8%
(63,2%);
in media lo stressed VaR è risultato 2,6 volte il non stressed VaR. Non c'è evidenza che lo
stressed VaR benefici meno della diversificazione che non il non stressed VaR.
Il citato documento di Basilea evidenzia altresì altri impatti sull'esposizioni ri-cartolarizzate e sul
rischio specifico della componente azionaria del portafoglio, ma non riportiamo i risultati perchè
non rilevanti ai nostri fini.
Implicitamente il Comitato di Basilea, come già sottolineato in precedenza dal Turner Report
(Financial Services Authority, 2009), riconosce che all'inizio della crisi sarebbe stato auspicabile
avere dotazioni di capitale per il rischio di mercato superiori di oltre 2 volte a quelle richieste con la
209
precedente regolamentazione. È una differenza di non poco conto, che ha determinato attente analisi
da parte di numerosi analisti finanziari sulla redditività complessiva dell'attività di negoziazione
titoli e di investment banking a seguito dell‟introduzione delle nuove norme (Da Silva, et al., 2009).
In quest‟ultima ricerca è previsto un aumento del 30-100% (a seconda delle banche considerate)
riguardo ai requisiti di capitale che riguardano il trading book ed una discesa della redditività
aggiustata per il rischio conseguente.
Nel mentre si può affermare con una certa tranquillità che il requisito patrimoniale a fronte dei
rischi di mercato aumenterà sensibilmente, ci si può chiedere se esista ancora la convenienza per le
banche ad adottare l‟approccio del modello interno rispetto a quello standard.
210
INTERVISTA CON IL RESPONSABILE DELLA
VALIDAZIONE DEL SISTEMA DI VAR IN UNICREDITO
Abbiamo intervistato il responsabile della validazione dei modelli VaR (per il rischio di mercato)
del gruppo Unicredito al fine di capire anche alla luce della crisi quali sono state le principali
raccomandazioni delle funzioni di convalida rivolte a coloro che sviluppano i modelli. Prima di
addentrarci sui risultati dell‟intervista delineiamo per sommi capi le attività e le funzioni dell‟unità
di convalida dei modelli interni per il market risk e forniamo un minimo di background sul modello
VaR attualmente in uso in Unicredito.
La convalida del modello51
Come si ricorderà, la normativa di vigilanza richiede il rispetto di alcuni criteri qualitativi e
quantitativi per il riconoscimento dei modelli interni di gestione del rischio ed il loro utilizzo per il
calcolo della dotazione patrimoniale minima obbligatoria.
Il processo di convalida è costituito da una serie di attività e procedure volte ad assicurare che il
modello sia progettato in maniera corretta e coerente e in grado di catturare adeguatamente tutti i
rischi rilevanti. La convalida deve essere effettuata quando il modello viene inizialmente sviluppato
e quando vengono apportate delle modifiche significative e deve anche essere condotta su base
continuativa.
La convalida interna del modello deve prevedere almeno:
(a) “studi atti a dimostrare che le assunzioni adottate nel modello interno siano appropriate e non
sottostimino il rischio. A titolo di esempio le assunzioni sottoposte a verifica possono includere
l'ipotesi della normalità della distribuzione, l'uso della radice quadrata del tempo per passare da un
orizzonte temporale di un giorno ad uno decadale, l‟utilizzo di tecniche di interpolazione o di
estrapolazione nella costruzione delle curve e/o delle serie storiche, la robustezza dei modelli di
valutazione”;
51
In questo paragrafo riportiamo la disciplina specifica presente nella Circolare 263 di Banca d‟Italia, nel Capitolo 4,
Paragrafo 2.3.
211
(b) “in aggiunta ai programmi di valutazione retrospettiva regolamentari, analisi condotte
utilizzando prove addizionali che possono includere, ad esempio: test condotti utilizzando
variazioni ipotetiche del valore del portafoglio (che si realizzerebbero qualora le posizioni di fine
giornata rimanessero immutate); test basati su periodi di osservazione più lunghi di quanto richiesto
per il programma di validazione retrospettiva regolamentare (ad esempio 3 anni); test condotti con
intervalli di confidenza diversi da quello, pari al 99 per cento, richiesto dagli standard quantitativi;
test retrospettivi basati su portafogli definiti ad un livello inferiore rispetto all‟intero portafoglio di
negoziazione a fini di vigilanza della banca. I risultati delle attività di convalida devono essere
adeguatamente documentati e sottoposti alle valutazioni della funzione di controllo interno e degli
organi aziendali; nell‟ambito di questa informativa specifica evidenza andrà data a eventuali aspetti
di criticità”.
Come detto in precedenza, diamo ora un minimo di elementi per capire la struttura del modello VaR
attualmente in uso in Unicredito.
Il modello VaR e lo stress testing in Unicredito
Sulla base della documentazione di Pillar III presente sul sito web della banca (Unicredit Group,
Dicembre 2009), si apprende che la responsabilità di aggregare le informazioni sul market risk e
produrre la documentazione informativa sui rischi di mercato complessivi è in carico al
Dipartimento Market & Balance Sheet Risks Portfolio Management della Capogruppo, che è
responsabile della gestione dei rischi di trading book e banking book a livello di Gruppo e della
garanzia dell‟uniformità delle politiche in materia di rischio di mercato, metodologie e prassi in tutti
i settori e Legal Entity.
La Capogruppo propone altresì i limiti e le investment policy per il Gruppo e per le sue entità, in
sintonia con il processo di allocazione del capitale e il risk appetite.
Sempre da tale documento, si apprende che il principale strumento utilizzato dal Gruppo UniCredit
per la misurazione del rischio di mercato sulle posizioni di trading è il Value at Risk (VaR),
calcolato secondo l‟approccio della simulazione storica. Essendo Unicredito il risultato di un
processo di aggregazioni successive di realtà assai diverse (Bank of Austria utilizza un modello
interno basato su simulazioni storiche e su modelli parametrici, Unicredito Italiano usa un modello
interno basato su simulazioni storiche ed analisi di sensitività attraverso “greche”, HVB si affida
212
invece a simulazioni Monte Carlo) si è posto un problema di convergenza di diversi modelli in un
unico standard, che si baserà su simulazioni storiche. Il nuovo progetto, denominato IMOD
comporta ovviamente un problema di adattamento alle richieste dei regolatori dei diversi paesi in
cui la banca è presente.
I parametri utilizzati per il calcolo del VaR sono i seguenti: intervallo di confidenza del 99%;
orizzonte temporale di 1 giorno; aggiornamento giornaliero delle serie storiche, la cui estensione
deve coprire almeno un anno.
A prescindere dall‟utilizzo nel calcolo dei requisiti patrimoniali sui rischi di mercato, i modelli
interni vengono applicati a tutte le posizioni ricomprese nel portafoglio di negoziazione al fine di
condurre una verifica a posteriori (back testing), tramite la comparazione costante delle misure VaR
giornaliere della banca con i P&L (profitti e perdite) giornalieri successivi.
Vengono inoltre considerate misure di rischio addizionali, vale a dire sensitivity o l‟indicazione di
importi nominali, che vengono incluse nella rendicontazione regolamentare al fine di consentire la
stima di rischi non coperti dalla simulazione VaR del modello interno.
I portafogli di negoziazione sono sottoposti a stress test in base a un‟ampia serie di scenari che sono
poi utilizzati a fini di managerial reporting. Le singole legal entity possono scegliere le modalità
con cui effettuare tali prove di stress. A livello complessivo, tuttavia, è individuato un set di scenari,
comuni a tutte le realtà appartenenti al Gruppo, da applicare congiuntamente alla totalità delle
posizioni, per verificare mensilmente l‟impatto potenziale che tali scenari potrebbero avere sul
portafoglio di negoziazione globale. Lo stress test è usato come uno strumento complementare al
VaR e permette di potenziare l‟analisi dei rischi potenziali del Gruppo. Tali stress test permettono la
valutazione del portafoglio sia simulando scenari semplici (assumendo quindi il cambiamento di un
singolo fattore di rischio) sia simulando scenari più complessi (dove molteplici fattori di rischio
mutano simultaneamente). I risultati ottenuti dalle simulazioni degli scenari semplici vengono
comunicati settimanalmente agli appropriati Comitati Rischi, insieme alle analisi di sensitività più
rilevanti. Gli stress test sono effettuatu sulla base di:
mercato del credito: spostamenti paralleli della curva degli spread del credito (cambiamenti
assoluti e relativi), sensitività alle correlazioni ed ai recovery rate;
tassi di interesse: effetti degli spostamenti paralleli delle curve dei rendimenti e
aumento/diminuzione della loro volatilità;
213
tassi di cambio: apprezzamento/deprezzamento di ogni valuta e aumento /decremento della
volatilità delle stesse;
equities: aumento/diminuzione dei prezzi spot, delle volatilità e delle sensitività;
commodities: aumento/diminuzione dei prezzi spot.
A proposito degli scenari complessi, Unicredito utilizza due scenari di recessione (medio e severo)
e li applica mensilmente al portafoglio completo. Un ultimo scenario, “Financial Crisis” è stato
introdotto di recente. A titolo esemplificativo, citiamo le caratteristiche di due scenari recessivi.
Recessionary fears Scenario
Questo scenario presuppone il contagio dei timori di una recessione in USA al resto del mondo. In
termini di variabili macroeconomiche, lo scenario ipotizza:
una progressiva caduta dei mercati a causa dell‟aumento della volatilità dell‟equity;
una diminuzione dei tassi di interesse (vengono usati diversi fattori di stress in base alla
maturity dello strumento) con focus principale al breve periodo ed un aumento della
volatilità dei tassi;
un aumento considerevole del credit spread attraverso differenti fattori di stress in base al
rating degli strumenti.
Financial crisis scenario
Lo scenario è stato introdotto nell‟ultimo trimestre del 2008 e riflette il trend dei mercati finanziari
nel terzo quarto del 2008. Per tener conto della bassa liquidità dei mercati, l‟orizzonte temporale di
questo scenario è stato esteso in modo da comprendere un periodo di tre mesi piuttosto che di 2-6
settimane, come avviene invece per gli altri scenari. In termini di variabili macroeconomiche ciò
comporta:
una caduta dei mercati a causa dell‟aumento della volatilità azionaria;
214
una diminuzione dei tassi di interesse, una maggiore inclinazione delle curve dei tassi ed un
aumento della volatilità dei tassi stessi;
un aumento ancora maggiore del credit spread.
Evoluzione del rischio di mercato
Ritornando all‟esame del VaR, dai dati offerti nel documento di Pillar III, emerge come nel
passaggio dal 2008 al 2009 il suo ammontare sia calato drasticamente. Infatti nel corso del 2008, a
causa di un aumento generalizzato nel rischio di mercato del Gruppo, principalmente imputabile
all‟intensificazione della volatilità di mercato, si era registrato un forte incremento del VaR, che era
passato da un livello medio giornaliero di 41,1 milioni di euro nel 2007 ad un ammontare pari a
149,6 milioni. La tavola seguente illustra il VaR per il rischio complessivo del portafoglio di
negoziazione per il periodo 2007-2008.
Tavola 1.3: VaR per il Trading Book
Si riportano, inoltre, i grafici relativi al 2008 delle analisi di backtesting, nei quali i dati di VaR
sono confrontati ai risultati di “profit and loss” per ciascuna principale unità “risk-taker” (HVB AG
e Bank of Austria):
215
Figura 1.12: Backtesting di HVB AG tra il 2007 ed il 2008
Nel corso del 2008, nel caso di HVB, si è assistito a 14 sconfinamenti, principalmente causati
dall‟ampliamento dei credit spread e all‟aumento generalizzato della volatilità di mercato.
Figura 1.13: Backtesting di Bank of Austria tra il 2007 ed il 2008
216
Nel grafico di Bank of Austria si evidenzia come durante la prima metà del 2008 si siano verificati
cinque sconfinamenti, quattro dei quali dalla parte positiva, mentre uno dalla parte negativa, causato
dall‟ampliamento dei credit spread.
Nel corso del 2009, come si può vedere dalla tabella sotto riportata, si è assistito invece ad una
contrazione generalizzata del rischio di mercato, che si è tradotta in un calo del valore medio del
VaR (passato da 84,1 milioni di euro nel 2008 a 39,9 milioni nel 2009), principalmente imputabile,
secondo Unicredito, alla marcata riduzione sia dei credit spread che della loro volatilità, elemento
questo che ha riguardato peraltro anche gli altri fattori di rischio (tassi d‟interesse, corsi azionari e
tassi di cambio).
Tavola 1.4: VaR giornaliero per il Trading Book
Se si riportano invece i grafici con le analisi di backtesting si osserva come nel 2009, relativamente
ad UCB AG Group52
, si è registrato un solo sconfinamento, determinato, secondo la relazione di
Pillar III, da un aggiornamento significativo delle quotazioni su alcune tipologie di titoli
obbligazionari in un contesto di mercato fortemente illiquido. Nel complesso nel corso dell‟anno si
è osservata una contrazione generalizzata della volatilità di mercato.
52
Nuova denominazione assunta nell‟anno da HVB AG.
217
Figura 1.14: Backtesting di UCB AG nel 2009
Dal grafico di Bank of Austria si evince che, durante il 2009, non si sono verificati sconfinamenti.
Figura 1.15: Backtesting di Bank of Austria nel 2009
218
Sistema dei limiti e monitoraggio
Il VaR è utilizzato anche per il sistema dei controlli/limiti di Unicredito. Può essere utile aprire una
parentesi su questa interessante applicazione dei modelli VaR.
A Unicredito i limiti (giornalieri) sono definiti a livello di singolo desk e sempre su base giornaliera
i VaR sono confrontati con tali limiti. Gli eventuali sconfinamenti devono essere approvati dai
livelli gerarchici superiori.
Secondo i nostri intervistati l‟utilizzo del VaR come strumento per la definizione dei limiti è
comunque problematico. Come sappiamo, il VaR può essere calcolato basandosi su movimenti dei
rendimenti assoluti o relativi. L‟utilizzo di variazioni relative risulta, secondo i nostri interlocutori,
più pro-ciclico soprattutto se applicato ad alcuni fattori di rischio come ad esempio i credit spread.
In quest‟ultimo caso, utilizzando il VaR, ci sarà la possibilità di un passive breach dei limiti da
parte dei trader dei credit spread nel momento in cui il mercato entri in fase recessiva, anche se i
trader non hanno aumentato il rischio assunto. Si capisce quindi quanto sia delicata la fase della
fissazione dei limiti tramite VaR e la difficoltà di stimare un livello degli stessi che non sia nè
troppo conservativo nè troppo ampio. Cambiamenti nei modelli di misura del VaR e maggiore
conservatività nella stima dei limiti possono portare infatti a scostamenti tra misure del VaR e limiti
molto differenti in uno stesso periodo. Le due figure seguenti mostrano l‟andamento del VaR
calcolato in base a due differenti modelli caratterizzati da differente reattività. Come si può notare,
nel periodo 4/1-31/5 a fronte di un limite stabilito in circa 100 milioni di euro, gli scostamenti e
quindi le possibilità di sconfinamento sono molto più variabili nel secondo caso (adozione del
nuovo modello IMOD) piuttosto che nel primo (vecchio modello).
219
Figura 1.16: Misurazione del VaR con un modello poco reattivo
Figura 1.17: Misurazione del VaR con un modello reattivo
220
Evidentemente il VaR è anche alla base dei sistemi di reporting sia orizzontali che verticali.
Riportiamo a questo proposito un esempio, tratto dal materiale fornitoci da Unicredito.
Tavola 1.5: Il VaR nei sistemi di Reporting
INTERVISTA
Durante l‟incontro con l‟unità di convalida ci siamo concentrati su aspetti di carattere metodologico
relativi al sistema di misurazione dei rischi, alle attività di stress testing ed infine su alcuni aspetti
tecnici legati ai fattori di rischio. Abbiamo discusso altresì alcuni aspetti architetturali legati alle
metodologie di valutazione (calcolo dei rendimenti nel conto profitti e perdite, modelli di pricing)
ma abbiamo tralasciato gli aspetti, pure importanti, connessi alle architetture informatiche e alla
qualità dei dati. Non commentiamo, per brevità, alcuni aspetti emersi durante l‟intervista relativi ai
processi (processo di validazione, principi di valutazione, governance).
Il contesto di riferimento
In premessa abbiamo discusso di alcuni aspetti “macro” relativi ai problemi posti dalla gestione del
portafoglio titoli (sia di trading che di investimento) nel post crisi. Secondo i nostri interlocutori, la
sfida maggiore per le istituzioni finanziarie oggi è quella di un troppo elevato livello di
221
indebitamento. Da questo ha origine l‟esigenza di deleveraging, cioè di una diminuzione del suo
livello. Ora, un‟operazione di questo genere si può fare aumentando l‟attenzione rispetto al tema del
capitale: per quanto riguarda il portafoglio titoli questo significa porre una maggiore attenzione al
rapporto tra rendimento e capitale assorbito dagli investimenti in titoli. Ci sono stati fatti due
esempi: il primo relativo agli strumenti strutturati come i CDO ed il secondo relativo ai titoli di
stato ad alto rendimento di paesi con un basso standing creditizio. In riguardo al primo tema ci è
stato fatto notare che molte banche hanno in portafoglio una quota rilevante di CDO, di ABS ed
altri prodotti strutturati complessi, che come sappiamo sono stati al centro della recente crisi. Questi
strumenti presentano un grado di liquidità piuttosto basso a fronte comunque di rendimenti superiori
alla media del mercato. Inoltre, la bassa liquidità di questi strumenti richiede spesso l‟utilizzo di
valutazioni mark to model con stime prudenziali, poichè il mark to market risulterebbe inutilizzabile
nell‟attribuzione del prezzo a strumenti che spesso non hanno mercato. Le istituzioni finanziarie
stanno cercando di trovare il punto efficiente di trade-off tra rendimenti e liquidità di questi
strumenti, come mostrato nella figura sottostante.
Figura 1.18: Trade-off tra rendimenti e liquidità
Con riguardo al secondo tema ci è stato riferito che di recente molti istituti hanno fatto ricorso
all‟acquisto di titoli di stato ad alto rendimento; sfortunatamente, a causa dell‟elevata volatilità di
questi strumenti, derivante dai problemi finanziari dei paesi emittenti (Grecia, Irlanda, Portogallo), i
requisiti di VaR stanno aumentando e con essi anche il requisito di capitale obbligatorio.
Un altro aspetto sottolineato dai nostri interlocutori è la necessità di misure correttive per quanto
riguarda gli aspetti contabili e regolamentari collegati alla distinzione tra trading book e banking
book. Oggi, se un titolo è allocato nel portafoglio di trading, il requisito di capitale è elevato e
comprende il VaR, lo stressed VaR e l‟Incremental Risk Charge; invece, se lo stesso titolo è
EVA/RWA
LIquidità
222
allocato nel banking book (in quanto facente parte del portafoglio di investimento) non “assorbe”
capitale.
Aspetti metodologici ed architetturali
Per quanto riguarda gli aspetti di metodologia di misurazione del rischio ci siamo focalizzati in
particolare su:
natura e limiti del VaR come misura di rischio;
pregi e limiti del metodo della simulazione storica, analisi della reattività, volatilità e
prudenzialità del VaR;
copertura dei fattori di rischio;
stress testing e backtesting.
Natura e limiti del VaR come misura di rischio
La misura di rischio scelta da Unicredito è, come si è visto, il Value at Risk standard (menzioniamo
però che vengono calcolate sia le misure di downside che quelle di upside, come visto in precedenza
dai grafici). Secondo i nostri interlocutori, l‟ampia diffusione nel sistema bancario del VaR, è stata
determinata dalla richiesta di un suo utilizzo per il calcolo dei requisiti patrimoniali da parte delle
autorità di vigilanza. Proprio per questo, a loro avviso, è importante, a livello gestionale, poter
supplementare il VaR con altre misure di rischio che possano consentire da un lato di capire meglio
i risultati numerici in termini di Value at Risk e dall‟altro di accertare il profilo di rischio
complessivo della banca. La disponibilità di diversi strumenti di misura (sensitivity, etc.) è cruciale
per ridurre il rischio di modello (model risk) e, ancora più importante, per accrescere la conoscenza
delle distribuzioni di profit & loss (ogni misura di rischio dovrebbe essere considerata come uno
strumento in grado di spiegare alcuni particolari aspetti della ditribuzione dei profitti e perdite). La
raccomandazione della validazione all‟unità che sviluppa i modelli è quella di utilizzare un ampio
spettro di strumenti che siano in grado di rafforzare l‟iniziale vista concessa dal modello di VaR,
costruendo un vero e proprio pool di misure del rischio. Il pool deve includere necessariamente, tra
223
le altre, delle misure di rischio che tengano in conto i comportamenti delle code delle distribuzioni,
come adeguatamente fanno i modelli di expected shortfall.
L‟opportunità di ricorrere a differenti misure di rischio è legata anche al fatto che i fabbisogni
iinformativi e di misurazione dei diversi stakeholder (top management, autorità di vigilanza, trading
desk e controller del rischio) sono diversi.
Sotto questo aspetto i nostri interlocutori hanno sottolineato infatti l‟estrema flessibilità del VaR. Il
VaR può essere utilizzato per finalità di carattere strategico (calcolo del capitale richiesto dalla
vigilanza, calcolo di misure di redditività aggiustate per il rischio, etc.) oppure come una misura
gestionale capace di riflettere velocemente, in modo reattivo, i cambiamenti del mercato.
Coerentemente con quanto detto in precedenza, Unicredito ritiene di sentirsi a suo agio utilizzando
un pool di misure di rischio che presentino diversa reattività.
Pregi e limiti dei metodi della simulazione storica
Unicredito ritiene che l‟utilizzo del metodo della simulazione storica sia ben fondato poichè detta
metodologia è da un lato semplice e potente e dall‟altro è molto flessibile nell‟incorporare numerosi
fattori di rischio. In particolare Unicredito ritiene particolarmente feconda la scelta di basarsi
interamente su simulazioni storiche “unadjusted” (cioè senza pesare i dati in base a quanto sono
recenti) con una lunghezza del periodo di osservazione di 500 giorni (che rappresenta il doppio di
quanto richiesto dalle autorità). La lunghezza del periodo di osservazione, accoppiato alla mancata
pesatura dei dati, così come l‟utilizzo di spostamenti assoluti e non relativi per i tassi di interesse e
per i credit spread, rende il valore calcolato con il metodo delle simulazioni storiche meno
dipendente dalle esistenti condizioni di mercato e quindi meno pro-ciclico rispetto a modelli
alternativi che utilizzano invece un periodo più ridotto di osservazioni o che utilizzano schemi di
pesatura. Dal colloquio con i validator di Unicredito emerge la raccomandazione, nata a seguito
della recente esperienza di stress di mercato, di costruire modelli di VaR che non siano pro-ciclici
(che non rafforzino la volatilità dei mercati) e che siano invece basati su una volatilità through the
cycle. In altri termini, il desiderio di migliorare la reattività dei modelli di rischio deve essere
bilanciata dal bisogno di poter contare su stime/previsioni sufficientemente stabili: misure troppo
reattive potrebbero indurre a pensare di essere usciti da un periodo di crisi semplicemente ai primi
224
segni di ripresa, anche se così non fosse. Secondo i nostri interlocutori l‟approccio delle simulazioni
storiche presenta ulteriori pregi:
1. cattura certi aspetti particolari come ad esempio la presenza di code spesse della
distribuzione empirica dei rendimenti;
2. è in grado di descrivere certe forme di co-dipendenza più ricche della semplice correlazione,
persino in presenza di un numero elevato di fattori di rischio;
3. offre la possibilità di rappresentare le diverse tipologie di rischio di mercato per mezzo di
specifici fattori di rischio, grazie all‟assenza di limitazioni al loro utilizzo (come quelle
rappresentate dalla dimensione della matrice di covarianza).
La copertura dei fattori di rischio
Il principio guida utilizzato in Unicredito nella costruzione del modello e che è stato rafforzato a
seguito della crisi è che tutti i rischi devono poter essere rappresentati per mezzo di specifici fattori
di rischio. In questo caso le proxy sono utilizzate soltanto quando questa regola non può essere
applicata. In questa direzione, e cioè quella di un uso massiccio di specifici fattori di rischio, si è
mosso recentemente il Comitato di Basilea, che ha raccomandato una corrispondenza 1 a 1: i fattori
che sono ritenuti rilevanti per il pricing devono essere inclusi nel modello di VaR come fattori di
rischio53
. Secondo Unicredito, una delle principali debolezze dei modelli VaR durante la crisi è
consistita nella mancanza di appropriati fattori di rischio. La raccomandazione è che la selezione di
questi ultimi deve essere ampia in modo da coprire al meglio tutti i mercati/asset class in cui la
banca sta prendendo rischio di trading e deve concentrarsi su quei fattori che sono maggiormente
rilevanti ai fini del conto profitti/perdite. Da questo punto di vista la scelta del metodo delle
simulazioni storiche non pone altri limiti al numero dei fattori di rischio che quello costituito dalla
disponibilità di serie storiche di buona qualità. Secondo l‟unità di validazione di Unicredito è
importante verificare e quantificare, dato un certo portafoglio, il numero dei fattori di rischio
mancanti. Le classi più importanti di fattori di rischio prese in considerazione sono le seguenti:
FX/commodity risk: un fattore di rischio deve essere presente per ognuna delle
valute/mercati in cui la banca ha delle posizioni;
53
Basel Committee on Banking Supervision, (Luglio 2009).
225
equity risk: un fattore di rischio deve essere presente per oguna delle emissioni azionarie in
cui la banca ha esposizioni significative;
interest rate: il set dei fattori di rischio è composto da almeno una curva dei rendimenti zero
coupon per ognuno dei mercati in cui la banca detiene delle posizioni sensibili al
cambiamento del tasso di interesse (una curva dei rendimenti per ogni valuta per incorporare
il basis risk);
credit spread: i derivati ed i prodotti strutturati relativi al credito richiedono un set di hazard
curve rate;
optionality risk; la correlazione viene modellizzata esplicitamente per le opzioni su FX,
equity, tassi di interesse e corporate CDO.
Le serie storiche dei fattori di rischio che sono espressione di mercati liquidi, sono alimentate su
base giornaliera come media dei prezzi bid/ask e per ognuna è stabilita tassativamente la
fonte/provider a cui attingere. Per le proxy delle posizioni meno liquide o con limitata trasparenza, i
modelli della banca assumono ottiche estremamente prudenziali. Si ricorre alle proxy nei seguenti
casi:
in mancanza di dati disponibili con frequenze stabilite (ad esempio nel caso di azioni non
quotate o di mercati non liquidi per bond o CDS);
quando sono disponibili dati affidabili, anche con frequenza giornaliera, ma che presentano
serie storiche più brevi del periodo di osservazione;
disponibilità di dati di buona qualità e con serie storiche che coprono l‟intero periodo di
osservazione ma con ridotta capacità previsionale. Questo può avvenire in presenza di alcuni
accadimenti aziendali (come, ad esempio, operazioni di Merger & Acquisition, che rendono
le dinamiche dei prezzi passati non più soddisfacenti per descrivere le variazioni di prezzo
correnti).
Stress testing e Backtesting
Per quanto riguarda gli stress test (sulle cui caratteristiche tecniche ci siamo soffermati in
precedenza) ci è stata comunicata l‟esistenza di un open forum (all‟interno del Market Risk Stress
Test Committee che si riunisce con un calendario mensile predefinito) in cui sono coinvolte le
226
funzioni del market risk, l‟unità di ricerca economica ed i responsabili delle aree di business. È
opinione dell‟unità di validazione che le metodologie in essere presentino aree di miglioramento in
termini di granularità e di rappresentatività di un sufficiente numero di fattori di rischio (mancano le
correlazioni implicite, i dividendi, etc.).
Nel caso del backtesting ci è stato comunicato che gli esercizi sono basati su dati relativi all‟ultimo
anno (250 osservazioni giornaliere). Le previsioni del VaR sono confrontate sia con le Hypothetical
P&L54
che con l‟effettiva distribuzione dell‟ Economic P&L. La priorità è data all‟analisi delle
variazioni delle clean Economic P&L55
. Anche per il backtesting, l‟unità di validazione sta
considerando alcune aree di miglioramento. La più importante è quella di poter avere una
riclassificazione dei P&L in base alla fonte (spread, commissioni, movimenti di mercato, etc.), in
modo da comprendere meglio le dinamiche dei P&L del passato.
54
Le Hypothetical P&L sono calcolate sulla base delle effettive variazioni delle valutazioni di ogni strumento in
portafoglio. 55
Le clean Economic P&L sono calcolate sottraendo dai risultati le operazioni infra giornaliere e le componenti
economiche non riconducibili a movimenti dei prezzi (come le commissioni, i margini sui clienti, etc.).
227
2 - THROUGH THE CYCLE EXPECTED LOSS
PROVISIONING
PRO-CICLICITÀ DEL SETTORE FINANZIARIO
(LEZIONI DALLA CRISI)
Per avviare il nostro ragionamento, può essere utile chiarire due punti. In primo luogo, vogliamo
illustrare il nesso tra ciclo economico e andamento degli impieghi bancari. Lo faremo in maniera
descrittiva e senza pretesa di assoluto rigore, commenteremo la figura sotto riportata.
Figura 2.1: Il ciclo economico e l’andamento degli impieghi bancari
Nella fase di ripresa migliora la fiducia degli operatori, crescono i fatturati e aumenta
l‟occupazione: le banche finanziano il capitale circolante e le spese in conto capitale.
228
Nella fase di espansione aumenta l‟inflazione e si riducono i tassi reali, mentre le attività (fabbricati,
impianti, case) si rivalutano e le banche ricevono la richiesta di ulteriori finanziamenti.
Nella fase di contrazione i prezzi dei beni si riducono, si assiste ad un calo della domanda e alla
riduzione dei flussi di cassa delle imprese: gli impieghi delle banche cominciano a diminuire.
Nella fase di recessione le imprese bloccano completamente gli investimenti e cala l‟occupazione.
Sul fronte finanziario si assiste ad una forte restrizione creditizia e si registra l‟aumento delle
sofferenze, accompagnato dalla contrazione degli utili bancari.
Un‟altra premessa che vogliamo introdurre è quella secondo cui i mercati finanziari presentano
sovente delle imperfezioni (Onado, 2004). Nell‟area del credit risk management questo fatto si può
tradurre in una sorta di miss-pricing dei rischi di credito.
È così che, in casi di eccessivo ottimismo, i rischi possono essere sotto stimati (vuoi per la presenza
di eccessiva liquidità piuttosto che per la convinzione che il ciclo negativo sia giunto alla
conclusione) laddove in casi di eccessivo pessimismo (fasi di recessione) possiamo assistere a
fenomeni di overpricing. Un altro fattore, citato da Saurina (2009), che può determinare il miss-
pricing è rappresentato dalla competizione accesa tra le banche e tra le banche e altri operatori
finanziari, tutti alla ricerca di più elevate quote di mercato. Le autorità di vigilanza ben sanno che
gli errori di politica creditizia prevalgono soprattutto nelle fasi di ascesa del ciclo: sia le banche che
i prenditori di fondi sono eccessivamente ottimisti circa la bontà dei progetti di investimento.
L‟eccessiva confidenza delle banche implica un rilassamento dei criteri di affidamento. Durante la
recessione, come abbiamo visto, le banche, improvvisamente, diventano molto prudenti ed
aumentano eccessivamente i propri standard creditizi.
In un recente studio pubblicato dalla Banca d‟Italia (Panetta, et al., 2009), in particolare nel primo
capitolo (“The new financial accelerator: the role of leverage”) ci si sofferma su questi aspetti, con
attenzione al tema della pro-ciclicità. Gli autori notano come l‟idea che il settore finanziario possa
amplificare il ciclo economico fosse già contenuta negli originali studi di Irving Fisher degli anni
‟30 (The Debt-Deflation Theory of Great Depressions, 1933). Nella sua interpretazione i fattori
finanziari svolgono un ruolo asimmetrico: le frizioni del sistema finanziario limitano la disponibilità
di risorse finanziarie esterne per le imprese e per le famiglie, peggiorando le fasi recessive.
Ciononostante esse non hanno un simmetrico ruolo positivo durante le fasi di ripresa del ciclo. La
moderna teoria del financial accelerator (FA) rimuove – secondo gli autori citati - questa
asimmetria. Il meccanismo di accelerazione finanziaria opera soprattutto attraverso il valore delle
229
garanzie: una crescita nei prezzi delle attività rende più facile per le famiglie e le aziende ottenere
prestiti mentre un declino rende tutto ciò più difficile. Questo meccanismo è pro-ciclico poiché i
prezzi delle attività tendono ad essere positivamente correlati con le fasi del ciclo e a causa del fatto
che la disponibilità di credito determina maggiori investimenti e consumi e quindi sviluppo
economico.
Tale meccanismo influenza i bilanci delle banche. Uno shock negativo dei prezzi delle attività
diminuisce il capitale e aumenta il leverage (Gelderman, 2009). Dal momento che in una fase
recessiva è difficile ottenere nuovo capitale, le banche tendono a reagire riducendo il proprio attivo.
Questi comportamenti implicano una diminuzione dei prezzi degli asset, propagando così lo shock
iniziale a tutto il mercato. Tutto ciò può avere un forte impatto sull‟attività economica, specialmente
se tali shock colpiscono contemporaneamente parecchie banche come avviene tipicamente in
presenza di eventi sistemici. Secondo l‟approccio del “New financial accelerator” (NFA) il fattore
di propagazione è il leverage. Quando le banche sono altamente indebitate, lo shock iniziale e la
corrispondente riduzione nei prezzi degli asset indurranno un fenomeno di liquidazione e vendita
degli stessi che accentuerà la caduta dei prezzi innescando probabilmente anche un circolo vizioso,
soprattutto se le banche desiderano a questo punto ripristinare un desiderato livello di
indebitamento. In linea di principio il meccanismo è simmetrico: uno shock positivo aumenta il
capitale e riduce il leverage inducendo le banche ad espandere gli attivi.
In teoria la pro-ciclicità non dovrebbe manifestarsi se le banche fossero in grado di mantenere
un‟adeguata base di riserve di capitale durante le diverse fasi del ciclo, accrescendo la propria
dotazione di capitale nelle fasi positive in maniera da poter far fronte alle perdite nelle fasi
recessive. Naturalmente esiste un trade-off tra “accettare” gli effetti della pro-ciclicità sui bilanci
delle banche da una parte e cercare di attenuarli mediante la detenzione di capitale “in eccesso”
dall‟altra. Proprio riconoscendo l‟esistenza di questo trade-off, nel proseguo della tesi si cercherà di
esaminare come la pro-ciclicità possa essere mitigata e come il fabbisogno di capitali e
accantonamenti addizionali possa essere contenuto e quindi possa risultare non eccessivamente
costoso. Più in particolare l‟attenzione sarà posta sulle nuove proposte di Basilea in tema di
accantonamenti e di buffer di capitale.
230
LA VIGILANZA
Basilea II ha rafforzato la corrispondenza tra il capitale regolamentare e la rischiosità degli attivi e
quindi è per sua costituzione pro-ciclica (come abbiamo visto, mentre l‟accumulazione dei rischi
avviene durante le fasi di espansione, il rischio e le perdite si materializzano durante le fasi
recessive). Basilea II contiene delle salvaguardie a fronte della pro-ciclicità: per esempio, le banche
sono incoraggiate ad usare stime “smoothed” degli input della funzione del capitale (la formula che
collega il rischio dell‟attivo ai requisiti patrimoniali) in modo da limitare le variazioni cicliche.
Comunque, le evidenze degli ultimi anni (Panetta, et al., 2009) dimostrano che l‟implementazione a
livello di industria bancaria dei sistemi di rating non è riuscita pienamente ad adeguarsi allo spirito
delle disposizioni regolamentari. Questo dipende da parecchi fattori, inclusi, come vedremo, gli
incentivi che possono incoraggiare le banche ad adottare stime degli input “cicliche”, e quindi point
in time, nella ricerca della massimizzazione dei profitti. Infine, un punto che deve essere
sottolineato e a cui abbiamo fatto solo brevemente cenno è che le disposizioni regolamentari sul
capitale “risk based” si riferiscono esclusivamente a banche considerate singolarmente (stand
alone) e con ciò sottostimano il rischio sistemico e trascurano l‟impatto macro di un sistema di
banche che reagisce all‟unisono al medesimo shock.
Diverse misure sono state proposte per mitigare la pro-ciclicità delle disposizioni regolamentari.
Alcune di queste richiedono un‟ulteriore armonizzazione degli standard contabili e dei criteri di
consolidamento dei bilanci bancari per assicurare un‟implementazione uniforme attraverso i Paesi.
Aggiustamenti per il calcolo delle perdite attese
Gli standard di accounting, così come vengono applicati oggi in molti Paesi, tengono in
considerazione solo le perdite su crediti dopo che un evento specifico di perdita si è verificato;
poiché la possibilità di default aumenta nelle fasi recessive, gli attuali standard contabili
evidenziano la loro natura pro-ciclica (Mazzeo, et al., 2005).
Una prima soluzione per contrastare questo effetto potrebbe essere l‟introduzione di uno “statistical
provisioning” per le perdite attese. Alle banche potrebbe essere richiesto di utilizzare una semplice
regola, quella di legare gli accantonamenti ad una misura che tenga conto del valore delle
231
esposizioni creditizie (o della loro crescita). Questo “dynamic provisioning” potrebbe tenere in
considerazione le correlazioni osservate tra l‟aumento dei crediti e l‟abbassamento degli standard di
erogazione creditizia e sarebbe abbastanza semplice da applicare. In Spagna è già stato avviato un
esperimento in questa direzione (Saurina, 2009 (b)). È vero che non sono mancate critiche che
hanno riguardato in particolare l‟incapacità di tale sistema di prendere in considerazione gli eventi
estremi (grandi perdite che possono capitare con bassa frequenza) (Sawyer, 2009). Questa obiezione
però non considera che la regola sarebbe complementare e comunque non si sostituirebbe ad altre
misure inerenti il capitale che mitigano gli effetti di eventi sistemici e rari. Un‟altra critica riguarda
la possibile penalizzazione di banche con una forte crescita dei prestiti, che in teoria potrebbero
essere le più efficienti e che invece vedrebbero in qualche misura limitata la propria capacità
espansiva, a causa di queste politiche di accantonamento (Panetta, et al., 2009). Inoltre, si pongono
interrogativi – su cui ci soffermeremo – riguardo la conformità con gli attuali standard IAS/IFRS.
Aggiustamenti per il calcolo delle perdite inattese
Le regole di Basilea II riguardo ai requisiti di capitale sono rivolte ad assicurare le banche a fronte
di eventi a grande impatto e con bassa probabilità (low probability and high impact events). La
funzione del capitale potrebbe essere modificata (Panetta, 2009) in modo da renderla capace di
aggiustare/modificare i requisiti di capitale durante le differenti fasi del ciclo. Una possibilità
sarebbe quella di “smussare” gli input (ovvero i parametri come la PD, la LGD e l‟EAD) usando,
per esempio, stime conservative in periodi di espansione, in modo da non dover effettuare eccessivi
aggiustamenti durante i periodi di recessione. In alternativa, si potrebbe agire sugli output della
funzione (ovvero la quantità di capitale richiesta a fronte di un dato rischio). Queste soluzioni
sarebbero abbastanza facili da implementare anche se la loro efficacia potrebbe essere parzialmente
inficiata dalle scelte individuali delle singole banche riguardo ai parametri ed ai modelli utilizzati.
Nuovi limiti per il ―leverage ratio‖
I requisiti di capitale ponderati per il rischio possono essere infine accompagnati da un “tetto”
massimo sul leverage, stabilito sugli attivi non ponderati per il rischio. Questa soluzione, che
diversi paesi hanno già adottato in passato, può essere considerata come una sorta di assicurazione
232
contro il fallimento dei modelli complessi (ad esempio VaR Models) utilizzati per definire il rischio
di credito e stimare i requisiti di capitale (Clark, 2009 (a)). Nonostante la sua semplicità concettuale,
l‟implementazione di un tale requisito implica di dover affrontare una serie di problemi tecnici
riguardanti sia il concetto di leverage che i metodi di calcolo da utilizzare (Clark, 2009 (b)).
Nelle pagine seguenti passeremo in rassegna il dibattito e le prese di posizione su questi tre aspetti
e cioè Dynamic provisioning, aggiustamenti nel calcolo delle perdite inattese e leverage ratio.
233
DYNAMIC PROVISIONING IN SPAGNA
Esiste un‟ampia evidenza sull‟abbassamento della severità dei criteri di affidamento durante le fasi
espansive del ciclo: tipicamente in tali fasi sono concessi affidamenti anche alla clientela più
rischiosa e a condizioni di “underpricing” (Saurina, et al., 2007). Come abbiamo visto, i supervisor
hanno espresso soprattutto durante la crisi, a più riprese, preoccupazioni sul fenomeno sulla base di
approcci sia teorici che empirici (European Commission - Commission Services Staff, 2009). Per
far fronte a questi problemi potenziali ed effettivi dovuti al rapido sviluppo del credito e alla
sottostima del rischio durante le fasi ascendenti del ciclo, si è ritenuto da più parti che un‟adeguata
risposta sia rappresentata dal dynamic provisioning.
La Banca di Spagna utilizza fin dal 200156
un modello per il calcolo degli accantonamenti basato
sulle informazioni storiche ottenute da una sorta di Centrale dei Rischi. In particolare tale registro
rende disponibili informazioni per gruppi omogenei di impieghi (carte di credito, mutui, impieghi
retail con piccole e medie imprese, pubblica amministrazione, etc.). Il modello, così come descritto
in una delle prime esposizioni da parte dei suoi autori (Saurina, et al., 2000), presenta sia
accantonamenti specifici che generici. Questi ultimi sono costruiti con la seguente formula57
:
Dove :
TELP: Through the Cycle Expected Loss Provision passate a conto economico nel periodo
t;
SP: Specific Provisions (Accantonamenti specifici) spesati a Conto Economico nella forma
di rettifiche di valore relative a controparti specifiche;
Ct : portafoglio di riferimento alla fine del periodo;
α: stima della media storica delle perdite creditizie relative a 6 categorie omogenee di
prestiti;
56
Per una chiara esposizione della metodologia vedi Banco de Espana (2005). 57
Ripresa anche recentemente dalla proposta della Commissione Europea per la modifica della CRD (European
Commission - Commission Services Staff, 2009).
t
t
tt C
C
SPCTELP
234
β: media storica degli Accantonamenti specifici delle 6 categorie omogenee di rischio.
Le banche devono fare accantonamenti a fronte della crescita degli impieghi ΔC utilizzando un
parametro α che, come abbiamo detto, è la media delle perdite su crediti (“collective assessment for
impairment” considerando una prospettiva “Through the Cycle”).
Più in dettaglio, nel caso spagnolo il parametro α può assumere i seguenti valori, calcolati sulla base
di dati storici:
1. impieghi senza rischio (0%): questa categoria include la pubblica amministrazione;
2. impieghi a rischio Basso (0,6%): mutui con un volume al di sotto dell‟80% del valore
della garanzia ipotecaria a fronte della quale sono stati erogati e inoltre debiti a medio-
lungo termine di imprese con un rating di almeno A;
3. impieghi a rischio Medio-basso (1,5%): leasing finanziari e altri rischi garantiti
(differenti da quelli presenti al punto precedente);
4. impieghi con rischio Medio (1,8%): rischi non menzionati in altri punti;
5. impieghi con rischio Medio-alto (2%): crediti personali finalizzati all‟acquisto di beni
durevoli;
6. impieghi con rischio Alto (2,5%): saldi di carte di credito, scoperti di conto corrente e
sconfinamenti su conti.
Dal momento che il rischio di credito o le perdite non ancora identificate in un prestito specifico
(infatti sono accantonamenti “generici”) si traducono in perdite specifiche sugli impieghi con
differente velocità in dipendenza delle diverse fasi del ciclo, è stato introdotto accanto al parametro
α il parametro β. Esso rappresenta la media storica degli accantonamenti specifici di ogni gruppo di
prestiti (nel caso spagnolo, dal gruppo a più basso rischio a quello maggiore, il β assume
rispettivamente i valori di 0%, 0,11%, 0,44%, 0,65%, 1,1% e 1,64%). Se si confronta il parametro
β con il livello corrente (annuale) delle previsioni specifiche, le banche possono valutare la velocità
con cui gli accantonamenti generici (collettivi) si tramutano in perdite specifiche relative a
determinati impieghi. In periodi di espansione del credito la differenza tra il β e gli accantonamenti
specifici è positiva. In periodi in cui le perdite specifiche aumentano, la differenza cambia segno e
viene sottratta alla componente α e potrebbe quindi causare una riduzione del fondo degli
accantonamenti generali. Il sistema di general provision spagnolo include dei limiti all‟importo di
questo fondo generale (statistico), sia per evitare eccessi di accantonamenti sia per evitare che
questi siano troppo bassi.
235
Il calcolo degli accantonamenti statistici non richiede che sia determinata in precedenza la fase
ciclica attraversata dall‟economia; il calcolo è determinato invece in modo endogeno dagli
accantonamenti specifici, che per definizione sono strettamente connessi alle sofferenze, una
variabile che è molto collegata all‟attività creditizia ed al ciclo economico. È relativamente facile,
nella pratica, stabilire la lunghezza dell‟ultimo ciclo degli impieghi e con ciò determinare la media
degli accantonamenti specifici del ciclo (rappresentati da β).
236
APPENDICE
Può essere utile svolgere una simulazione per verificare quanto abbiamo detto. Riportiamo di
seguito una tavola che mostra l‟evoluzione di questi accantonamenti “statistico-generali” e la loro
interazione/impatto con il conto profitti e perdite. Per semplicità abbiamo assunto le ipotesi
utilizzate da Saurina, et al., (2000) al momento dell‟introduzione della proposta.
Tavola 4.1: Simulazione del Dynamic Provisioning
Si supponga un portafoglio di prestiti con un valore iniziale di 1.000 a cui viene applicato un tasso
di crescita che varia in dipendenza delle fasi del ciclo (16% il primo anno...8% il quarto...4% iI
sesto anno...,etc.). Anche per i profitti pre accantonamenti è ipotizzato un tasso di crescita che varia
in dipendenza delle varie fasi del ciclo.
Il sistema, inoltre, prevede:
accantonamenti generici:
saldo: AG = g*I , dove I sta per “prestiti totali” e g è un parametro (tra 0,5 ed 1);
237
accantonamenti generali annuali: AGA = g*ΔI
accantonamenti specifici:
saldo: AS = e*M dove M sta per “sofferenze” ed e è il parametro (tra 10% e 100%);
accantonamenti specifici annuali: ASA = e*ΔM
accantonamenti statistici:
misura di rischio potenziale: Pr = s*I dove s è il coefficiente medio (tra 0% e 1,5%);
accantonamento annuale: AAS = Pr – AS
Inoltre:
Se AS < Pr (livello delle sofferenze basso) allora AAS > 0 (costruzione e accrescimento del
fondo statistico);
Se AS > Pr (livello delle sofferenze alto) allora AAS < 0 (riduzione del fondo statistico).
Il totale degli accantonamenti del sistema spagnolo risulta dalla somma di AGA + ASA + AAS
(accantonamenti generici, specifici e statistici).
In realtà, nel 2004, il meccanismo è stato parzialmente modificato per tener conto delle modifiche
contabili apportate dagli IAS relative agli accantonamenti generici. Peraltro come riconosce la
stessa Banca di Spagna nella sua relazione del 200558
, le modifiche così introdotte hanno reso meno
“puro” l‟effetto anticiclico delle nuove misure. Abbiamo pertanto sviluppato la nostra simulazione
assumendo le ipotesi in vigore nel periodo 2000-2001 .
58
Il confronto tra gli accantonamenti specifici e generici relativi all‟attività creditizia sulla base delle nuove disposizioni
contabili del 4/2004 e sulla base del vecchio sistema 4/1991 mostra che grazie alla nuova proposta (di un fondo
statistico) gli accantonamenti sono meno ciclici ma non fino al punto di mantenere gli accantonamenti costanti durante
il ciclo così come avveniva in vigenza dei precedenti principi contabili.
238
Gli effetti attesi del fondo statistico
Gli accantonamenti statistici sono stati disegnati sin dall‟origine non come sostituto ma come un
complemento degli accantonamenti specifici, ritenendo pertanto che possano avere un effetto di
bilanciamento sul comportamento fortemente ciclico degli accantonamenti a fronte di perdite su
crediti. Il fondo “statistico” cresce infatti durante la fase espansiva. Durante la recessione gli
accantonamenti specifici crescono mentre l‟uso di un fondo statistico riduce il loro impatto sul
conto profitti e perdite della banca. Il seguente grafico mostra proprio questo andamento e fa capire
come il nuovo sistema si dimostra più stabile nel tempo (il grafico è stato eaborato con i dati della
tavola presente a inizio appendice):
Grafico 2.1: Accantonamenti su totale prestiti
La linea verde, che rappresenta il sistema nuovo, è ottenuta come somma dei valori del fondo
statistico (linea rossa) e dei valori del vecchio sistema di accantonamenti (linea blu). La linea
esprime l‟andamento del rapporto tra i valori del nuovo sistema ed il totale prestiti della banca, ed
appare molto stabile.
L‟effetto combinato dei due tipi di accantonamenti dovrebbe comportare una migliore
evidenziazione sia dei ricavi che dei costi derivanti dal portafoglio impieghi ed in ultima istanza,
dovrebbe determinare un miglioramento della misurazione dei profitti (nel senso di una loro
maggiore stabilizzazione nel tempo).
239
L‟introduzione dello statistical provisioning dovrebbe poter aumentare la consapevolezza del
management riguardo al rischio di credito, permettendo un‟analasi ex ante di tale rischio,
diminuendo il comportamento pro-ciclico degli accantonamenti e riducendo la volatilità dei profitti
della banca grazie ad una migliore rendicontazione delle perdite attese.
L’introduzione di accantonamenti prudenziali deve essere compatibile con le
regole contabili
La possibilità di realizzare politiche di accantonamento volte a stabilizzare il ciclo creditizio è
fortemente influenzata, nell‟Unione Europea, dai principi contabili internazionali noti come IAS
(International Accounting Standards) e IFRS (International Financial Reporting Standards).
Particolarmente rilevante è il principio IFRS/IAS 39 (adottato a partire dal 2005): esso prevede che
i bilanci bancari utilizzino in misura maggiore il criterio del fair value o “valore equo”, quantomeno
per gli strumenti finanziari detenuti al fine di negoziazione. Il principio del fair value prevede che
un‟attività di bilancio venga rivalutata o svalutata in base alle variazioni del suo valore equo,
stimato in base ai prezzi di mercato o ai flussi di reddito generati dall‟attività stessa. Diversamente
dal costo storico, che restava costante a fronte dell‟evoluzione dei mercati, esso introduce nei
bilanci bancari un forte elemento di volatilità potenziale. Per questo motivo, per i crediti bancari, il
principio del fair value è stato “ammorbidito” e trasformato nel criterio del costo ammortizzato. Ai
nostri fini interessa sapere che tale criterio calcola il valore di un prestito come il valore attuale dei
flussi di cassa attesi, i quali ovviamente si riducono se la controparte evidenzia difficoltà tali da
rendere probabile una ristrutturazione del debito. In caso di deterioramento, pertanto, il credito va
iscritto per un ammontare pari al valore attuale dei nuovi flussi di cassa attesi/futuri e la relativa
differenza rispetto al valore nominale va imputata come rettifiche di valore a conto economico.
“Per quanto concerne le rettifiche su crediti, l‟IFRS 39 fa riferimento al concetto di incurred loss.
Sono cioè ammesse rettifiche solo a fronte di perdite già verificate (o presunte, ma sempre sulla
base di un fatto nuovo, già verificato e non presente al momento dell‟erogazione del prestito). Non è
dunque riconosciuta la possibilità di effettuare accantonamenti sulla base di generiche perdite future
attese (expected loss), anche se stimate sulla base di criteri statistici” (Resti, et al., 2008) come nel
caso spagnolo.
240
La crisi, tuttavia, ha mostrato come i rischi tendano a costituirsi (sebbene non riconosciuti) durante
le fasi di espansione anche se poi di fatto si materializzano durante le fasi di recessione. Tutto ciò
indurrebbe a reintrodurre la possibilità, anche dal punto di vista contabile, di alcune forme di
accantonamenti statistici o forward-looking. In questa direzione (la cui analisi esula dai compiti di
questa tesi) si stanno muovendo gli Organismi Contabili internazionali (vedi in particolare “Spanish
Provisions under IFRS, FASB e IASB , March 2009).
241
3 - COUNTERCYCLICAL CAPITAL BUFFER
LE IPOTESI E LE LOGICHE DELLA FUNZIONE DI
CAPITALE
Come abbiamo visto nell‟ultimo capitolo della prima parte, i requisiti patrimoniali costruiti secondo
la logica di Basilea II sono esplicitamente calibrati sulle perdite inattese e possono essere computati
usando due differenti approcci: quello standardizzato (SA) e quello basato sui rating interni (IRB).
L‟approccio IRB ha due versioni: foundation (FIRB) e advanced (AIRB) che differiscono nel
numero dei parametri di rischio che la banca deve stimare. Nell‟approccio IRB il requisito di
capitale per ogni asset è ottenuto, come abbiamo visto, in base alla formula che qui ricordiamo:
[1]59
che si basa sui seguenti tre parametri 1) la probabilità di default (PD) del prenditore, 2) la loss given
default (LGD) e 3) l‟ asset correlation (ρ).
Requisiti di capitale e pro-ciclicità
Riepiloghiamo qui i risultati della nostra indagine sul nuovo accordo di Basilea60
. L‟accordo sul
capitale si fonda su una formula (la [1]) che collega i requisiti patrimoniali alla rischiosità degli
asset. Il risultato in termini numerici della formula dipende dal comportamento ciclico delle
ponderazioni di rischio. Basilea II genera una rilevante pro-ciclicità se i pesi crescono durante la
fase recessiva del ciclo riflettendo il deterioramento dei rating e se decrescono durante le fasi
espansive. Le seguenti pagine cercheranno di spiegare questo punto.
59
Per semplicità non abbiamo riportato nella formula nè l‟EAD nè la maturity, in quanto non particolarmente rilevanti
ai nostri fini. 60
Si veda il capitolo relativo all‟evoluzione normativa.
LGDPDLGDPDK
5.0
15,01
1999.0106.1
242
Richiamiamo preliminarmente quanto già detto nel capitolo sui credit risk driver, ovvero che le
metodologie di rating utilizzate sia dalle agenzie di rating che dalle banche possono seguire sia un
approccio “point in time” (PIT) che un approccio “through the cycle” (TTC). I rating PIT
rappresentano una valutazione della capacità del prenditore di fondi di adempiere alle proprie
obbligazioni sulla base di dati (bilanci, andamenti settoriali e movimentazione) con un orizzonte di
tempo breve e quindi variano considerevolmente durante il ciclo. L‟approccio TTC si focalizza
invece su un orizzonte più lungo, astraendo pertanto dalle esistenti condizioni cicliche. I rating TTC
sono perciò più stabili di quelli PIT, sebbene il loro potere predittivo possa essere più basso.
Effetti pro-ciclici dell’approccio IRB
Tralasciamo gli effetti pro-ciclici dell‟approccio standardizzato e ci limitiamo a quelli
dell‟approccio IRB. Basilea II stabilisce che le banche, mentre stimano i parametri rilevanti per i
requisiti patrimoniali (PD, LGD, EAD e Maturity), devono considerare la capacità dei prenditori di
rimborsare i prestiti non solo sotto le condizioni attuali ma anche in condizioni cicliche
potenzialmente avverse e proprio per questo raccomanda di utilizzare serie storiche che
comprendano periodi abbastanza lunghi. Al capo 414 del Capitolo sull‟approccio dei Rating Interni,
l‟Accordo di Basilea raccomanda “although the time horizon used in PD estimation is one year ,
banks are expected to use a longer time in assigning ratings“ e al capo 415 “the range of economic
conditions considered when making assessments of the borrower’s ability to contractually perform
must be consistent with current conditions and those that are likely to occur over a business cycle”.
In altre parole lo spirito della vigilanza è quello di richiedere alle banche di seguire un approccio
TTC, anche se è vero che per alcune ragioni che abbiamo già esaminato, le banche, a volte, non si
conformano a questi suggerimenti.
Probability of default
Basilea II specifica che la probabilità di default può essere stimata seguendo tre differenti
metodologie: (1) l‟esperienza storica di ciascuna banca sui propri tassi di insolvenza; (2) i modelli
statistici di default; (3) mappando i rating interni su quelli esterni. Al di là delle tecniche scelte e
243
sebbene le pratiche possano differire ampiamente anche all‟interno delle diverse banche (a tal
proposito basta considerare l‟esistenza di modelli diversi nel caso di differenti linee di business e/o
categorie di prenditori), normalmente l‟approccio point in time - maggiormente ciclico – è preferito
a quello through the cycle (Resti, et al., 2008). Questo può essere dovuto sia a difficoltà di
implementazione (mancanza di dati storici) che a un sistema di incentivi che favorisce l‟adozione di
un approccio PIT perché in grado di favorire la crescita dei profitti. Non solo, le banche
comunemente non provvedono a ricalibrare su base regolare (ad esempio su base annuale) le stime
della PD: lo fanno solo quando tutto il sistema lo fa e cioè in periodi associati con fluttuazioni
cicliche (Panetta, et al., 2009).
Loss given default
Basilea II richiede alle banche di usare stime della LGD prudenti e non pro-cicliche, utilizzando dati
che idealmente coprono almeno un intero ciclo economico. Sappiamo che c‟è una solida evidenza
sul fatto che il valore delle garanzie e dei tassi di recupero su portafogli di titoli corporate che vanno
in default diminuiscono durante la fase recessiva del ciclo. Evidenze dal mercato statunitense
suggeriscono che durante le recessioni i tassi di recupero su obbligazioni possono diminuire fino a
25 punti percentuali (“The Link between Default and Recovery Rates: Theory, Empirical Evidence
and Implications”, 2005) rispetto alla media del valore non recessivo. È anche vero che lo stato
dell‟economia non può spiegare completamente la volatilità della LGD, che è significativamente
legata a condizioni specifiche di mercato e di settore. L‟evidenza per i prestiti bancari è più limitata,
tuttavia gli studi suggeriscono che i tassi di recupero sono più alti durante le fasi espansive e che si
assiste ad un rapido aumento della LGD durante le fasi di recessione. È anche vero che le banche
possono richiedere ulteriori garanzie durante le fasi di contrazione dell‟economia, con ciò
attenuando le variazioni cicliche della LGD.
244
LE PROPOSTE PER CONTENERE LA PRO-CICLICITA’
Il Comitato di Basilea era ben conscio degli effetti pro-ciclici del nuovo accordo. Come abbiamo
visto nelle pagine precedenti definendo la pro-ciclicità, se i coefficienti patrimoniali dipendono dai
rating (esterni o interni) delle controparti, un‟eventuale recessione, portando con sé tassi di
insolvenza più elevati e downgrading più frequenti, comporta un aumento del capitale minimo
richiesto alle banche, con ciò innescando il meccanismo pro-ciclico. Poiché sarebbe difficile
raccogliere nuovo capitale durante una recessione, per mantenere le proporzioni tra capitale ed
attivo a rischio le banche finirebbero per concedere meno credito all‟economia; ciò esporrebbe le
imprese ad ulteriori tensioni finanziarie, accentuando la recessione. Analogamente, in presenza di
una forte crescita economica associata ad un generale miglioramento del merito di credito delle
controparti (upgrading), i coefficienti patrimoniali si allenterebbero consentendo alle banche di
aumentare oltre misura l‟offerta di credito all‟economia. La pro-ciclicità, tuttavia, non dipende solo
dal modo in cui sono tecnicamente disegnati i requisiti patrimoniali. Adottando l‟approccio dei
rating interni, sappiamo che il requisito patrimoniale è espresso dall‟equazione [1], ossia dalla
funzione regolamentare che collega la PD, l‟EAD e la LGD alla dotazione minima di capitale.
Abbiamo visto che un parametro fondamentale nel determinare la forma di tali funzioni è l‟asset
correlation (ρ). A valori di ρ più elevati, corrisponde un minor beneficio da diversificazione e
dunque, per una data PD, un maggiore requisito patrimoniale. A questo proposito va ricordato che il
valore di ρ proposto nel 2001 per le imprese (20% fisso indipendentemente dalla PD) era stato
sostituito (in occasione del terzo studio di impatto quantitativo svolto nel 2003) con un sistema di ρ
variabili che partono dal 24% e scendono al 12% per le imprese con PD più elevata. Ne consegue
che al crescere della PD i benefici della diversificazione aumentano.
Come abbiamo detto in precedenza, la versione finale dell‟accordo aveva ridotto in misura rilevante
il livello e la reattività dei coefficienti patrimoniali a fronte di variazioni dei rating rispetto alla
versione del gennaio 2001. Ciononostante, secondo osservatori e accademici, questo non è stato
sufficiente per ridurre la pro-ciclicità di Basilea. In teoria, quest‟ultima, potrebbe essere gestita sulla
base del Pillar II, che rappresenta, come abbiamo visto, una delle più innovative caratteristiche di
Basilea II. Infatti, in accordo a quanto stabilito nel Pillar II, le banche dovrebbero determinare
l‟ammontare del capitale necessario a fronte dei rischi presenti e futuri includendo, accanto ai rischi
di Pillar I (credito, mercato, controparte, operativo), anche i rischi di Pillar II (rischio di tasso di
245
interesse per il banking book, rischio di concentrazione, etc.). Le banche dovrebbero condurre stress
test per vedere come le proprie esposizioni al rischio sono impattate da eccezionali ma plausibili
eventi avversi. L‟attività di vigilanza dovrebbe richiedere alle banche di mantenere dei capital
buffer oltre al capitale richiesto dal Pillar I sulla base dei risultati dello stress testing e delle possibili
perdite inattese in condizioni cicliche estremamente avverse.
Il dibattito sui tool anticiclici
La crisi ha fatto si che sia gli studiosi che le autorità di vigilanza, in particolare lo stesso Comitato
di Basilea, siano intervenuti con proposte di riforma dell‟Accordo del 2004 volte a contenerne la
pro-ciclicità. Nella parte che segue cerchiamo di dare una visione critica di queste proposte che
riguardano i sistemi per aggiustare le perdite inattese, tracciando infine alcune prime conclusioni del
dibattito (che tengono conto sia delle proposte di nuove metodologie di calcolo delle perdite attese
che di quelle inattese, ossia proposte che prevedono interventi sulle metodologie di calcolo degli
accantonamenti e del capitale).
Aggiustamenti per le perdite inattese
Per quanto riguarda le perdite inattese una possibilità per ridurne la pro-ciclicità potrebbe essere
quella di stabilizzare gli input, cioè i parametri necessari per quantificare il rischio, usando ad
esempio stime conservative (PD, LGD, EAD e Maturity) durante le fasi di espansione in modo da
ridurre gli aggiustamenti durante la fase di downturn. Alternativamente si potrebbe lavorare sugli
output della funzione (cioè l‟ammontare di capitale per un dato rischio). Queste ultime soluzioni
potrebbero essere relativamente facili da implementare ma la loro efficacia potrebbe essere
parzialmente limitata dalle scelte delle banche relative a parametri e modelli di rischio.
Stabilizzare gli input della funzione del capitale
Una prima ipotesi è quella di dettagliare in modo obbligatorio le metodologie di stima dei
parametri di rischio. Generalmente, i differenti sistemi di rating assegnano le PD sulla base di un
processo a due stadi (Angelini, et al., 2010). Dapprima, ad una controparte è assegnato un certo
246
rating (ad esempio AA); in un secondo momento a questa classe di rating (in ipotesi AA) è
assegnata una Probabilità di Default. La prociclicità può risultare sia da:
1. migrazioni, cioè alle singole controparti sono assegnati rating migliori o peggiori in base ai
miglioramenti o peggioramenti del ciclo (in una fase espansiva, ad esempio, passaggio da
AA a AAA , mentre in recessione downgrade da AA a B);
2. ricalibrazione della PD di una data classe di rating, cioè le controparti in una data classe di
rating riceveranno una differente PD (ad esempio pur rimanendo nella stessa classe AA alla
controparte potrebbe essere attribuita una PD migliorativa in una fase espansiva e
peggiorativa durante la recessione).
In un sistema di rating PIT il ruolo del secondo fattore sarà tipicamente trascurabile, mentre il primo
fattore (upgrade versus downgrade) risulterà importante. In uno scenario di downturn, un grande
numero di controparti migrerà verso le classi peggiori, il che implicherà requisiti patrimoniali più
elevati (e viceversa durante la fase di espansione). Al contrario, nei sistemi TTC le migrazioni verso
differenti classi di rating sono rare ed il loro ruolo come driver di pro-ciclicità tende ad essere
trascurabile. Nei sistemi TTC ci si aspetta che la volatilità dei requisiti patrimoniali possa derivare
dal secondo fattore (ricalibrazione del valore della PD) ma l‟impatto non dovrebbe essere elevato.
Si può pertanto ritenere che l‟adozione obbligatoria di un sistema TTC sia un modo per ridurre la
pro-ciclicità61
.
Rafforzare gli stress test
Un‟altra opzione che può essere utilizzata insieme all‟obbligatorietà dei rating TTC è di rafforzare
le previsioni del Pillar II ed in particolare gli stress test. Come abbiamo visto le autorità di vigilanza
già ora hanno la responsabilità di giudicare l‟adeguatezza patrimoniale delle banche alla luce delle
condizioni cicliche ed in un‟ottica di vigilanza macro prudenziale. In particolare il Pillar II rimette
alla discrezione delle autorità di vigilanza la richiesta di aumenti di risorse a titolo di capitale oltre il
minimo stabilito dal Pillar I. In effetti le regole del Secondo Pilastro, sebbene non siano riducibili a
questo scopo, sono state disegnate anche per ridurre la pro-ciclicità (questa è la ragione per cui gli
stress test devono considerare come minimo l‟impatto di una recessione sull‟adeguatezza
61
In europa, parecchie banche di fatto implementano soluzioni ibride, adottando sia metodologie PIT che TTC, come
agevolmente verificabile visitando i siti web delle principali banche internazionali nella sezione dedicata agli obblighi
di trasparenza stabiliti dal Pillar 3.
247
patrimoniale). Alle banche potrebbe essere richiesto così come è avvenuto recentemente
(Committee of European Banking Supervisors, 2010) di svolgere stress test su base regolare
basandosi su scenari recessivi stabiliti dalle autorità di vigilanza e di adeguare i propri buffer di
capitale a seguito dei risultati di tali simulazioni.
Aggiustamenti della funzione di capitale
Livelli di confidenza che variano nel tempo
Kashyap e Stein (2004)62
notano come l‟Accordo del 2004 ha l‟obiettivo di assicurare che la
probabilità di default di una banca rimanga sotto una certa soglia, indipendentemente dalle
condizioni economiche. Ad esempio, se alle banche è richiesto di mantenere abbastanza capitale per
assorbire perdite inattese che possono emergere dato un orizzonte di un anno, con un livello di
confidenza del 99,93%, il risultato è una probabilità di default della banca, sullo stesso orizzonte di
tempo, pari allo 0,07%. L‟invarianza temporale di questo valore implica che in una recessione
l‟obiettivo di ridurre la probabilità di default della banca è sovra pesato rispetto a quello di dare
sufficiente credito all‟economia (e viceversa durante l‟espansione). Kashyap e Stein concludono che
un regolatore che si preoccupasse di entrambi gli obiettivi dovrebbe adottare intervalli di
confidenza che cambiano durante il ciclo. Questa conclusione è affermata anche da Repullo e
Suarez (2007), che mostrano come un semplice aggiustamento ciclico del livello di confidenza
utilizzato per calcolare i requisiti patrimoniali potrebbe significativamente ridurre la pro-ciclicità63
.
Correlazione degli attivi a rischio che variano nel tempo
Un‟altra opzione è l‟aggiustamento del parametro di correlazione. La correlazione potrebbe essere
aggiustata al ribasso in tempi di recessione e aumentata durante le fasi di espansione. Questo
approccio appare consistente con il paradigma sottostante Basilea II in cui, come abbiamo visto, i
co-movimenti del rischio di credito sono spiegati da un singolo rischio sistemico (per esempio il
ciclo) che è catturato nel modello attraverso la correlazione degli attivi a rischio.
62
Riportato in Angelini, et al., (2010). 63
Essi propongono di ridurre il livello di confidenza al 99,8% durante i periodi di recessione e di accrescerlo sopra il
99,9% nei periodi di espansione.
248
Aggiustamenti basati su meccanismi auto regressivi
Alcuni autori come Gordie e Howells (2004)64
hanno proposto di stabilizzare l‟output della formula
dei requisiti di capitale argomentando che in questo modo sarebbe ridotta la pro-ciclicità ma al
tempo stesso sarebbe preservato il valore informativo dei rating PIT. I due autori hanno proposto
un filtro auto regressivo da essere applicato ai requisiti di ogni singola banca in modo che gli shock
vengano assorbiti in un periodo più ampio di diversi anni piuttosto che in una sola volta.
Aggiustamenti basati su moltiplicatori che variano nel tempo
Un secondo gruppo di proposte raccomanda di applicare un moltiplicatore valido per tutte le banche
all‟output della formula regolamentare. Il moltiplicatore dovrebbe essere più alto di uno in periodi
di sviluppo ed inferiore ad uno durante i periodi di crisi. Dovrebbe essere comunicato dalle autorità
di vigilanza nazionali periodo per periodo e dovrebbe essere applicato da tutte le banche che
ricadono nella loro giurisdizione. Gordie e Howells (2004) menzionano come esempio un
moltiplicatore legato ad una media mobile del tasso di default aggregato delle controparti delle
banche commerciali. Repullo e Suarez (2007) propongono un moltiplicatore basato sulla deviazione
del PIL rispetto al trend.
Buffer basato su variabili condizionali sensibili al rischio
Un approccio alternativo per trattare la pro-ciclicità è quello di ricorrere direttamente a variabili risk
sensitive. Il CEBS nel 2009 (Committee of European Banking Supervisors, 2009) ha proposto, per
esempio, un meccanismo per misurare il gap tra i fabbisogni di capitale durante la recessione e
quelli di tempi normali. Dal momento che la probabilità di default è la principale fonte di ciclicità
nei modelli di rating bancari, il CEBS propone di rimodulare le stime della PD in modo da
incorporare condizioni di recessione. In pratica la proposta prevede un fattore scalare determinato
dal rapporto tra la PD nelle condizioni attuali (ad oggi) e la PD di downturn.
64
Riportato in Angelini, et al., (2010).
p
current
p
downturn
P PDPDSF /
249
Per costruzione, questo fattore aumenta in una recessione e diminuisce in fasi espansive. Questo
fattore scalare dovrebbe essere usato per moltiplicare la PD attuale (ad oggi) presente nella formula
per il calcolo del capitale. L‟approccio potrebbe essere applicato a livello di portafoglio (cioè a
livello di ogni classe di attivo presente nel banking book). L‟elemento chiave della proposta CEBS è
che il requisito ottenuto in questa maniera potrebbe essere usato come un benchmark dalle autorità
di vigilanza quando determinano l‟adeguatezza dei buffer di Pillar II. In altre parole la PD
“aggiustata” potrebbe servire come un metodo trasparente per identificare i fabbisogni di capitale
“worst case” e cioè per definire il livello adeguato dei buffer senza alterare in nessun modo l‟uso
corrente della formula IRB per determinare i requisiti minimi di capitale.
250
ESAME CRITICO DELLE DIVERSE PROPOSTE
In questa sezione cercheremo di evidenziare i punti forti e i punti deboli delle proposte che abbiamo
fin qui descritto.
Richiedere alle banche di usare obbligatoriamente sistemi di rating TTC non sembra né fattibile né
desiderabile. Come infatti dicono Gordie e Howells (2004):
i rating TTC renderebbero impossibile la comparabilità nel tempo dei requisiti di capitale e
renderebbero pertanto difficile inferire cambiamenti nei rischi di portafoglio a partire dai
cambiamenti nei ratio di capitale;
i rating TTC sono poco utilizzabili sia per il pricing sia, più in generale, per obiettivi di risk
management e non renderebbero possibile lo “use test” che richiede che le stime del rischio
utilizzate nei calcoli dei requisiti di capitale siano effettivamente utilizzati per obiettivi
interni di risk management.
Rinforzare gli stress test appare sicuramente una strada da percorrere ma potrebbe essere complesso
ottenere una convergenza internazionale per quanto riguarda i metodi e gli approcci. Ugualmente, la
revisione della funzione del capitale potrebbe solo difficilmente essere un‟adeguata risposta ai limiti
di Basilea II. Come abbiamo detto, infatti, la calibrazione presente nell‟attuale formula è il risultato
di un lungo processo che aveva come obiettivo quello di assicurare una valutazione consistente tra
le diverse classi di attivo così che, dovendola modificare, potrebbe richiedere nuove e lunghe analisi
quantitative. Notiamo inoltre che le proposte per la variazione nel tempo di alcuni parametri della
funzione di capitale, benché appaiano interessanti in prima analisi, sono difficilmente adottabili in
pratica perché dipendono da una corretta e condivisa identificazione della fase del ciclo da parte
delle autorità regolamentari. Inoltre, dal momento che i cicli differiscono nei diversi paesi, una
ricalibrazione comune per tutte le banche sarebbe probabilmente inappropriata e anzi, dovrebbero
essere applicati degli aggiustamenti specifici paese per paese.
Stabilizzare l‟output della funzione del capitale attraverso meccanismi auto regressivi potrebbe
creare effetti perversi. Una banca poco solida potrebbe essere incoraggiata ad aumentare il rischio
di portafoglio rapidamente (“gambling for resurrection”), dal momento che le maggiori necessità di
capitale apparirebbero soltanto gradualmente nel tempo.
251
La cosa più importante è notare però che la maggioranza delle varianti discusse fin qui presentano
lo stesso punto debole: dal momento che definiscono aggiustamenti di carattere aggregato e
sistemico non catturano le caratteristiche specifiche delle singole banche e potrebbero pertanto
introdurre distorsioni e sollevare la questione del così detto “comune terreno di gioco”. Perché
infatti una banca che registra un calo dei propri impieghi dovrebbe aumentare il capitale come
richiesto da una regola che lega i requisiti patrimoniali allo sviluppo del credito su base aggregata?
Inoltre, questi aggiustamenti proposti non riescono a discriminare tra banche con approcci TTC e
quelle PIT. L‟utilizzo di stime TTC sarebbe sicuramente scoraggiato, dal momento che le banche
TTC dovrebbero costruire dei buffer nella stessa misura di banche che utilizzano stime PIT. La
proposta avanzata dal CEBS non presenta questa debolezza. Infatti:
è specifica per ogni singola banca;
è basata su variabili risk sensitive e si concilia con la struttura di incentivi proposta da
Basilea II (le banche TTC dovrebbero costruire buffer inferiori a quelle che adottano sistemi
PIT, che presentano più pronunciate fluttuazioni cicliche).
Le proposte recenti di Basilea
Il quadro di quanto fin qui discusso (accantonamenti forward looking, dynamic provisioning,
riforma dei requisiti di capitale, etc.) è recepito dalle recenti proposte di Basilea.
Come abbiamo visto, l dibattito teorico non presenta vincitori nè vinti. È per questa ragione che
Basilea, prima nel dicembre 2009 (Basel Committee on Banking Supervision, Dicembre 2009) e poi
successivamente nel luglio e nel settembre del 2010 (Basel Committee on Banking Supervision,
Settembre 2010), ha proposto e optato per una serie di misure che si completeranno le une con le
altre. Nel documento organico di proposta del Dicembre 2009 si parla in particolare di: a) mitigare
la ciclicità dei requisiti di capitale; b) proporre accantonamenti “forward looking”; c) indurre le
banche alla costituzione di un conservation buffer di capitale; d) raggiungere l‟obiettivo
macroprudenziale di proteggere il settore bancario da un‟eccessiva crescita degli impieghi. Per
mitigare la volatilità dei requisiti minimi di capitale, Basilea intenderebbe sviluppare una serie di
strumenti quali lo scaling factor della CEBS, in modo da aggiustare i sistemi di rating interni.
Maggiori accantonamenti dovrebbero risultare da un cambiamento delle regole contabili che
252
dovrebbero consentire l‟adozione di un approccio “expected loss” in luogo di quello delle “incurred
loss”.
Passando invece alle misure adottate, rileviamo che, a luglio 2010, il Comitato ha proposto una
misura (capital conservation buffer) che prevede che le banche siano dotate di un cuscinetto di
capitale al di sopra dei minimi regolamentari (pari al 2,5 per cento di common equity in rapporto
all‟attivo a rischio). Una banca non in grado di rispettare questo requisito sarebbe assoggettata a
vincoli automatici alla distribuzione degli utili o al pagamento di bonus fino a quando non abbia
ricostituito il cuscinetto di capitale aggiuntivo. È stata inoltre prevista l‟introduzione di un ulteriore
meccanismo (buffer anticiclico) destinato a garantire che le banche accumulino risorse patrimoniali
nelle fasi di crescita eccessiva del credito. Questo margine aggiuntivo potrà raggiungere fino a un
massimo del 2,5 per cento di capitale di qualità primaria in rapporto all‟attivo a rischio.
L‟attivazione dei buffer avverrebbe solo in situazioni di surriscaldamento eccessivo dell‟economia
mentre, normalmente, esso sarebbe pari a zero. La richiesta di questo capitale aggiuntivo sarebbe
determinata in base a criteri concordati a livello internazionale e annunciati al mercato, ma le
autorità nazionali conserverebbero comunque un margine di discrezionalità per l‟effettiva
attivazione dello strumento. Ancor più discrezionale sarebbe la decisione di consentire alle banche
di utilizzare il buffer nelle fasi di recessione, per le quali è difficile definire variabili di riferimento.
Si tratta senza dubbio della misura nella quale si avverte maggiormente lo sforzo di introdurre una
prospettiva macroprudenziale nell‟ambito della regolamentazione microprudenziale. È per questa
ragione una misura che continua a rimanere molto controversa.
Tutte queste proposte sono in corso di finalizzazione e sembrano corrette. Forse però, come dicono
autorevolmente alcuni esponenti della Banca d‟Italia (Angelini, et al., 2010) la priorità chiave deve
rimanere quella di lavorare sulla ciclicità dei requisiti minimi di capitale. Sia il capital conservation
buffer che il buffer macroprudenziale – con la loro logica di misurazione “one-size-fits-all” –
possono infatti avere effetti indesiderati se non si lavora al contempo sulla “stabilizzazione” delle
fluttuazioni dei requisiti patrimoniali durante il ciclo. Senza un appropriato intervento a questo
livello, alle banche che già utilizzassero rating TTC sarebbero richiesti buffer più elevati di quelli
che usano i sistemi PIT. Secondo gli stessi autori sia il capital conservation buffer che il buffer
anticiclico potrebbero essere riuniti in un singola e più comprensiva misura che abbia una dinamica
legata all‟evoluzione aggregata del credito. I summenzionati autori, infine, ritengono che la
proposta di utilizzare per gli accantonamenti il concetto di expected loss – per quanto possa essere
ritenuto una maniera intelligente e pragmatica per far fronte alle obiezioni degli Oganismi Contabili
253
Internazionali - non appaia sufficiente per contrastare il fenomeno della pro-ciclicità. Ricordano
viceversa come la costituzione di accantonamenti statistici in Spagna abbia dato buona prova di sè
durante l‟ultima crisi.
254
4 - LEVERAGE RATIO
I modelli di portafoglio per la misura del rischio di credito, in particolare per la stima del VaR di un
portafoglio di esposizioni creditizie, rappresentano ormai un risultato acquisito e consolidato che
trova ampio spazio nei più diffusi manuali di risk management. Metodologie come quella di
CreditMetrics sono ormai presenti e note da oltre un decennio e costituiscono un patrimonio
comune per chi si occupa di misurazione e gestione dei rischi. Come abbiamo visto, l‟impalcatura
concettuale che sta alla base della formula del capitale di Basilea, pur essendo una semplificazione
di tali modelli, presenta la stessa impostazione.
Il VaR, come abbiamo dimostrato nella discussione sui requisiti di capitale relativi al market risk,
ha evidenziato peraltro nel corso della crisi i propri limiti con evidenze assai significative. È proprio
per questo che nell‟ambito del market risk si è cercato di ovviare a questi limiti rafforzando i
requisiti patrimoniali (con l‟aggiunta dello stressed VaR, dell‟Incremental Risk Charge, etc.).
Nell‟ambito di cui ci stiamo occupando, ovvero la possibilità di misurare i requisiti patrimoniali a
fronte del rischio di credito con i modelli VaR, la crisi ha indotto alcuni autori ad un ripensamento
dei modelli di rischio e a formulare una soluzione alternativa: il leverage ratio.
255
LA TESTIMONIANZA DI TALEB SU ―THE RISK OF
FINANCIAL MODELLING, VAR AND THE ECONOMIC
MELTDOWN‖
Nell‟intervento all‟House of Representative degli Stati Uniti del settembre del 2009 (sul quale ci
siamo soffermati in precedenza) Nassim Taleb affermava:
che le misurazioni del rischio basate sul VaR fossero all‟origine dell’eccessivo leverage del
sistema finanziario, una delle principali cause della crisi. Il leverage sarebbe stato infatti un
risultato diretto della sottostima del rischio di eventi estremi e dell‟illusione che tali rischi
fossero misurabili;
il giorno più infausto per la stabilità del sistema finanziario americano è il 28 aprile 2004:
quel giorno la SEC, pressata dalla lobby delle investment bank, decise di abbandonare
l‟utilizzo di una robusta misura del rischio come quella del leverage, a favore di
misurazioni più fragili basate su modelli probabilistici.
In questo quadro, quali sono le raccomandazioni rivolte da Taleb alle autorità regolamentari? I
regulator dovrebbero capire innanzitutto che i mercati finanziari sono sistemi complessi e
dovrebbero lavorare per accrescerne la robustezza, favorendo la diversificazione nell‟assunzione dei
rischi, consentendo alle istituzioni finanziarie di assorbire elevati shock e di ridurre l‟effetto degli
errori dei modelli. Secondo Taleb, dopo la crisi, le Autorità di Vigilanza non dovrebbero più fare
affidamento su misure probabilistiche bensì su indicatori come il leverage ratio che, a differenza
del VaR, secondo Taleb è un indicatore sufficientemente affidabile.
Infine, Taleb raccomanda di testare con grande attenzione la “tossicità” dei modelli. I regolatori
finanziari dovrebbero proporre test severi ed i promotori dei modelli di probabilità dovrebbero
essere in grado di mostrare che dall‟accettazione dei loro modelli non risultano “danni” agli
operatori, anche se l‟evento che si verifica è raro65
.
65
Rimandiamo a “Ten principles for a black swan robust world”, apparso sul financial times dell‟8 aprile 2009 per
illustrare il pensiero di Taleb su questo tema.
256
IL LEVERAGE RATIO
In qualche misura, il Comitato di Basilea sembra aver riconosciuto la validità di quanto affermato
da Taleb nell‟audizione al Congresso americano. Infatti, già nel documento del dicembre 2009 e poi
nei comunicati di luglio e settembre 2010, ha proposto l‟introduzione di un indice di leva finanziaria
non basato sul rischio (non-risk-based leverage ratio). Già il Financial Stability Board nell‟aprile
del 2009, (Financial Stability Forum, Aprile 2009), come si ricorderà, aveva peraltro raccomandato:
“The Basel Committee should supplement the risk based capital requirement with the simple, non-
risk based measure to help contain the build up of leverage in the banking system and put a floor
under the Basel II framework”.
Alcuni dati e una breve cronistoria
All‟inizio della crisi la maggioranza delle grandi banche europee evidenziava un elevato grado di
leva finanziaria (Coletti, 2009).
Figura 4.1: Capital/Asset delle maggiori banche europee nel dicembre 2007
257
Banche come Deutsche Bank e UBS (entrambe con valori dell‟1,4%) e con minor rilievo Societè
Generale (2%) presentavano infatti a dicembre 2007 dei Capital/Asset ratio assolutamente esigui.
Per inquadrare il recente dibattito partiamo da un breve excursus “storico” comparato (Clark, 2009
(b)) sull‟utilizzo nel passato recente di indicatori di leva finanziaria. L‟idea di introdurre a fini
regolamentari un leverage ratio non è infatti nuova. Il leverage ratio è utilizzato ad esempio negli
Stati Uniti (a partire dai primi anni ‟80) ma i limiti sono contemplati solo per le holding bancarie e
per le banche commerciali. Tale disposizione è stata emanata congiuntamente dal Federal Reserve
Board, dalla Federal Deposit Insurance Corporation e dall‟Office of the Controller of the Currency.
Il ratio è calcolato dividendo il Tier 1 capital per il totale degli attivi “aggiustato” con l‟esclusione
delle esposizioni fuori bilancio. Un ratio minimo del 3% è applicato alle holding che siano
considerate dai regolatori relativamente solide, mentre per le istituzioni rimanenti è prevista una
soglia del 4%. In realtà ci si attende che le banche mantengano livelli di capitale superiori ai
minimi. A fine 2008 la maggioranza delle banche americane presentava indicatori piuttosto al di
sopra del minimo, riflettendo sia una politica consapevole per convincere gli investitori del loro
grado di solidità patrimoniale sia un allontanamento da certe attività che si erano sviluppate durante
la crisi (Clark, 2009). Ad esempio, al 30 novembre 2008, Morgan Stanley evidenziava un leverage
ratio del 6,6% mentre Goldman Sachs riportava alla stessa data un valore pari al 6,1%. Bank of
America, che ha acquistato Merryll Lynch nel gennaio 2009, presentava al 31 dicembre 2008 un
leverage del 6,44%. La disciplina americana presentava però alcuni aspetti di debolezza: il fatto che
le banche d‟investimento non fossero sottoposte a tali disposizioni ha fatto si che molte di esse
abbiano potuto accrescere enormemente il proprio leverage durante i primi anni del 2000. Inoltre, e
ciò è ancora più importante, tale indicatore non tiene conto delle esposizioni fuori bilancio, che
sono invece all‟origine dei problemi che le banche americane hanno dovuto fronteggiare nei primi
due anni della crisi. Un altro elemento da non sottovalutare è che le istituzioni finanziarie negli
USA utilizzano come sistema contabile gli USGAAP che consentono di riportare in bilancio,
relativamente ai derivati, le esposizioni nette: l‟ammontare degli attivi è dunque assai più basso di
quello che sarebbe se le banche dovessero utilizzare gli IFRS, che richiedono di mostrare in bilancio
i valori lordi. Questo ci fa capire sin da subito come debba essere effettuato, preliminarmente
all‟introduzione di una misura di leverage ratio valida per tutti i sistemi bancari, un importante
lavoro di standardizzazione nella definizione dei differenti trattamenti contabili delle poste di
bilancio (“items on and off balance sheet”).
258
Il Canada sta seguendo da alcuni anni un altro approccio. L‟Office of Superintendent of Financial
Institutions ha emanato delle disposizioni che vietano al totale dell‟attivo di superare 20 volte il
capitale o in casi eccezionali 23 volte (ciò è ammesso solo a seguito di specifica autorizzazione da
parte dell‟autorità di vigilanza). Il così detto multiplo “asset-to-capital” (ACM) è più ampio
dell‟indicatore americano ed è calcolato dividendo il totale dell‟attivo che ricomprende in questo
caso anche alcune esposizioni fuori bilancio come le garanzie, le lettere di credito ed i pronti contro
termine, per la somma di Tier 1 e Tier 2 capital. Secondo alcuni osservatori (Clark, 2009) è
probabile che l‟ACM abbia contribuito alla relativa solidità delle banche canadesi durante la crisi.
Queste ultime, al momento, seguono da un punto di vista contabile gli USGAAP ma dovrebbero
passare all‟IFRS nel 2011.
Passando all‟Europa, si può osservare che le banche svizzere hanno anticipato il Comitato di
Basilea avendo già annunciato nel 2009 l‟introduzione (a partire dal 2013) di un leverage ratio per
UBS e Credit Suisse . Usando la metodologia di calcolo in vigore negli USA, UBS presentava un
leverage ratio dell‟1.93% nel 2005 e dell‟1,69% nel 2006, quindi ben sotto il minimo del 3%
richiesto alle banche più solide americane. I regolatori svizzeri intenderebbero usare la formula del
Tier 1 capital diviso per il totale degli attivi, stabilendo un minimo del 3% a livello di gruppo ed un
4% a livello di singole istituzioni. Le proposte svizzere differiscono sia da quelle USA che da quelle
canadesi dal momento che escludono dagli asset le attività creditizie (circostanza che è ricollegabile
alle caratteristiche strutturali dei bilanci delle due banche, UBS e Credit Suisse, in cui gli impieghi
domestici rappresentano un‟esigua parte del totale delle attività).
259
LA RISPOSTA DI BASILEA
La crisi ha indotto il Comitato di Basilea a introdurre il leverage ratio come una misura
supplementare da affiancare al solvency ratio di Basilea II. Già nell‟ottobre del 2009 erano stati
chiariti gli obiettivi di tale indicatore (De Martino, 2009):
1. contenere il livello di indebitamento delle banche nelle fasi di espansione (attenuando i
possibili aspetti pro-ciclici);
2. supplire ad eventuali carenze o imperfezioni nei modelli interni, specie se applicati a
business più complessi.
Sin da subito il dibattito si è concentrato sui seguenti aspetti:
caratteristiche ideali della misura;
quali opzioni tecniche perseguire;
quali analisi di impatto effettuare al fine di pervenire ad una buona calibrazione dello
strumento.
Per quanto riguarda le caratteristiche ideali dell‟indicatore, si è cominciato a lavorare (De Martino,
2009) partendo da alcune ipotesi:
che fosse rappresentato da un rapporto minimo tra capitale e totale attivo;
che utilizzasse una definizione di capitale già usata per il ratio regolamentare;
che fossero inclusi gli attivi fuori bilancio;
che ove possibile fossero utilizzati dati contabili;
che non fossero invece considerate misure sensibili al rischio o che prendessero in
considerazione aspetti di risk mitigation;
che avesse lo stesso ambito di applicazione delle norme prudenziali (consolidato ed
individuale);
che fossero previsti obblighi di trasparenza nel Pillar 3.
Per quanto riguarda le opzioni tecniche, i principali argomenti di discussione sono stati:
260
quale fattore di conversione applicare alle poste fuori bilancio con la possibilità di
esclusione degli impegni cancellabili senza condizioni da parte delle banche;
riconoscimento o meno del “netting” tra depositi e prestiti laddove consentito dalle norme
contabili.
Fin dall‟inizio sono apparse di difficile soluzione questioni quali:
la dinamica del leverage ratio attraverso il ciclo;
quale calibrazione (quando e quanto vincolante);
integrazione virtuosa con Basilea II;
come armonizzare il trattamento di alcune poste contabili secondo gli USGAAP e gli IAS-
IFRS;
se far ricadere il leverage nell‟ambito della vigilanza di Pillar 1 o di Pillar 2:
o Pillar 1 determina un‟applicazione più trasparente, omogenea e stringente;
o Pillar 2 consente maggiore flessibilità per l‟azione dei supervisori.
È all‟interno di queste riflessioni e dibattiti che il Comitato di Basilea (26 luglio 2010) ha proposto
l‟introduzione di un requisito minimo di capitale (Tier 1) che le banche dovranno detenere rispetto
al totale dell‟attivo non ponderato per il rischio (leverage ratio). Alcuni punti sono stati avviati a
soluzione definitiva mentre altri saranno soggetti ad un‟attività di sperimentazione che verrà
effettuata nei prossimi anni.
Nella costruzione di questo indice il Comitato ha tenuto presente la necessità che esso non si presti
a facili arbitraggi regolamentari e catturi dunque tutte le attività di una banca (in bilancio e fuori
bilancio) e sia neutrale rispetto alle diverse regole contabili vigenti nelle principali giurisdizioni.
Infatti dichiarato che “l‟obiettivo è quello di sviluppare una misura semplice, trasparente e non
basata sul rischio, che sia calibrata in modo da fungere da supplemento credibile ai requisiti basati
sul rischio”, il Comitato chiarisce il trattamento delle voci fuori bilancio durante la fase di
sperimentazione:
per le voci fuori bilancio, saranno utilizzati fattori di conversione del credito uniformi;
per tutti gli strumenti derivati, saranno applicate le regole di compensazione previste da
Basilea e una misura semplice dell‟esposizione futura potenziale garantendo che tutti i
derivati siano convertiti in modo coerente in un‟ammontare “loan equivalent”.
261
Relativamente alla calibrazione, il Comitato propone di testare un indice di leva minima (Tier
1) del 3% durante il periodo di sperimentazione.
Anche per l‟indice di leva finanziaria è prevista un‟entrata in vigore graduale, per verificarne gli
effetti e poter introdurre i correttivi che dovessero risultare necessari. Esso dunque sarà
inizialmente un indicatore da tenere sotto osservazione, per divenire vera e propria regola
prudenziale a partire dal 2018.
262
5 - INTERVISTA CREDIT RISK
Il corso di questo capitolo è diviso in due parti. La prima (Background) offre elementi di
inquadramento e di analisi per capire il Credit Model Portfolio e le procedure di stress testing
creditizio attualmente in uso in Unicredito66
. La seconda riporta invece alcune valutazioni critiche
sugli stessi che sono emerse durante l‟intervista con i responsabili della validazione di Pillar II di
Unicredito.
BACKGROUND
IL SISTEMA IRB
Come si legge nel documento di Pillar III della banca, Banca d‟Italia ha autorizzato il Gruppo
Unicredit all‟utilizzo dei metodi avanzati per la determinazione del requisito patrimoniale sui rischi
di credito.
In una prima fase, dette metodologie sono state adottate dalla Capogruppo, da alcune controllate
italiane nonché da HypoVereinsbank (HVB AG) e da UniCredit Bank Austria (BA AG), mentre,
successivamente, ne è stata prevista l‟applicazione da parte delle altre società secondo un piano di
estensione progressiva approvato dal Gruppo e comunicato all‟Autorità di Vigilanza. Con specifico
riferimento al rischio di credito, il Gruppo è stato autorizzato ad utilizzare le stime interne dei
parametri PD e LGD per il portafoglio crediti di Gruppo (Stati Sovrani, Banche, Multinazionali e
transazioni di Global Project Finance) e per i portafogli creditizi locali delle banche italiane del
Gruppo (mid-corporate e retail). Relativamente ai suddetti portafogli, sono attualmente in uso i
parametri di EAD regolamentare. Per HVB e BA, invece, anche il parametro EAD deriva da
modelli locali interni autorizzati dall‟Autorità, così come le PD e le LGD.
In generale, il seguente schema riassuntivo presenta i sistemi di rating in uso nel Gruppo con
l‟indicazione delle Entità in cui sono utilizzati e delle asset class di riferimento.
66
Per fare questo abbiamo utilizzato sia fonti pubbliche che materiali ricevuti da personale di Unicredito ed elementi
emersi durante la nostra intervista.
263
Tavola 5.1: Sistemi di Rating in Unicredit
264
Lo sviluppo dei sistemi di rating avanzati e la loro introduzione nei processi aziendali ha
comportato, in base al nuovo impianto regolamentare, la necessità di istituire, sia presso la
Capogruppo che presso le società controllate, un processo di convalida dei sistemi di rating ed un
ampliamento delle attività richieste alla funzione di Internal Audit con riferimento alla revisione dei
sistemi stessi.
Il modello di portafoglio
Oltre alle metodologie riassunte nei sistemi di rating, la funzione Risk Management utilizza modelli
di portafoglio in grado di misurare il rischio di credito a livello aggregato e, nel contempo, di
identificare il contributo di singole porzioni di portafoglio o singole controparti alla posizione di
rischio complessiva.
I parametri di misurazione del rischio di credito a livello di portafoglio sono fondamentalmente tre,
calcolati e valutati su un orizzonte temporale di dodici mesi e su basi non attualizzate:
Expected Loss (EL);
Credit Value at Risk (Credit VaR);
Expected Shortfall (ES).
L‟ampiezza dell‟intervallo di confidenza per il calcolo del VaR è stato definito in Unicredito pari al
99,97% ed è stata quantificata tenendo conto degli obiettivi di rating che il gruppo intende
conseguire.
Il modello di portafoglio creditizio fornisce misure di capitale economico riallocato sulle singole
controparti componenti i differenti portafogli della banca e che sono alla base delle misure di
performance rettificate per il rischio.
265
Model background67
L‟obiettivo del Credit VaR Model in uso in Unicredito è di misurare il credit risk a livello di
portafoglio partendo dai parametri di rischio individuali (PD, LGD, EAD) stimati attraverso i
modelli IRB. Dal momento che i default dei singoli prenditori non sono indipendenti, un altro
parametro rilevante, utilizzato per determinare il rischio a livello di portafoglio, è la correlazione dei
default che consente di catturare i possibili benefici della diversificazione. Infine, sono esaminati i
contributi al rischio complessivo di sottoportafogli o di singoli prenditori, in particolare per tener
conto del rischio di concentrazione.
Una prima decisione che il team di sviluppo ha dovuto effettuare è stata se stimare le perdite
attraverso eventi di default (default mode model) o attraverso movimenti di up-downgrade (mark to
market model 68
). La decisione del team di sviluppo è stata quella di adottare l‟approccio default
mode soprattutto per la mancanza di sufficienti dati relativi a flussi di cassa e duration delle
differenti operazioni/prenditori, nonchè per la sua semplicità e familiarità.
L‟unico parametro di rischio stocastico adottato è la probabilità di default, mentre la LGD è un
input deterministico del modello.
Per quanto riguarda la scelta dell‟orizzonte temporale, Unicredito ha optato per un orizzonte di un
anno, dal momento che si è rivelata la soluzione più semplice, avendo a disposizioni PD che
normalmente sono calcolate su un anno.
Specificazione del modello
Il modello di portafoglio è finalizzato alla misurazione della perdita inattesa in funzione della
potenziale evoluzione dei fattori macroeconomici. È stato quindi necessario specificare la forma
funzionale con cui modellizzare la relazione tra la variabilità dei fattori macroeconomici e la
variabilità delle probabilità di default delle controparti di portafoglio.
67
La discussione con i rappresentanti di Unicredito ci ha consentito di focalizzare e capire l‟applicazione di alcuni
concetti che avevamo introdotto nella prima parte della tesi (default correlation, modelli di Merton, default mode model,
etc.). 68
I modelli default mode considerano solo due stati possibili: insolvenza o sopravvivenza; le perdite si verificano solo
in caso di insolvenza. Al contrario, i modelli multistato considerano anche la possibilità di migrazioni verso una diversa
classe di rating. Dunque anche il semplice downgrading comporta una diminuzione del valore di mercato del credito, e
dunque una perdita.
266
Il default è stato modellizzato usando il framework classico di Merton in cui, come sappiamo,
un‟azienda fallisce quando il valore dei suoi asset scende al di sotto di un livello necessario a pagare
il suo debito.
Figura 5.1: Modellizzazione della probabilità di default
Un fattore normale standard y è associato a ciascun obbligato. Nel contesto dell‟approccio di
Merton esso può essere visto come il rendimento standardizzato di un asset. L‟obbligato fallisce
quando questo fattore supera una determinata soglia, calibrata in modo tale che la probabilità di tale
evento sia pari alla PD in input dell‟obbligato stesso.
La correlazione tra le insolvenze può in genere essere modellizzata in vari modi69
: non esistono
infatti misure generalmente accettate per la stima della default correlation. Nel modello del
portafoglio crediti di Unicredito viene utilizzata una specificazione gaussiana. In particolare, la
correlazione tra i fattori yi viene specificata tramite il modello fattoriale:
69
Per correlazione tra le insolvenze (default correlation) si intende la tendenza di due società a fallire più o meno
contemporaneamente.
267
dove xk indica fattori (macroeconomici) normalmente distribuiti standardizzati e εi è un fattore
idiosincratico normalmente distribuito standardizzato indipendente da xk. La correlazione tra le
insolvenze degli obbligati viene modellizzata rappresentando le rispettive PD singole come una
funzione dei fattori macroeconomici comuni. Ai fini del processo di gestione del rischio il Credit
VaR calcolato per l‟intero portafoglio deve essere scomposto in sottoportafogli relativi, ad esempio,
a entità, divisioni, settori, prodotti o regioni oppure addirittura agli obbligati e alle transazioni
individuali. Tale scomposizione viene effettuata sulla base del contributo dell‟obbligato o del
sottoportafoglio al VaR di portafoglio. Il VaR di un obbligato o di una transazione dipende pertanto,
generalmente, dalla struttura dell‟intero portafoglio.
Struttura di correlazioni del modello di portafoglio crediti
Come sopra menzionato l‟approccio per la modellizzazione delle correlazioni assume che la
correlazione tra le attività derivi soltanto dalla dipendenza da una serie di fattori di rischio comuni.
Tale insieme di fattori è inteso a rappresentare uno stato particolare dell‟economia ed è solitamente
descritto da una gamma di fattori macroeconomici che comprendono sia fattori reali che
finanziari70
.
Fattori di rischio
L‟elenco dei fattori di rischio inclusi nel modello comprende:
1. fattori globali, ad esempio il prezzo del petrolio, l‟indice S&P500, etc.;
2. un elenco di fattori nazionali specifici, ad esempio il PIL, il tasso di interesse nominale,
l‟indice dei corsi azionari, etc. Tali fattori sono definiti per determinate aree/Paesi (Italia,
Germania, Polonia, Stati Uniti, etc.);
70 Sia detto qui di sfuggita che la default correlation di cui parlavamo pocanzi è un fenomeno più complesso rispetto
alla correlazione tra variabili casuali.
268
Gvar model
Per modellizzare la relazione dinamica tra le variabili macroeconomiche relative ai diversi
Paesi/aree si utilizza un modello autoregressivo vettoriale globale. Tale modello è costituito da un
sistema di equazioni lineari, ognuna delle quali modellizza l‟evoluzione di un singolo fattore
economico in un Paese o in un‟area specifica. Il modello GvaR è utilizzato per derivare le stime
delle correlazioni tra i fattori macroeconomici.
Definizione dei cluster
La seconda fase della modellizzazione delle correlazioni tra le attività del portafoglio prevede
l‟identificazione di cluster di esposizioni omogenee, in termini di dipendenza da fattori
macroeconomici. I criteri utilizzati a tal fine sono:
Paese/area;
classi di attività (soggetti sovrani, banche, imprese, clienti al dettaglio, ipoteche, etc.);
settore;
regione.
Ad esempio, un cluster potrebbe essere quello delle piccole imprese italiane nel nord-est.
Struttura parametrica del modello di portafoglio
Il modello di portafoglio presenta la seguente forma generale:
dove:
Zj è la distanza dall‟insolvenza del cluster j;
βjk indica il coefficiente di sensitività della distanza dall‟insolvenza nel cluster j rispetto al
fattore k;
269
denominando B la matrice beta e Σ la matrice di correlazione dei fattori economici, la
matrice di correlazione delle variabili zj è BΣB‟;
εi e ηj sono fattori normali standardizzati idiosincratici indipendenti tra loro e dagli altri;
yi è la distanza dall‟insolvenza della controparte i appartenente al cluster c(i);
αi è la radice quadrata della correlazione tra tutte le controparti i appartenenti allo stesso
cluster c(i) (correlazione intracluster). D‟altra parte, assumendo per yi e zi una distribuzione
normale standardizzata, αi rappresenta anche la correlazione tra la controparte i e il cluster
c(i) a cui appartiene.
Figura 5.2: La struttura del CPM
La metodologia utilizzata dal modello di portafoglio e la sua funzionalità sono descritte in
appendice.
270
Dettagli di simulazione
Il modello per il calcolo del VaR simula le perdite di portafoglio generando un numero predefinito
di scenari relativi a fattori macroeconomici. Per ciascuno scenario le perdite vengono generate in tre
modi possibili:
1. singolo nominativo: per le maggiori controparti in termini di perdita (EAD*LGD) si ricava
l‟insolvenza all‟interno di ogni scenario;
2. Monte Carlo: per le altre controparti la generazione delle perdite viene effettuata a livello di
cluster; pertanto per ogni scenario si calcola il numero di insolvenze relative ad un cluster e
la relativa perdita;
3. approssimazione large pool: questo approccio viene applicato alle categorie di clienti al
dettaglio o alle piccole imprese con esposizioni di entità modesta.
Stress testing
Le misure di capitale economico (Credit VaR) sono un input fondamentale per la predisposizione e
applicazione delle strategie creditizie, per l‟analisi dei limiti creditizi e di concentrazione dei rischi.
Il motore di calcolo del capitale economico viene altresì utilizzato per analisi di stress testing sul
portafoglio creditizio.
Come abbiamo visto nell‟ambito del secondo Pilastro, il processo di valutazione dell‟adeguatezza
del capitale (ICAAP) dispone che i soggetti coinvolti oltre che rispettare i requisiti patrimoniali a
fronte dei rischi inclusi nel primo Pilastro, debbano disporre di strategie e processi per valutare e
detenere nel tempo il capitale adeguato, per importo e composizione, alla copertura di tutti i rischi a
cui essi sono esposti. Tra le strategie che si devono applicare ai fini ICAAP rientrano anche le
attività di stress testing.
Come sappiamo, lo stress test è una metodologia di risk management utilizzata in ambito creditizio
per misurare la potenziale vulnerabilità ad eventi eccezionali ma plausibili71
, in modo da consentire
al top management di comprendere la relazione tra i rischi assunti ed il risk appetite.
71
CEBS, dicembre 2006.
271
Figura 5.3: I pregi dello stress test
L‟utilizzo dei modelli di stress appare particolarmente idoneo a mitigare gli effetti di pro-ciclicità ai
quali il capitale regolamentare potrebbe essere soggetto. Il fenomeno della pro-ciclicità può essere
mitigato attraverso l‟individuazione di un buffer di capitale che le banche dovrebbero detenere
durante la fase positiva del ciclo economico al fine di mitigare l‟adozione di politiche restrittive sul
credito durante la fase di inversione del ciclo.
La stima della disponibilità di un buffer di capitale è possibile, come vedremo, attraverso lo stress
test. Tale esercizio comporta infatti la stima della misura di rischio (PD) condizionata al verificarsi
di determinati scenari ritenuti peggiorativi rispetto alla situazione macroeconomica corrente; tali
misure condizionate si ripercuotono in termini di maggiore perdita attesa.
Nel caso di Unicredito la maggiore perdita attesa, condizionata al verificarsi degli scenari di stress a
cui sono associate determinate probabilità di realizzo (corrispondenti alla probabilità che il worst
scenario si verifichi) viene poi confrontata con le misure di rischio baseline: . Il confronto
consente di verificare quanto il gruppo sia in grado di far fronte a tali scenari avversi data una certa
struttura patrimoniale.
272
Metodologia di stress test
Il modello VaR è utilizzato per l‟implementazione degli stress test dal momento che permette di
introdurre degli shock sulle probabilità di default attraverso la simulazione di shock sui fattori
macroeconomici: nell‟ipotesi di invarianza della matrice di correlazione dei fattori macroeconomici
è possibile valutare l‟impatto sulle PD attraverso l‟utilizzo di parametri riferiti a fattori
macroeconomici diversi da quelli medi di lungo periodo implementati nel modello.
Figura 5.4: Il funzionamento del modello per il calcolo dei Risk Weighted Asset
Il modello utilizzato genera delle perdite correlate permettendo la variazione sincrona delle variabili
macroeconomiche su un orizzonte temporale di un anno. La distribuzione di tali variabili è
ipotizzata normale. Gli stress test vengono effettuati attraverso un movimento dei parametri della
distribuzione di tali variabili. Bisogna però tener conto che modificare l‟intera distribuzione
(modificando per esempio la media) può aumentare troppo gli eventi estremi nelle code; per questo
motivo i cambiamenti sono applicati ad una normale troncata.
Validazione
Anche il modello interno di Credit VaR è oggetto di valutazione nell‟ambito della validazione del
secondo pilastro. In particolare l‟obiettivo dell‟unità di validazione è quello di verificare la
“robustezza” del modello di portafoglio con particolare riguardo agli effetti di concentrazione e alle
correlazioni. Relativamente allo stress test si intende verificare quanto tale metodologia sia in grado
di cogliere l‟effettivo ammontare delle perdite in caso di scenari avversi. La metodologia della
validazione ha privilegiato le analisi sul modello, verificando l‟affidabilità delle ipotesi di base, la
273
robustezza dei parametri e la complessiva consistenza, tenendo conto non solo delle best practice di
riferimento ma anche delle metodologie richieste dalle autorità di vigilanza (principi di Banca
d‟Italia sul Pillar II). Una particolare attenzione è rivolta a verificare l‟utilizzo degli output del
modello a fini di impostazione delle politiche e strategie creditizie.
Qualità del credito nel sistema bancario italiano durante la crisi
Il team di validazione si è trovato a svolgere un lavoro particolarmente delicato anche a causa delle
recenti difficoltà dell‟economia che si sono trasferite al sistema bancario attraverso più elevati
livelli di sofferenze. Per meglio comprendere le analisi delle pagine seguenti, ci sembra importante
chiarire alcuni dati e trend recenti sulla qualità del credito (che limitiamo all‟Italia). A tal fine
abbiamo utilizzato quanto riportato recentemente nel primo numero del Financial Stability
Report72
.
Dal documento si evince come il sistema bancario italiano abbia sperimentato nell‟ultimo
quinquennio un evidente peggioramento della qualità del credito. Il grafico sotto riportato (tratto dal
citato Financial Stability Report) evidenzia come la quota dei prestiti verso imprese in difficoltà
(incagli e crediti ristrutturati) è più che raddoppiata nel periodo 2009-2010.
72
Rapporto sulla stabilità finanziaria n.1, 6 dicembre 2010.
274
Figura 5.5: Quota dei prestiti alle imprese in temporanea difficoltà
Il tasso di ingresso in sofferenza ha mostrato anch‟esso una crescita esponenziale nel periodo 2009-
2010 (cfr. Financial Stability Report).
Figura 5.6: Tasso di ingresso in sofferenza
275
In Unicredito, il processo evidenziato (a cui sono da aggiungere andamenti analoghi registrati in
Germania, Austria e altri Paesi dell‟Europa Centrale) ha determinato un‟impressionante crescita nel
volume degli accantonamenti (rettifiche nette su crediti) che sono passate dai 2,2 miliardi di euro
del 2006 agli 8,3 miliardi di euro del 2009 (Unicredit, 2009).
2006** 2007*** 2008**** 2009
Margine di intermediazione 23464 25983 26877 27572
Costi operativi -13258 -14086 -16692 -15324
Risultato di gestione 10206 11807 10185 12248
Rettifiche nette su crediti e
su accantonamenti per
garanzie e impegni -2233 -2152 -3700 -8313
Utile (perdita) dell'esercizio 6128 6618 4831 2291
Tavola 5.2: Accantonamenti di Unicredit
** Ampliamento del
Gruppo HVB con
l'ingresso di circa 70
società e altre
variazioni minori
*** Acquisizione del
Gruppo Capitalia in
Unicredit con efficacia
1 ottobre 2007
**** Ingresso del
Gruppo Ukrsotsbank e
uscita di BPH
I dati degli accantonamenti riportati nel bilancio di Unicredito possono essere usati come un
backtesting del modello di portafoglio in uso presso la banca. In altri termini, può essere
interessante comparare con i risultati effettivi, ad esempio quelli al tempo t+1 ,quelli previsti dal
modello e dagli stress test al tempo t.
276
VALUTAZIONE DELLE CRITICITA’
Riportiamo di seguito gli aspetti e le criticità maggiormente approfondite durante l‟intervista.
Considerazioni iniziali
I nostri interlocutori hanno chiarito che il modello CPM estende e amplifica il framework che sta
dietro le formule per il calcolo dei requisiti patrimoniali nell‟approccio IRB: rispetto al framework
regolamentare, riesce infatti ad esplicitare gli effetti della concentrazione e migliora la struttura
delle correlazioni delle formule regolamentari. I nostri interlocutori ci hanno segnalato come sicuri
punti di forza del modello i seguenti:
formulazione a la Merton: quest‟ultima è ormai uno standard di mercato comunemente
utilizzato nel settore bancario;
legame tra PD e fattori macroeconomici: in questo modo il CPM di Unicredito appare
utilizzabile per gli obiettivi di stress test;
adozione di un modello default mode rispetto a quello delle migrazioni: è una scelta
appropriata dal momento che il portafoglio di gruppo è composto da operazioni con un
orizzonte di riferimento medio-lungo.
Stabilità del modello - non pro-ciclicità delle stime del capitale
La particolare formulazione adottata da Unicredito assicura – aspetto veramente importante – la
consistenza tra un‟approccio di unconditional PD (a livello di input del modello) e un‟approccio di
conditional PD (per quanto riguarda gli output del modello) tenendo altresì conto delle correlazioni
tra i settori73
.
73 In relazione all‟evoluzione del ciclo creditizio possono normalmente essere adottate due metodologie per il calcolo
dell‟economic capital:
277
L‟approccio in uso consente, a detta dei nostri interlocutori, di spiegare il gap tra l‟affidabilità
creditizia in uno specifico anno di alcune controparti/segmenti e l‟affidabilità media valida per un
intero ciclo economico, con i corrispondenti gap dovuti ai fattori macroeconomici che sono
comunque calcolati avendo in mente la media di lungo periodo. In generale un‟approccio
conditional produce misure di capitale economico più accurate per l‟anno entrante e risulta quindi
maggiormente utilizzabile per il pricing e per le attività di stress testing. La scelta fortemente
appoggiata dal team di validazione di adottare un‟approccio unconditional per calcolare il capitale
economico appare in linea con quanto la migliore ricerca e con quanto la vigilanza in ambito di
Basilea III va sostenendo. Una misura del capitale economico unconditional può essere utilizzata
per la costituzione di buffer di lungo periodo che consentono di proteggere la banca dalle perdite, e
risulta pertanto utile per la stabilità del gruppo nel lungo periodo. Evidentemente ci troviamo di
fronte ad un trade-off tra la ricerca di stime adeguate per gli obiettivi di stress testing (e quindi
sufficientemente reattive) e la ricerca di stime stabili, utili per la costituzione di buffer. Ma su
questo ritorneremo più avanti.
Stabilità del modello - i parametri di input
Qui ci soffermiamo invece su alcuni aspetti di input, come la considerazione di PD TTC o PIT che,
come abbiamo visto nel dibattito regolamentare, sono molto importanti per la pro-ciclicità del
modello.
Unicredito utilizza, coerentemente con il framework di Basilea II, nel calcolo della PD per i diversi
segmenti, dei modelli basati normalmente su un approccio through-the-cycle. L‟utilizzo di queste
PD a livello di modello di portafoglio, limita nella stima del capitale economico sicuramente gli
effetti di pro-ciclicità, ovvero la dipendenza dal ciclo del credito. Il capitale economico a fronte del
rischio di credito è quindi calcolato basandosi sull‟ipotesi che la PD di una singola esposizione,
condizionata ad uno specifico scenario macroeconomico, sia una funzione della PD non
condizionata della stessa. La PD non condizionata è per ipotesi uguale alla PD misurata dal sistema
di rating della banca.
un conditional approach, che consiste nella stima delle misure di rischio condizionate al presente stato
dell‟economia;
un unconditional approach, che consiste nella stima delle misure di rischio che tengono conto dell‟equilibrio di
lungo periodo delle variabili creditizie.
278
Benchè Unicredito adotti come policy per la misura della PD l‟aproccio TTC, la banca non esclude
l‟utilizzo di stime point in time a livello manageriale (ad esempio per il pricing). I nostri
interlocutori ci hanno riferito che per valutare la “TTC-ness” del modello di portafoglio è stata
condotta un‟analisi per chiarire l‟utilizzo dei due differenti approcci per misurare le PD delle
diverse esposizioni.
I risultati dell‟indagine sono rappresentati di seguito.
TTC-ness of Unicredit Group Portfolio
0%
50%
100%
10% 20% 30% 40% 50% 60% 70%
Cumulative Percentage of Exposure
PIT
TTC
UCCB
Corporate
UCB AG
Corporate
UCB SPA
Mortgages
Country
Sovereign
BanksSecurities
Industry
BA
Corporate
UCB SPA
Small
Business
UCB AG Private
Individuals
Exposure
Mean weighted by
Exposure 60%
Figura 5.7: Concentrazione dei sistemi di rating tra approcci PIT E TTC
Dalla figura 5.7 si vede che i sistemi di rating interni più importanti si concentrano nella zona
intermedia tra un approccio Point in Time e Through the Cycle.
279
Credit risk capital nel Pillar I e nel Pillar II
Con i nostri interlocutori abbiamo approfondito le differenze tra il modello di Unicredito e quello
regolamentare. Da un punto di vista metodologico le formule regolamentari sono ottenute sulla base
del presupposto dell‟esistenza:
di un fattore sistemico z unico;
di un‟ipotesi di portafoglio infinitamente granulare.
Seguendo questa ipotesi di granularità, il rischio di concentrazione parrebbe trascurabile dal
momento che il portafoglio è completamente diversificabile. A parte differenze minori (ad esempio
Basilea assume un livello di confidenza pari al 99,9% mentre il modello di Unicredito ne utilizza
uno del 99,97%, la maturity è calcolata diversamente nelle due impostazioni, il fattore di
aggiustamento dell‟1,06 per il calcolo dei risk weighted asset non è utilizzato da Unicredito), le
principali differenze metodologiche sono le seguenti:
modello multifattoriale contro modello unifattoriale: il CPM di Unicredito contiene un
modello multifattoriale delle correlazioni che consente di riprodurre gli effetti della
concentrazione settoriale. Questo penalizza situazioni in cui alcuni settori industriali o
segmenti retail hanno quote di mercato dominanti e favorisce invece situazioni in cui il
portafoglio è ben distribuito tra Paesi, settori, segmenti. Le formule di Basilea sono calibrate
invece su correlazioni che sono omogenee all‟interno delle diverse asset class e sono
assegnate su livelli medi che corrispondono a situazioni in cui le posizioni sono ben
diversificate;
correlazione: il fattore di correlazione gioca un ruolo assai rilevante nel modello di
Unicredito. Le correlazioni di Basilea sono state generalmente impostate su un livello
conservativo, al fine di compensare le diverse fonti di rischio non esplicitamente considerate
nel contesto.
Concentrazione: il CPM è progettato in modo da quantificare il rischio derivante dalla
detenzione di una quota rilevante di portafoglio assegnata a una singola controparte o un
singolo gruppo societario. Più in dettaglio questo rischio è legato sia al numero di
controparti che all'eterogeneità delle dimensioni delle esposizioni. Di conseguenza la
concentrazione può essere generalmente ridotta aumentando il numero di controparti e/o
280
riducendo le dimensioni delle esposizioni. Le formule di Basilea, come abbiamo detto, sono
invece derivate nell'ipotesi di un portafoglio infinitamente granulare.
Generalmente, il capitale economico calcolato con il modello interno è risultato fin qui minore di
quello regolamentare. La conclusione del team è che il modello interno consente di catturare al
meglio i benefici di diversificazione che il gruppo ha, essendo di fatto articolato in diversi paesi ed
in molteplici asset class.
Legame tra probabilità di default e loss given default
Dovendo considerare le correlazioni positive tra LGD e PD ed essendo in presenza di una scarsità di
dati, il team di sviluppo ha deciso di tener conto della dipendenza tra LGD e PD utilizzando la stima
interna della LGD di downturn per l‟utilizzo nel CPM.
L‟approccio utilizzato nel CPM considera la LGD deterministica e costante mentre soluzioni
alternative, ampiamente documentate in letteratura74
, includono l‟uso della LGD stocastica. In tal
modo potrebbero essere riprodotti i ben noti effetti di correlazione tra LGD e PD. Questo può essere
visto come un aspetto da migliorare; in particolare alcune soluzioni potrebbero essere testate, come
quella di modellizzare le relazioni tra la LGD ed alcuni fattori macroeconomici.
Stress test
Gli stress test sul credito sono implementati in Unicredito da una specifica unità operativa. I risultati
degli stress test sul portafoglio creditizio del gruppo fanno parte di un report trimestrale che fornisce
per ogni scenario le seguenti informazioni:
La tipologia;
la descrizione;
la probabilità;
l‟impatto sulle perdite attese (confrontate con lo scenario base);
l‟analisi della migrazione tra le diverse classi di rating del portafoglio.
74
Vedi Resti-Sironi.
281
Dal momento che i risultati degli esercizi di stress test delle singole banche sono normalmente
altamente confidenziali, per dare un‟idea del tipo di output ottenibile facciamo riferimento a quanto
pubblicato sul sito internet della Banca d‟Italia nel mese di luglio 2010.
Come è noto, nella prima metà del 2010 le autorità di vigilanza nazionali degli stati membri
dell‟Unione Europea avevano condotto, con la collaborazione della Banca Centrale Europea, un
esercizio di stress test sul sistema bancario dell‟Unione. L‟obiettivo dell‟iniziativa era quello di
valutare la solidità del sistema bancario europeo e la capacità delle banche di assorbire eventuali
shock sui rischi di credito e di mercato, inclusi quelli derivanti da un aumento del rischio sovrano
dell‟Unione Europea. Lo stress test, condotto a livello consolidato, ha riguardato complessivamente
91 gruppi bancari di 20 Stati membri, tra cui cinque italiani: UniCredit, Intesa Sanpaolo, Monte dei
Paschi di Siena, Banco Popolare e UBI Banca (che rappresentano oltre il 60 per cento del totale
attivo del mercato bancario italiano). Per ciascuno dei gruppi italiani la Banca d‟Italia ha pubblicato
i risultati dello stress test e alcune informazioni sulle loro esposizioni nei confronti delle
amministrazioni pubbliche europee. L‟esercizio prevedeva uno scenario di riferimento (benchmark)
e uno avverso, che includeva anche un aumento del rischio sovrano per i paesi dell‟Unione.
Maggiori informazioni sugli scenari e sulle metodologie adottate per la conduzione dello stress test
sono disponibili sul sito web del CEBS75
.
La situazione effettiva di Unicredito evidenziava al 31 dicembre 2009 un tasso di perdita annuo
sulle esposizioni verso imprese non finanziarie pari all‟1,49%76
ed un tasso di perdita annuo sulle
esposizioni al dettaglio pari all‟1,20%77
. Il tasso di perdita cumulato su due anni (2010 e 2011) sulle
esposizioni verso imprese non finanziarie post scenario avverso risulta pari al 3,36% mentre quello
per le imprese in default è del 3,21%. Detti parametri sono stati calcolati con l‟ausilio del modello
di portafoglio che abbiamo descritto nelle pagine precedenti. Il coefficiente relativo al patrimonio di
base (Tier 1 ratio) post scenario avverso (che considera anche le variazioni avvenute relativamente
al rischio di mercato) risulta pari all‟8,1% e quindi superiore alla soglia del 6% stabilita dalle
autorità come riferimento per valutare la necessità di eventuali interventi di ricapitalizzazione.
Trascuriamo un esame puntuale dell‟esercizio poichè il nostro obiettivo era di dare un‟idea di quali
siano i risultati e gli obiettivi degli esercizi di stress test.
75
http://stress-test.c-ebs.org/results.htm. 76
Accantonamenti e rettifiche in percentuale delle esposizioni verso imprese e al dettaglio nei portafogli contabili
crediti (loans and receivables), attività detenute fino a scadenza (HTM, Held To Maturity), attività disponibili per la
vendita (AFS, Available For Sale). 77
Per elementi più precisi rinviamo allo schema per la pubblicazione dei risultati dello stress test europeo.
282
I nostri interlocutori hanno chiarito l‟esistenza di un trade-off tra stabilità e reattività dei modelli
sottostanti l‟attività di stress test. L‟approccio unconditional attualmente in uso in Unicredito se,
come visto, presenta un innegabile aspetto positivo dal punto di vista della stabilità, potrebbe essere
migliorato per quanto riguarda le attività di stress test. A tal fine potrebbe essere sviluppata una
specifica versione “conditional” del CPM da utilizzare per obiettivi di stress test.
283
APPENDICE
Specificazione del modello
Si ipotizza che la correlazione dei default dei prenditori è modellizzata rendendo i fattori y correlati.
La distribuzione congiunta dei fattori y è una normale multivariata.
L‟indice di solvibilità (y) è scomposto in due componenti:
una componente sistematica (zkt) con media 0 e varianza unitaria, specifica di un
determinato cluster k, a cui appartiene la controparte i-esima, moltiplicata per un parametro
αi relativo allo specifico debitore;
una componente idiosincratica di errore εit con media 0 e varianza unitaria relativa allo
specifico debitore, moltiplicata per uno standard error proporzionale al complemento ad 1
del quadrato del parametro αi. Quest‟ultima condizione garantisce che la deviazione
standard dell‟indice di solvibilità yit sia pari ad 1.
La componente sistematica di tale relazione viene modellizzata attraverso un modello fattoriale, che
si compone di:
una combinazione lineare di fattori macroeconomici X, a media 0 e varianza 1 con un
vettore βk di factor loading specifici per il cluster k-esimo;
una componente di errore ηkt relativa allo specifico cluster, che rappresenta l‟errore di
previsione della componente sistematica con il modello stimato, moltiplicata per uno
standard error coerente con gli altri parametri del modello e con il requisito di varianza
unitaria per la variabile zk.
Σ è il parametro che definisce la copula, ovvero la matrice di correlazione lineare (o coefficiente di
Pearson) rispetto ai fattori di rischio X.
284
Si assume che tutte le variabili del modello siano distribuite secondo una normale standard, con
l‟ipotesi ulteriore che tutti i fattori macroeconomici X si distribuiscano secondo una distribuzione
normale con media 0, varianza unitaria ed una determinata matrice di correlazione, stimabile
attraverso le correlazioni empiriche o secondo un approccio macroeconomico. Pertanto:
In linea con il modello seguito (unconditional approach), secondo il quale la deviazione standard
delle perdite non cambia significativamente durante il ciclo, la PD utilizzata per derivare la soglia K
è stimata con la metodologia Through the Cycle.
Test sui fattori macroeconomici
Come abbiamo visto i macrofattori economici sono una parte essenziale del modello. Le variabili
indipendenti (macrofattori economici) risultano non stazionarie. Esse sono state normalizzate ma
senza (inizialmente) verificarne l‟effettiva distribuzione (il modello adottato da Unicredito ipotizza
un comportamento normale sia delle variabili dipendenti che di quelle indipendenti). Per questo
motivo è stato successivamente applicato il test Lilliefors78
per determinare se poter accettare o
meno l‟assunzione di normalità. Da questo test si nota come alcuni regressori utilizzati per il
modello non rispettino l‟assunzione di normalità, inficiando in parte la robustezza del modello
(figura seguente79
).
78
Il test Lilliefors è un test utilizzato quando non si conosce nulla della distribuzione dei dati presi in esame. Esso, nel
caso di Unicredito, può rifiutare l‟ipotesi di normalità con un livello di significatività del 5%. 79
Con H=1 si intende la non accettazione dell‟ipotesi di normalità della distribuzione. I dati della colonna KS fanno
riferimento al test Kolmogorov-Smirnov, a cui sono accostati i P-value.
285
Lillie Test (5% confidence level)
Variable H P-value KS
Italy-GDP 0 50% 0.12
Italy-CPI 1 3% 0.19
Italy-Stock Index 0 50% 0.12
Italy-EXC Local/USD 0 19% 0.15
Italy-OIL 0 37% 0.13
Italy-WAGE 1 0% 0.29
Italy-HOUSE PRICE 1 1% 0.20
Italy-3 months interbank (difference) 0 50% 0.12
Italy-10 Y gov bond (difference) 0 50% 0.11
Italy-UNEMPLOYM (difference) 0 50% 0.10
Italy-10 Y gov bond (level) 1 0% 0.25
Italy-3 months interbank (level) 1 5% 0.18
Italy-UNEMPLOYM (level) 0 39% 0.13
Italy-Real Interest Rate based on 3 months IR 0 46% 0.12
Italy-Real Interest Rate based on 3 months IR (difference) 1 4% 0.18
Italy FB Delta Defaults (dependent variable) 1 5% 0.18
Tavola 5.3: Test Kolmogorov-Smirnov
Utilizzare variabili non distribuite normalmente come regressori viola una dei quattro principi che
giustificano l‟utilizzo di modelli di regressione lineare come predittori80
, in particolare quello della
normalità della distribuzione dell‟errore. Questa violazione compromette l‟accuratezza delle stime
dei coefficienti e degli intervalli di confidenza. A volte la distribuzione degli errori risulta
“schiacciata” per la presenza di pochi ma significativi outlier. Poichè la stima dei parametri si basa
80
I quattro principi sono:
Linearità della relazione tra le variabili dipendenti e quelle indipendenti;
Indipendenza degli errori (nessuna correlazione delle serie);
Omoschedasticità (varianza costante) degli errori (rispetto al tempo);
Normalità della distribuzione dell‟errore.
286
sulla minimizzazione dell‟errore quadratico, alcune osservazioni estreme possono avere un effetto
importante (negativo). Inoltre, poichè il calcolo degli intervalli di confidenza è basato sull‟ipotesi di
normalità, qualora le variabili siano distribuite non normalmente, gli intervalli potrebbero rivelarsi
errati.
Riportiamo di seguito alcuni grafici relativi alla distribuzione di alcune delle variabili che non
hanno passato il test.
Italy-WAGE
-3
-2
-1
0
1
2
3
-3 -2 -1 0 1 2 3
Empirical
Theoretical
0%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
-3.0 -2.0 -1.0 0.0 1.0 2.0 3.0
Cu
mu
lati
ve
Fre
qu
ency
Dis
trib
uti
on
Italy-10 Y gov bond (level)
-3
-2
-1
0
1
2
3
-3 -2 -1 0 1 2 3
Empirical
Theoretical
0%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
-3.0 -2.0 -1.0 0.0 1.0 2.0 3.0
Cu
mu
lati
ve
Fre
qu
ency
Dis
trib
uti
on
Italy-CPI
-3
-2
-1
0
1
2
3
-3 -2 -1 0 1 2 3
Empirical
Theoretical
0%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
-3.0 -2.0 -1.0 0.0 1.0 2.0 3.0
Cu
mu
lati
ve
Fre
qu
ency
Dis
trib
uti
on
Italy-HOUSE PRICE
-3
-2
-1
0
1
2
3
-3 -2 -1 0 1 2 3
Empirical
Theoretical
0%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
-3.0 -2.0 -1.0 0.0 1.0 2.0 3.0
Cu
mu
lati
ve
Fre
qu
ency
Dis
trib
uti
on
Grafico 5.1: Variabili che non presentano una distribuzione normale
287
BIBLIOGRAFIA
Acharya, Viral V., Irvind, Gujral e Shin, Hyun Song. 2009. Dividends and Bank Capital in the Financial
Crisis of 2007-2009. New York : SSRN, 2009.
Alexander, Carol. 2008. Quantitative Methods in Finance. Chichester : John Wiley & Sons Ltd, 2008.
Altman, Edward, Resti, Andrea e Sironi, Andrea. 2004. Deafult Recovery Rates in Credit Risk
Modelling. Economic Notes. 2004, Vol. 33, 2.
Angelini, Paolo, et al. 2010. Pro-cyclicality of capital regulation: is it a problem? How to fix it? Roma :
Banca d'Italia, 2010.
Artzner, Philippe, et al. 1999. Coherent Measures of Risk. Mathematical Finance. 1999, Vol. 9, 3.
Associazione Bancaria Italiana. Aprile 2010. ABI Comments on consultative documents issued by Basel
Committee on Banking Supervision "Strenghtening the resilience of the banking sector" and "International
framework for liquidity risk measurement, standards and monitoring". Roma : ABI, Aprile 2010.
Banca d'Italia. 1990. Istruzioni per la compilazione delle segnalazioni di vigilanza su base consolidata
(Circ. n. 115 del 7 agosto 1990 e successivi aggiornamenti). Roma : Banca d'Italia, 1990.
—. 2008. Matrice dei conti (Circ. n. 272 del 30 luglio 2008 e successivi aggiornamenti). Roma : Banca
d'Italia, 2008.
—. Circolare n. 263 del 27 Dicembre 2006. Nuove disposizioni di vigilanza per le banche,. Roma : Banca
d'Italia, Circolare n. 263 del 27 Dicembre 2006.
Banco de Espana. 2005. Financial Stability Report. Madrid : Banco de Espana, 2005.
Bank of International Settlements. 2009. 79th Annual Report. Basilea : Bank of International Settlements,
2009.
Banks, Eric. 2010. Dictionary of Finance, investment and banks. Londra : Palgrave Macmillan, 2010.
—. 2006. Synthetic and structured assets. Chichester : Wilfy Finance, 2006.
Basel Committee of Banking Supervision. 2006. Supervisory Framework for the Use of Backtesting in
Conjunction with the Internal Models Approach to Market Risk Capital Requirements . Basilea : BIS, 2006.
Basel Committee on Banking Supervision. 1996. Amendment to the Capital Accord to Incorporate Market
Risks. Basilea : BIS, 1996.
—. Ottobre 2009. Analysis of the Trading Book Quantitative Impact Study. Basilea : BIS, Ottobre 2009.
—. Luglio 2010. Annex - The Group of governors and Heads of supervision reach broad agreement on
Basel Committee capital and liquidity reform package. Basilea : Bank for International Settlements, Luglio
2010.
288
—. Luglio 2009. Guidelines for computing capital for incremental risk in the trading book. Basilea : Bank of
International Settlements, Luglio 2009.
—. Settembre 2010. Higher global minimum capital standards announced by the group of governors and
heads of supervision. Basilea : Bank of International Settlements, Settembre 2010.
—. 1988. International convergence of capital measurement and capital standards . Basilea : BIS, 1988.
—. 2006. International Convergence of Capital Measurement and Capital Standards - A Revised Framework
- Comprehensive Version. Basel : Bank for International Settlements, 2006.
—. Dicembre 2009. International framework for liquidity risk measurement, standards and monitoring.
Basilea : Bank for International Settlements, Dicembre 2009.
—. Luglio 2009. Revision to the Basel II market risk framework. Basilea : Bank for International Settlemets,
Luglio 2009.
—. Dicembre 2009. Strengthening the resilience of the banking sector. Basilea : Bank of International
Settlements, Dicembre 2009.
Basel Committee on banking Supervision. 1993 (a). The prudential supervision of netting, market risks
and interest rate risk - Consultative proposal. Basilea : BIS, 1993 (a).
Basel Committee on Banking Supervision. 1993 (b). The supervisory treatment of market risks -
Consultative proposal. Basilea : BIS, 1993 (b).
Benninga, Simon. 2000. Modelli finanziari. Milano : McGraw-Hill, 2000.
Campbell, Alexander. 2008. A VAR, VAR better thing? Londra : Risk Magazine, 2008.
Carosio, Giovanni. 2010. La riforma delle regole prudenziali. Roma : Associazione Bancaria Italiana, 2010.
Caselli, Stefano e De Laurentis, Giacomo. 2004. Miti e verità di basilea II. Milano : Egea, 2004.
Chorafas, Dimitris N. 2007. Stress testing for risk control under Basel II. Oxford : Butterworth-Heinemann
, 2007.
Clark, Joel. 2009 (a). Crude but credible. Washington : Incisive Media Ltd., 2009.
—. 2009 (b). No accounting for leverage. Washington : Incisive Media Ltd., 2009 (b).
Coletti, Elisa. 2009. Il punto sul capitale delle banche. Milano : Servizio Studi e Ricerche Intesa Sanpaolo,
2009.
Committee of European Banking Supervisors. 2010. Aggregate outcome of the 2010 EU wide stress test
exercise coordinated . Bruxelles : Committee of European banking Supervisors, 2010.
—. 2009. Position Paper on a countercyclical capital buffer. Bruxelles : CEBS, 2009.
Credit Lessons from the Past Crisis. Jorion, Philippe. 2009. Nantes : Workshop at European Financial
Management meetings, 2009.
289
Crouhy, Michel, Galai, Dan e Mark, Robert. 2006. The essentials of risk management. New York :
McGraw-Hill, 2006.
Da Silva, Carla, Goel, Amit e Garg, Sunil. 2009. The return of UK investment banking - A review of
capital requirements and profitability outlook. Londra : J. P. Morgan, 2009.
De Laroisière, Jacques. 2009. The high-level group on financial supervision in the EU. Bruxelles : Unione
Europea, 2009.
De Laurentis, Giacomo. 2001. Rating interni e credit risk management. Roma : Bancaria Editrice, 2001.
De Laurentis, Giacomo, Saita, Francesco e Sironi, Andrea. 2005. Rating interni e controllo del rischio di
credito. Milano : Bancaria Editrice, 2005, pp. 407-426.
European Commission - Commission Services Staff. 2009. Further possible changes to the Capital
Requirement Directive (CRD). Bruxelles : European Commission, 2009.
Financial Services Authority. 2009. The Turner Review, a regulatory response to the global banking crisis.
Londra : Financial Services Authority, 2009.
Financial Stability Forum. Aprile 2009. Report of the Financial Stability Forum on Addressing
Procyclicality in the Financial System. Basilea : Financial Stability Forum, Aprile 2009.
—. 2009. Report of the Financial Stability Forum on Enhancing Market and Istitutional Resilience. Basilea :
Financial Stability Forum, 2009.
Gabbi 2, Giampaolo. 2010. Credit Risk Drivers. Milano : SDA Bocconi, 2010.
Gabbi, Giampaolo. 2010. Market Risk Drivers. Milano : SDA Bocconi, 2010.
Garside, Thomas, Stott, Henry e Stevens, Anthony. 1999. Credit portfolio management. ERisk. 1999, Vol.
1, 1.
Gelderman, Maarten. 2009. Introduction to Basel II Responses to the Credit Crisis. Milano : SDA
Bocconi, 2009.
Giorgino, Marco, Travaglini, Francesca. 2008. Il risk management nelle imprese italiane. Milano : Il Sole
24 Ore, 2008, pp. 3-36.
Giudici, Giancarlo. 2008. Finanziare le risorse dell'impresa. Rimini : Maggioli Editore, 2008.
Gupton, Greg, Finger, Christopher e Bhatia, Mickey. 1997. CreditMetrics - Technical document. New
York : J. P. Morgan, 1997.
Hearing Charter. 2009. The Risks of Financial Modelling: VaR and the Economic Meltdown. Washington :
US House of Representatives, 2009.
Hull, John. 2008. Opzioni, futures e altri derivati. Milano : Hoepli, 2008.
J. P. Morgan / Reuters. 1996. RiskMetrics - Technical Document. New York : J. P. Morgan / Reuters, 1996.
Jorion, Philippe. 1997. In Defence of VaR. Irvine : University of California, 1997.
290
—. 1999. Risk Management Lessons from Long-Term Capital Management. New York : Social Science
Research Network, 1999.
—. 2007. Value at Risk: the new benchmark for managing financial risk. New York : Mc Graw Hill, 2007.
Kashyap, Anil e Stein, Jeremy. 2004. Cyclical implications of the Basel II capital standards. Chicago :
Federal Reserve Bank of Chicago , 2004.
Knight, Kevin. 2005. Risk Management: a journey not a destination. www.sincert.it. [Online] 2005.
Kupiec, Paul. 1995. Techniques for verifying the accuracy of risk measurement models. Journal of
Derivatives. 1995.
Lusignani, Giuseppe. 2004. La gestione dei rischi nella banca. [aut. libro] Marco Onado. La banca come
impresa. Bologna : Il Mulino, 2004, pp. 216-240.
Marsella, Michele e Sironi, Andrea. 1997. La misurazione e la gestione dei rischi di mercato. Bologna : Il
Mulino, 1997, pp. 37-48.
Mazzeo, Raffaele, Palombini, Edgardo e Zorzoli, Stefano. 2005. IAS-IFRS e imprese bancarie - Impatti
gestionali, organizzativi, contabili ed esperienze delle grandi banche italiane. Roma : Bancaria Editrice,
2005.
Moral, Gregorio. 2009. EAD Estimates for Facilities with Explicit Limits. Madrid : Banco de Espana, 2009.
On the pricing of corporate debt: the risk structure of interest rates. Merton, Robert. 1974. 2, s.l. : Journal
of Finance, 1974, Vol. 29.
Onado, Marco. 2004. La banca come impresa. Bologna : Il Mulino, 2004.
Panetta, Fabio. 2009. Financial sector pro-cyclicality lessons from the crisis. Roma : Banca d'Italia, 2009.
Panetta, Fabio, et al. 2009. Financial sector pro-cyclicality - Lessons from the crisis. Roma : Banca d'Italia,
2009.
Pennacchi, George. 2009. The 2008 Financial Crisis: Can It Happen Again? Illinois : Department of
Finance - University of Illinois, 2009.
Piazza, Elio. 2006. Probabilità e statistica. Bologna : Società Editrice Esculapio, 2006.
Procyclicality in Basel II: can we Treat the Desease Without Killing the Patioent? Gordy, Michael e
Howells, Bradley. 2004. Illinois : Journal of Financial Intermediation, 2004, Vol. 15.
Rajan, Raghuram G. 2005. Has Financial Development Made the World Riskier. Jackson Hole :
Symposium, 2005.
Rapullo, Rafael e Suarez, Javier. 2007. The Procyclical Effects of Basel II. Londra : Centre for Economic
Policy Research, 2007.
Resti, Andrea e Sironi, Andrea. 2008. Rischio e valore nelle banche. Milano : Egea, 2008, pp. 112-153,
242-260, 385-400.
—. 2007. Risk management and shareholders value in banking. Chichester : John Wiley & Sons Ltd., 2007.
291
Resti, Andrea. 2005. Il nuovo Accordo di Basilea. Milano : NewFin, 2005.
—. 2005. Il nuovo accordo di Basilea sul capitale: genesi, contenuti, impatti. Milano : Newfin, Università
Bocconi, 2005.
—. 2010. Matching Stability and Performance. Milano : Carefin, 2010.
Saita, Francesco. 2000. Il risk management in banca. Milano : Egea, 2000, pp. 41-62, 123-149.
Saurina, Jesus. 2009 (b). Dynamic Provisioning. Washington : The World Bank, 2009 (b).
Saurina, Jesus e Trucharte, Carlos. 2007. An Assessment on Basel II Pro-cyclicality in Mortgage
Portfolios. New York : Journal of Financial Services Research, 2007.
Saurina, Jesus. 2009. Statistical Provisioning in Spain. Madrid : Banco de Espana, 2009.
Saurina, Jesus, Fernàndez, Santiago e Martìnez, Jorge. 2000. Credit Growth, Problem Loans and Credit
Risk Provisioning in Spain. Madrid : Banco de Espana, 2000.
Savona, Paolo e Sironi, Andrea. 2000. La gestione del rischio di credito, esperienze e modelli nelle grandi
banche italiane. Roma : Bancaria Editrice, 2000.
Sawyer, Nick. 2009. Dynamic provisioning on the agenda for European banks. Londra : Incisive media Ltd,
2009.
Sironi, Andrea. 2006. Rendimento e rischio dei titoli azionari. Milano : SDA Bocconi, 2006.
—. 2010. Simulation Approaches. Milano : SDA Bocconi, 2010.
—. 2010. Value at Risk Models: applications, limits & expected shortfall. Milano : SDA Bocconi, 2010.
—. 2010. Value at Risk Models: the parametric approach. Milano : SDA Bocconi, 2010.
Standard&Poor's. 2008. Trading Losses At Financial Institutions Underscore Need For Greater Market
Risk Capital. RatingsDirect. 2008.
Taleb, Nassim. 1997 . Against Value at Risk: Nassim Taleb replies to Philippe Jorion. s.l. : Mimeo, 1997 .
—. 2005. Giocati dal caso. Milano : Il Saggiatore, 2005.
—. 2007. Il cigno nero. Milano : Il Saggiatore, 2007.
—. 2009. Report on the Risks of Financial Modelling, VaR and the Economic Meltdown. New York :
Committee on Science and Technology, Subcommittee on Investigations and Oversight - US House of
Representative, 2009.
The Debt-Deflation Theory of Great Depressions. Fisher, Irving. 1933. San Francisco : Econometrica, 1933,
Vol. I.
The Group of Thirty. 2009. Financial Reform, a framework for Financial Stability. Washington : The
Group of Thirty, 2009.
292
The Level and Quality of Value-at-Risk Disclosure by Commercial Banks. Pérignon, Christophe e Smith,
Daniel. 2009. Nantes : The European Financial Management Association, 2009.
The Link between Default and Recovery Rates: Theory, Empirical Evidence and Implications. Altman,
Edward, et al. 2005. 6, Chicago : Journal of Business, 2005, Vol. 78.
UBS. 2008. Shareholder Report on UBS's Write-Downs. Zurigo : UBS, 2008.
Unicredit Group. Dicembre 2009. Terzo Pilastro di Basilea 2 - Informativa al pubblico. Milano : Unicredit
Group, Dicembre 2009.
Unicredit. 2009. Relazioni e Bilancio consolidato 2009 Gruppo UniCredit. Genova : Unicredit, 2009.
—. Terzo Pilastro di Basilea 2. Unicredit web site. [Online]
http://www.unicreditgroup.eu/it/Investors/Basel_IIDisclosure_PillarIII.htm.
Unione Europea. 2006. Direttiva 2006/49/CEE del Parlamento Europeo e del Consiglio Europeo del 14
Giugno 2006 relativa all'adeguatezza patrimoniale delle imprese di investimento e degli enti creditizi.
Bruxelles : Gazzetta Ufficiale dell'Unione Europea, 2006.
Vaughan, Joseph. 1997. Risk Management. Londra : John Wiley & Sons, 1997.
Zazzara, Cristiano. 2005. I rischi di Mercato: i modelli VAR parametrici. Roma : Università Luiss-Guido
Carli, 2005.
293
RINGRAZIAMENTI
Ritengo doveroso ringraziare i dottori Cesaroni e Di Maio, dirigenti di Unicredito ed esperti di
validazione, che hanno offerto un prezioso contributo per lo sviluppo della tesi.
Ringrazio il relatore Prof. Marco Giorgino per l‟assegnazione della tesi e per l‟azione di indirizzo
ed assistenza.
Voglio infine ringraziare la mia famiglia per il sostegno dato in questi anni e nel periodo di stesura
della tesi.