Financial Eco No Metrics Novales[1]

Embed Size (px)

Citation preview

Financial EconometricsAlfonso NovalesDepartamento de Economia CuantitativaUniversidad Complutense4 de diciembre de 2011ContentsI Econometrics 91 Preliminaries 91.1 Momentos poblacionales: momentos de una distribucin de prob-abilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.2 Media, Varianza, Desviacin Tpica, Covarianza y Coeciente decorrelacin muestrales: . . . . . . . . . . . . . . . . . . . . . . . . 141.3 Distribuciones marginales y condicionadas . . . . . . . . . . . . . 161.4 El caso del proceso autoregresivo. . . . . . . . . . . . . . . . . . 171.5 Distribuciones condicionales e incondicionales en procesos tem-porales: El caso del proceso autoregresivo . . . . . . . . . . . . . 182 Regression models 182.1 Properties of estimators . . . . . . . . . . . . . . . . . . . . . . . 182.1.1 Unbiasedness . . . . . . . . . . . . . . . . . . . . . . . . . 182.1.2 Variance-covariance matrix of estimates . . . . . . . . . . 192.1.3 Eciency . . . . . . . . . . . . . . . . . . . . . . . . . . . 192.1.4 Consistency . . . . . . . . . . . . . . . . . . . . . . . . . . 202.1.5 Instrumental variables. . . . . . . . . . . . . . . . . . . . 202.2 Hypothesis testing . . . . . . . . . . . . . . . . . . . . . . . . . . 213 Stochastic Processes 223.1 Some simple stochastic processes . . . . . . . . . . . . . . . . . . 223.2 Stationarity, mean reversion, impulse responses . . . . . . . . . . 283.3 Numerical exercise: Simulating simple stochastic processes . . . . 303.4 Stationarity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343.5 Valoracin por simulacin. . . . . . . . . . . . . . . . . . . . . . 353.6 Contrastes de camino aleatorio . . . . . . . . . . . . . . . . . . . 353.6.1 Coecientes de autocorrelacin . . . . . . . . . . . . . . . 3613.6.2 Contrastes Portmanteau . . . . . . . . . . . . . . . . . . . 373.6.3 Ratios de varianza . . . . . . . . . . . . . . . . . . . . . . 373.6.4 Ratios y diferencias de varianzas . . . . . . . . . . . . . . 394 Modelos VAR 404.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404.2 El modelo VAR(1) . . . . . . . . . . . . . . . . . . . . . . . . . . 424.3 Un modelo estructural . . . . . . . . . . . . . . . . . . . . . . . . 424.4 Identicacin en un modelo VAR . . . . . . . . . . . . . . . . . . 444.4.1 Identicacin y respuestas del sistema . . . . . . . . . . . 474.4.2 Generalizando el orden del VAR . . . . . . . . . . . . . . 484.5 Condiciones de estabilidad . . . . . . . . . . . . . . . . . . . . . . 494.6 VAR y modelos univariantes . . . . . . . . . . . . . . . . . . . . . 504.7 Estimacin de un modelo VAR. . . . . . . . . . . . . . . . . . . 504.8 Contrastacin de hiptesis . . . . . . . . . . . . . . . . . . . . . . 514.8.1 Contrastes de especicacin . . . . . . . . . . . . . . . . . 514.8.2 Contrastes de causalidad . . . . . . . . . . . . . . . . . . . 524.9 Representacin MA de un modelo VAR . . . . . . . . . . . . . . 534.10 Funciones de respuesta al impulso . . . . . . . . . . . . . . . . . 554.11 Descomposicin de la varianza . . . . . . . . . . . . . . . . . . . 574.11.1Identicacin recursiva: la descomposicin de Cholesky . 594.12 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 594.13 Apndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 614.13.1Transformando un VAR con covarianza no nula en otrocon tal propiedad . . . . . . . . . . . . . . . . . . . . . . . 614.13.2Las innovaciones de un modelo estructural deben estarincorrelacionadas entre s. . . . . . . . . . . . . . . . . . . 614.13.3Errata en Enders, pgina 299, . . . . . . . . . . . . . . . . 625 Modelos no lineales 625.1 Minimos Cuadrados no Lineales . . . . . . . . . . . . . . . . . . . 635.2 Aproximacin del modelo . . . . . . . . . . . . . . . . . . . . . . 645.2.1 Estimacin de modelos MA(q) . . . . . . . . . . . . . . . 655.3 Modelo exponencial con constante. Aproximacin lineal . . . . . 665.4 Minimizacin de una funcin . . . . . . . . . . . . . . . . . . . . 675.5 Estimacin por Mnimos Cuadrados . . . . . . . . . . . . . . . . 685.5.1 Algoritmo de Newton-Raphson. . . . . . . . . . . . . . . 695.5.2 Algoritmo de Gauss-Newton . . . . . . . . . . . . . . . . . 695.5.3 Condiciones iniciales . . . . . . . . . . . . . . . . . . . . . 705.6 Estimador de Mxima Verosimilitud . . . . . . . . . . . . . . . . 715.7 Criterios de convergencia . . . . . . . . . . . . . . . . . . . . . . 745.8 Dicultades prcticas en el algoritmo iterativo de estimacin . . 755.9 Estimacin condicionada y precisin en la estimacin . . . . . . . 765.10 Algunos modelos tpicos . . . . . . . . . . . . . . . . . . . . . . . 785.10.1Ejemplo 1: Modelo exponencial sin constante. . . . . . . . 785.10.2Ejemplo 2: Un modelo no identicado . . . . . . . . . . . 8125.10.3Ejemplo 3: Modelo potencial . . . . . . . . . . . . . . . . 825.10.4Ejemplo 4: Modelo AR(1), sin autocorrelacin . . . . . . 835.10.5Ejemplo 5: Modelo constante, con autocorrelacin . . . . 865.10.6Ejercicio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 905.10.7Ejemplo 6: Estimacin de Mxima Verosimilitud del mod-elo AR(1) con perturbaciones AR(1) . . . . . . . . . . . . 916 Modelos ARCH 996.1 Un poco de historia . . . . . . . . . . . . . . . . . . . . . . . . . 996.2 Propiedades estadsticas . . . . . . . . . . . . . . . . . . . . . . .1006.3 Primeras deniciones y propiedades . . . . . . . . . . . . . . . . .1016.4 Momentos incondicionales . . . . . . . . . . . . . . . . . . . . . .1016.5 Proceso con residuos ARCH . . . . . . . . . . . . . . . . . . . . .1036.6 El modelo ARCH(q) . . . . . . . . . . . . . . . . . . . . . . . . .1046.7 El modelo ARCH(1) . . . . . . . . . . . . . . . . . . . . . . . . .1066.8 Modelo AR(1)-ARCH(1) . . . . . . . . . . . . . . . . . . . . . . .1086.9 Modelos ARMA-ARCH . . . . . . . . . . . . . . . . . . . . . . .1106.10 El modelo ARCH(q) de regresin . . . . . . . . . . . . . . . . . .1106.11 Modelos ARMA-ARCH . . . . . . . . . . . . . . . . . . . . . . .1116.12 Modelos GARCH . . . . . . . . . . . . . . . . . . . . . . . . . . .1116.12.1Modelos GARCH(p,q) . . . . . . . . . . . . . . . . . . . .1116.12.2El modelo GARCH(1,1) . . . . . . . . . . . . . . . . . . .1136.12.3Modelo IGARCH . . . . . . . . . . . . . . . . . . . . . . .1146.12.4Prediccin de la varianza futura . . . . . . . . . . . . . .1146.12.5Modelo ARCH(p) . . . . . . . . . . . . . . . . . . . . . .1146.12.6Modelo AR(1)-ARCH(1) . . . . . . . . . . . . . . . . . . .1156.12.7Modelo GARCH(1,1) . . . . . . . . . . . . . . . . . . . . .1156.12.8Modelo EGARCH(p,q) . . . . . . . . . . . . . . . . . . . .1166.12.9Otras especicaciones univariantes en la familia ARCH .1186.13 Modelos ARCH en media (ARCH-M) . . . . . . . . . . . . . . .1226.14 Contrastes de estructura ARCH . . . . . . . . . . . . . . . . . . .1246.15 Contrastes de especicacin. . . . . . . . . . . . . . . . . . . . .1256.15.1Estimacin . . . . . . . . . . . . . . . . . . . . . . . . . .1276.16 Estimacin por Cuasi-mxima verosimilitud . . . . . . . . . . . .1326.17 Contrastacin de hiptesis . . . . . . . . . . . . . . . . . . . . . .1336.18 Modelos de varianza condicional como aproximaciones a difusiones.1356.19 Modelos de varianza condicional y medidas de volatilidad . . . .1386.19.1Canina, L. y S. Figlewski: The informational content ofimplied volatility . . . . . . . . . . . . . . . . . . . . . .1386.19.2Day, T.E. y C.M. Lewis, Forecasting futures market volatil-ity, . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1396.19.3Day, T.E. y C.M. Lewis, Stock market volatility and theinformation content of stock index options. . . . . . . .1406.19.4Engle, R.F., y C. Mustafa: Implied ARCH models fromoption prices: . . . . . . . . . . . . . . . . . . . . . . . .14236.19.5Noh, J., R.F. Engle, y A. Kane, Forecasting volatilityand option prices of the S&P500 index . . . . . . . . . .1426.19.6French, K.R., G.W. Schwert, y R.F. Stambaugh, Ex-pected stock returns and volatility . . . . . . . . . . . .1436.20 Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1436.20.1Libros: . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1436.20.2Artculos: . . . . . . . . . . . . . . . . . . . . . . . . . . .1446.20.31oParte: Estructura temporal de volatilidades. Evidenciaemprica desde los mercados. . . . . . . . . . . . . . . . .1446.20.42oParte: Transmisin de volatilidades entre mercados . .1446.20.53oParte: Implicaciones para la cobertura de carteras. . .1457 Panel data sets 1457.1 Estimation approaches . . . . . . . . . . . . . . . . . . . . . . . .1487.2 The static linear model . . . . . . . . . . . . . . . . . . . . . . .1507.2.1 Pooled OLS estimates . . . . . . . . . . . . . . . . . . . .1507.2.2 Hypothesis testing . . . . . . . . . . . . . . . . . . . . . .1547.2.3 Generalized pooled least squares estimation . . . . . . . .1547.3 The Fixed Eects model . . . . . . . . . . . . . . . . . . . . . . .1557.3.1 Testing the signicance of the group eects . . . . . . . .1577.3.2 Fixed time eects . . . . . . . . . . . . . . . . . . . . . . .1587.4 Within and between estimators . . . . . . . . . . . . . . . . . . .1597.4.1 The Within groups estimator . . . . . . . . . . . . . . . .1607.4.2 The Between groups estimator . . . . . . . . . . . . . . .1607.5 Estimating in rst dierences . . . . . . . . . . . . . . . . . . . .1627.6 The Random Eects estimator . . . . . . . . . . . . . . . . . . .1637.7 Relationship to other estimators . . . . . . . . . . . . . . . . . .1647.7.1 Practical implementation of the Random Eects estimator 1667.7.2 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . .1677.7.3 Testing for random eects . . . . . . . . . . . . . . . . . .1687.7.4 Goodness of t in panel data models . . . . . . . . . . . .1707.7.5 Instrumental variables estimators of the Random Eectsmodel . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1717.8 Dynamic linear models . . . . . . . . . . . . . . . . . . . . . . . .1747.8.1 Linear autoregressive models . . . . . . . . . . . . . . . .1747.8.2 General Method of Moments (GMM) estimation . . . . .1767.8.3 Dynamic models with exogenous variables . . . . . . . . .179II Risk Measurement 1808 Volatilidad 1808.1 Midiendo la volatilidad . . . . . . . . . . . . . . . . . . . . . . . .1808.1.1 La medicin del riesgo inherente a un activo . . . . . . . .1808.1.2 La importancia de medir el riesgo . . . . . . . . . . . . . .1828.1.3 Estadsticos descriptivos en la estimacin del Riesgo . . .18348.1.4 La varianza como indicador de volatilidad: Limitaciones .1878.1.5 Volatilidad histrica, volatilidad GARCH, volatilidad im-plcita. . . . . . . . . . . . . . . . . . . . . . . . . . . . .1908.1.6 Algunas cuestiones estadsticas previas . . . . . . . . . . .1918.1.7 Rentabilidades continuas . . . . . . . . . . . . . . . . . . .1938.1.8 Rango esperado de precios bajo el supuesto de Normalidad2008.1.9 La varianza como variable temporal . . . . . . . . . . . .2038.1.10Rendimientos diarios y bandas de conanza . . . . . . . .2068.2 Utilizacin de informacin intrada en la medicin de la volatili-dad de un activo nanciero . . . . . . . . . . . . . . . . . . . . .2078.2.1 Medidas de Parkinson y Garman-Klass . . . . . . . . . . .2078.2.2 Uso de rentabilidades intradiarias . . . . . . . . . . . . . .2108.2.3 Estacionalidad intra-da en volatilidad. . . . . . . . . . .2118.2.4 Agregacin temporal de volatilidades . . . . . . . . . . . .2128.2.5 Volatilidad implcita versus volatilidad histrica . . . . . .2138.3 Modelizacin y prediccin de la volatilidad . . . . . . . . . . . . .2178.3.1 El modelo de alisado exponencial . . . . . . . . . . . . . .2198.3.2 El modelo GARCH(1,1) . . . . . . . . . . . . . . . . . . .2208.3.3 Estructura temporal de volatilidad . . . . . . . . . . . . .2258.3.4 Prediccin de volatilidad . . . . . . . . . . . . . . . . . . .2268.3.5 Extensiones . . . . . . . . . . . . . . . . . . . . . . . . . .2278.3.6 Estimacin de correlaciones . . . . . . . . . . . . . . . . .2288.4 Estimacin de covarianzas condicionales . . . . . . . . . . . . . .2288.5 Modelizacin de correlaciones condicionales . . . . . . . . . . . .2298.5.1 Modelos de suavizado exponencial (Exponential smoother) 2308.5.2 Correlaciones dinmicas GARCH (DCC GARCH) . . . .2318.5.3 Estimacin por cuasi-mxima verosimilitud . . . . . . . .2329 Valor en Riesgo 2329.1 RiskMetrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2349.2 Varianza de una cartera a partir de activos individuales . . . . .2359.2.1 Uso de informacin intrada . . . . . . . . . . . . . . . . .2369.3 Incertidumbre paramtrica en el clculo del VaR . . . . . . . . .23610 Desviaciones de Normalidad 24310.1 Contrastes de Normalidad: Jarque-Bera, Kolmogorov, QQ-plots .24310.2 La distribucin t de Student estandarizada . . . . . . . . . . . .24310.2.1Estimacin de la densidad t de Student . . . . . . . . . .24410.2.2Estimacin del nmero de grados de libertad por el Mtodode Momentos . . . . . . . . . . . . . . . . . . . . . . . . .24610.2.3QQ plots para distribuciones t de Student . . . . . . . . .24610.2.4Clculo del valor en riesgo (VaR) bajo una distribucin t(d)24710.3 La aproximacin Cornish-Fisher . . . . . . . . . . . . . . . . . . .248511 Teora de valores extremos (EVT) 24911.1 Estimacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .25011.2 Construccin del QQ-plot bajo la EVT. . . . . . . . . . . . . . .25211.3 Clculo del VaR bajo EVT . . . . . . . . . . . . . . . . . . . . .25211.4 Prdida esperada (Expected shortfall) . . . . . . . . . . . . . . .25311.4.1Aplicacin prctica de los procedimientos de EVT . . . .25411.5 Valoracin de opciones en presencia de asimetra y curtosis. Elmodelo Gram-Charlier. . . . . . . . . . . . . . . . . . . . . . . . .25411.6 El modelo GARCH de valoracin de opciones . . . . . . . . . . .25811.7 Teora de valores extremos (versin 2) . . . . . . . . . . . . . . .26211.7.1Estimacin del modelo . . . . . . . . . . . . . . . . . . . .26312 The single-factor model 26312.1 An introduction to factor models . . . . . . . . . . . . . . . . . .26312.2 The structure of the single-factor model . . . . . . . . . . . . . .26612.2.1Characteristics of the single factor model . . . . . . . . .26812.3 Estimating portfolio characteristics from a single factor model . .26913 Multi-factor models 27113.1 Style attribution analysis . . . . . . . . . . . . . . . . . . . . . .27213.2 Multi-factor models in international portfolios . . . . . . . . . . .27313.3 Estimation of fundamental factor models . . . . . . . . . . . . . .27513.4 Zero coupon curve estimation . . . . . . . . . . . . . . . . . . . .27613.5 A factor model of the term structure by regression . . . . . . . .27713.5.1Regression analysis . . . . . . . . . . . . . . . . . . . . . .27813.5.2A duration vector . . . . . . . . . . . . . . . . . . . . . .28013.6 Cointegration analysis . . . . . . . . . . . . . . . . . . . . . . . .28113.7 Permanent components . . . . . . . . . . . . . . . . . . . . . . .28113.8 Open questions in the analysis of a term structure . . . . . . . .28213.9 Permanent-transitory component decomposition . . . . . . . . . .28313.9.1Maximum-likelihood decomposition . . . . . . . . . . . .28413.9.2Granger-Gonzalo decomposition . . . . . . . . . . . . . .28413.9.3Decomposition based on principal component analysis . .28413.9.4Tcnicas de cointegracin en el anlisis de Asset allocation28414 Principal components 28614.1 The analytics of PCA . . . . . . . . . . . . . . . . . . . . . . . .28614.2 Exercise: Principal components analysis of a set of interest rates 28814.3 An alternative presentation of PCs: . . . . . . . . . . . . . . . . .29714.4 First applications of principal components . . . . . . . . . . . . .29814.4.1Risk decomposition . . . . . . . . . . . . . . . . . . . . . .29814.4.2An application to stock market management . . . . . . .29914.5 Present value of a basis point: PV01. . . . . . . . . . . . . . . .30014.5.1Approximations to PV01 . . . . . . . . . . . . . . . . . .30114.5.2Interest rate risk . . . . . . . . . . . . . . . . . . . . . . .302614.5.3Summary of expressions . . . . . . . . . . . . . . . . . . .30314.6 Applications of Permanent Components to Fixed Income man-agement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .30314.7 Appendix 1: Principal components . . . . . . . . . . . . . . . . .30914.7.1Lack of scale-invariance in principal components (Mardia,Kent, Bibby) . . . . . . . . . . . . . . . . . . . . . . . . .31414.7.2Hypothesis testing on eigenvalues and eigenvectors . . . .31414.7.3La capacidad predictiva de las betas histricas . . . . . .31514.7.4Frontera eciente . . . . . . . . . . . . . . . . . . . . . . .31914.7.5Tcnicas sencillas de determinacin de la frontera eciente 32314.7.6Apndice: Algunas secciones anteriores, en castellano . .32615 Un modelo general de tipos de inters 33015.1 Discretizacin exacta . . . . . . . . . . . . . . . . . . . . . . . . .33015.2 Discretizacin aproximada . . . . . . . . . . . . . . . . . . . . . .33115.3 Estimacin por mxima verosimilitud . . . . . . . . . . . . . . .33115.3.1Modelo no restringido . . . . . . . . . . . . . . . . . . . .33115.3.2Merton (1973): , = 0, = 0 . . . . . . . . . . . . . . . . .33215.3.3Vasicek (1977): = 0 . . . . . . . . . . . . . . . . . . . .33315.3.4Cox, Ingersoll, Ross (1985): = 1,2. . . . . . . . . . . . .33315.3.5Dothan: c = 0, , = 0, = 1 . . . . . . . . . . . . . . . . .33415.3.6Movimiento browniano geomtrico: c = 0, = 1 . . . . .33415.3.7Brennan y Schwartz (1980): = 1 . . . . . . . . . . . . .33515.3.8Cox, Ingersoll, Ross (180): c = 0, , = 0, = 8,2. . . . . .33615.3.9Elasticidad de la varianza constante: c = 0. . . . . . . . .33715.3.10Condiciones iniciales . . . . . . . . . . . . . . . . . . . . .33715.3.11Algoritmos numricos en la estimacin por mxima verosimil-itud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .33815.3.12Algunas simplicaciones . . . . . . . . . . . . . . . . . . .33915.3.13Criterios de convergencia . . . . . . . . . . . . . . . . . .34015.3.14Dicultades prcticas en el algoritmo iterativo de estimacin34115.3.15Estimacin condicionada . . . . . . . . . . . . . . . . . . .34215.4 Estimacin por mtodo generalizado de los momentos . . . . . .342III Stock Market 34716 El modelo de valoracin de activos 34816.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .34816.2 Deduccin sencilla del modelo CAPM. . . . . . . . . . . . . . .34916.3 Deduccin rigurosa del modelo CAPM . . . . . . . . . . . . . . .35216.4 El modelo CAPM en la valoracin de inversiones . . . . . . . . .35316.5 El CAPM cuando no se permiten ventas (posiciones) a corto . .35416.5.1Modicaciones sobre los prstamos y crditos al tipo sinriesgo.. . . . . . . . . . . . . . . . . . . . . . . . . . . . .354716.5.2Los inversores no pueden prestar ni pedir prestado a untipo sin riesgo. . . . . . . . . . . . . . . . . . . . . . . . .35416.6 Las carteras de beta-cero . . . . . . . . . . . . . . . . . . . . . .35616.7 Se permite prestar, pero no pedir prestado, al tipo de inters sinriesgo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .35816.8 Supuestos alternativos acerca de la capacidad de prestar y pedirprestado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .35916.9 Impuestos sobre la renta. . . . . . . . . . . . . . . . . . . . . . .36016.10Activos sin mercado . . . . . . . . . . . . . . . . . . . . . . . . .36117 El modelo APT: Introduccin 36317.1 Una deduccin sencilla del modelo . . . . . . . . . . . . . . . . .36317.2 Una deduccin ms rigurosa . . . . . . . . . . . . . . . . . . . . .36517.3 Estimacin y contraste . . . . . . . . . . . . . . . . . . . . . . . .36617.4 Determinacin simultnea de factores y caractersticas . . . . . .36717.5 Un enfoque alternativo . . . . . . . . . . . . . . . . . . . . . . . .36917.5.1Especicacin de los atributos de los activos . . . . . . . .36917.5.2Especicando las inuencias que afectan sobre el procesode generacin de rentabilidades . . . . . . . . . . . . . . .37017.6 Relaciones entre los modelos CAPM y APT . . . . . . . . . . . .37018 Contrastes empricos del modelo de valoracin de activos: In-troduccin 37318.1 Contrastes empricos del modelo CAPM. . . . . . . . . . . . . .37418.2 Hiptesis del modelo CAPM . . . . . . . . . . . . . . . . . . . . .37418.3 Un contraste sencillo . . . . . . . . . . . . . . . . . . . . . . . . .37418.4 Algunos contrastes iniciales . . . . . . . . . . . . . . . . . . . . .37518.5 Algunos problemas metodolgicos . . . . . . . . . . . . . . . . . .37518.6 El contraste de Black, Jensen y Scholes . . . . . . . . . . . . . .37718.7 Los contrastes de Fama y MacBeth . . . . . . . . . . . . . . . . .37918.8 Dos recientes contrastes del modelo CAPM. . . . . . . . . . . .38018.9 Contrastes de la versin neta de impuestos del modelo CAPM . .38118.10Algunas dicultades con los contrastes tradicionales de las rela-ciones de equilibrio en le mercado de activos . . . . . . . . . . . .38219 Contratos forward y contratos de futuros 38319.1 Precios forward . . . . . . . . . . . . . . . . . . . . . . . . . . . .38419.2 Arbitraje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .38619.3 Costes de acarreo (Costs of carry) . . . . . . . . . . . . . . . . .38619.4 El valor de un contrato de futuro . . . . . . . . . . . . . . . . . .38819.5 Swaps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .38819.6 Precio de un swap de bienes . . . . . . . . . . . . . . . . . . . . .38919.7 Valor de un swap de tipos de inters . . . . . . . . . . . . . . . .39019.8 Aspectos bsicos de los contratos de futuros . . . . . . . . . . . .39019.9 El riesgo de base . . . . . . . . . . . . . . . . . . . . . . . . . . .392820 Valoracin de un futuro sobre un bono 39320.1 Rentabilidad de una posicin en futuros sobre bonos . . . . . . .39520.2 Posicin cubierta. . . . . . . . . . . . . . . . . . . . . . . . . . .39520.3 Posicin especulativa . . . . . . . . . . . . . . . . . . . . . . . . .39620.3.1Observaciones: . . . . . . . . . . . . . . . . . . . . . . . .39620.4 El bono nocional . . . . . . . . . . . . . . . . . . . . . . . . . . .39720.4.1Observaciones: . . . . . . . . . . . . . . . . . . . . . . . .40020.5 Futuro sobre MIBOR a 90 das . . . . . . . . . . . . . . . . . . .40020.6 Caractersticas del contrato . . . . . . . . . . . . . . . . . . . . .40020.6.1Observaciones: . . . . . . . . . . . . . . . . . . . . . . . .40020.7 Cobertura de carteras de renta ja . . . . . . . . . . . . . . . . .40120.8 Nmero de contratos necesario . . . . . . . . . . . . . . . . . . .40220.9 Anlisis de un caso prctico . . . . . . . . . . . . . . . . . . . . .40520.9.1No hay variaciones en los tipos de inters . . . . . . . . .40520.9.2El tipo de inters aumenta . . . . . . . . . . . . . . . . . .40620.9.3Descenso de tipos . . . . . . . . . . . . . . . . . . . . . . .40720.10Cobertura cruzada . . . . . . . . . . . . . . . . . . . . . . . . . .40821 La Hiptesis de las Expectativas: Tipos de inters forward 40921.1 1.1La hiptesis de Expectativas acerca de la formacin de tiposde inters. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .41121.2 1.2El tipo forward como predictor de tipos a corto futuros . . . .41321.3 1.3El tipo forward como predictor del tipo a largo . . . . . . . .41422 Valoracin por simulacin 41723 Sobre simulacin de procesos brownianos 41823.1 Distribucin de los cambios en precio . . . . . . . . . . . . . . . .41823.2 Distribucin del logaritmo del precio. . . . . . . . . . . . . . . .41923.3 Distribucin de la rentabilidad . . . . . . . . . . . . . . . . . . .420Part IEconometrics1 Preliminaries1.1 Momentos poblacionales: momentos de una distribu-cin de probabilidad.Toda variable aleatoria est caracterizada por su distribucin de probabilidad,que no es sino el conjunto de valores posibles de la variable aleatoria, acom-paados de sus respectivas probabilidades. El modo en que se representa la9distribucin de probabilidad depende de que la variable aleatoria en cuestinsea de naturaleza discreta o continua.Si denotamos por 1(rI) la masa de probabilidad en cada punto rI del soporte\ de la distribucin de probabilidad de una variable aleatoria A, (conjunto devalores posibles de la variable aleatoria A), y por )(rI) la funcin de densi-dad que la representa, cuando sta existe (distribuciones de tipo continuo), laesperanza matemtica de la variable A se dene:1(A) = jr = _ 11r)(r)dr;si la medida de probabilidad es continua, o:1(A) = jr = r1rId1(rI)si la medida de probabilidad es discreta.En este ltimo caso, rI denota cadauno de los valores posibles de la variable aleatoria A, en nmero nito o no.La mediana : est denida por el punto del soporte valor numrico para elcual se cumple:_n1)(r)dr = 12en el caso de una variable aleatoria o distribucin de probabilidad continuas,y:'cd(A) = inf_: [n

r1d1(rI) = 12_en el caso de una variable discreta. Esta formulacin de la denicin sedebe a que en distribuciones discretas puede aparecer alguna ambigedad en suclculo.La moda es el valor ms probable de una distribucin, es decir, el punto r1del soporte \ de la distribucin, tal que:1(A = r1) _ 1(A = r) \r \,La moda puede no ser nica. No existen condiciones bajo las cuales lamediana o la moda deban preferirse a la esperanza matemtica como medidarepresentativa de la distribucin, pero hay que considerar tal posibilidad, de-pendiendo de las caractersticas de la distribucin de probabilidad.La esperanza matemtica [suma de los valores numricos ponderada porprobabilidades] de las desviaciones entre los valores del soporte de la distribuciny su esperanza matemtica es igual a cero:1(A jr) = 1(A) 1(jr) = jrjr = 010El valor numrico que minimiza la expresin: 1_(A a)2_ es: a = jr. Elvalor minimizado es la varianza de A.El valor numrico que minimiza la expresin: E([ A a [) es: a = :.La varianza de una variable aleatoria (cuando existe), es la esperanza matemticadel cuadrado de las desviaciones entre los valores de la variable y su esperanzamatemtica:o2r= 1 (A jr)2= _ 11(r jr)2)(r)dro2r= r1(rIjr)2d1(rI)en distrib uciones continuas y discretas, respectivamente.La varianza puede escribirse tambin:o2r= 1_(A j)2_ = 1_A22jA j2_ = 1_A2_j2o2r= r1(rIjr)2d1(rI) = r1r2Id1(rI) 2

r1rIjrd1(rI)

r1j2rd1(rI) == r1r2Id1(rI) 2jr

r1rId1(rI) j2r

r1d1(rI) = 1(r2I) 2j2r j2r = 1(r2I) j2rComo en muchas ocasiones se quiere poner dicho indicador en relacin conel valor medio de la variable, se preere un indicador que tenga unidades com-parables a las de la rentabilidad por lo que, cuando hablamos de volatilidadsolemos referirnos a la desviacin tpica: raz cuadrada de la varianza, tomadacon signo positivo:1T(A) = or = _o2rOtros momentos poblacionales son:Coc)icic:tc dc ariaci o: = 100orjrque considera la desviacin tpica (volatilidad) como porcentaje del nivelalrededor del cual ucta la variable, lo cual es til al comparar la volatilidadde variables que tienen una esperanza matemtica diferente; por ej., al compararla volatilidad de dos ndices burstiles distintos.Coc)icic:tc dc a:i:ctria = 1_(r jr)3_o3rque es positivo cuando la distribucin es asimtrica hacia la derecha, en cuyocaso la moda es inferior a la mediana, y sta es, a su vez, inferior a la mediaaritmtica. El coeciente de asimetra es negativo cuando la distribucin esasimtrica hacia la izquierda, en cuyo caso la moda es mayor que la mediana,11y sta es, a su vez, superior a la media aritmtica. Toda distribucin simtricatiene coeciente de asimetra igual a cero.Coc)icic:tc dc cnrto:i: = 1_(r jr)d_odrtambin llamado coeciente de apuntamiento, es un indicador del peso queen la distribucin tienen los valores ms alejados del centro. Toda distribucinNormal tiene coeciente de curtosis igual a 3. Un coeciente de curtosis superiora 3 indica que la distribucin es ms apuntada que la de una Normal teniendo,en consecuencia, menos dispersin que dicha distribucin. Se dice entonces quees leptocrtica, o apuntada. Lo contrario ocurre cuando el coeciente de curtosises superior a 3, en cuyo caso la distribucin es platicrtica o aplastada. A vecesse utiliza el Coeciente de exceso de curtosis, que se obtiene restando 3 delcoeciente de curtosis.La covarianza entre dos variables mide el signo de la asociacin entre lasuctuaciones que experimentan ambas. Esencialmente, nos dice si, cuando unade ellas est por encima de su valor de referencia, p.ej., su media, la otra variabletiende a estar por encima o por debajo de su respectiva media:Co(A, 1 ) = 1 [(A 1A)(1 11 )[ = 1(A1 ) 1(A)1(1 )Siempre se cumple que:Co(A, 1 ) = 1 [A(1 11 )[ = 1 [(A 1A)1 [Cuando alguna de las dos variables tiene esperanza cero, entonces:Co(A, 1 ) = 1 (A1 )El coeciente de correlacin lineal entre dos variables es el cociente entre sucovarianza, y el producto de sus desviaciones tpicas:Corr(A, 1 ) =Co(A, 1 )_\ ar(A)_\ ar(1 )Mientras que la covarianza puede tomar cualquier valor, positivo o negativo,el coeciente de correlacin solo toma valores numricos entre -1 y +1. Estoocurre porque, por la desigualdad de Schwarz, la covarianza est acotada envalor absoluto por el producto de las desviaciones tpicas de las dos variables.Un caso importante es el de la covariacin entre los valores de una variablecon sus propios valores pasados. As, tenemos, para cada valor entero de /:| = Co(A|, A||), / = 0, 1, 2, 8, ...sucesin de valores numricos que congura la funcin de autocovarianza dela variable A|, as como su funcin de autocorrelacin:12j| = Co(A|, A||)\ ar(A|)= |0El primer valor de la funcin de autocovarianza, 0, es igual a la varianzade la variable. El primer valor de su funcin de autocorrelacin, j0, es siempreigual a 1.Dos variables aleatorias son independientes si su funcin de densidad con-junta es igual al producto de sus funciones de densidad marginales:)(r, j) = )l(r).)2(j)dentro del rango de variacin de ambas variables.En el caso de distribuciones discretas (aqullas en las que la variable enestudio toma valores en un conjunto discreto de puntos, que puede ser innito),dos distribuciones son independientes si:1(A = r, 1 = j) = 1(A = r).1(1 = j)En general, en el caso continuo, la funcin de densidad de una variable 1 ,condicionada en otra variable A viene dada por:)(j,r) = )(r, j))2(r)pudiendo denirse de modo similar la funcin de densidad de la variable A,condicionada por la variable 1 .En el caso discreto, se tiene:1(1 = j,A = r) = 1Y (A = r, 1 = j)1Y (1 = j)Ver Ejemplo 1.Es fcil probar que si dos variables aleatorias son independientes, entoncessu covarianza es cero.La varianza de una suma o de una diferencia de dos variables aleatorias es:\ ar(A 1 ) = \ ar(A) \ ar(1 ) 2Co(A, 1 )\ ar(A 1 ) = \ ar(A) \ ar(1 ) 2Co(A, 1 )de modo que solo si ambas variables son independientes se tiene que lavarianza de su suma es igual a la varianza de su diferencia:\ ar(A 1 ) = \ ar(A) \ ar(1 )En tal caso, el riesgo (medido por la desviacin tpica) de una cartera serafuncin de las ponderaciones con que entran en ella cada uno de los activos quela conguran y del riesgo de cada uno de dichos activos, pero no dependera de13si la posicin adoptada en cada activo es corta o larga, es decir, de si estamoscomprados o vendidos en cada uno de ellos.Estas expresiones pueden extenderse anlogamente a cualquier combinacinlineal de: variables. Un ejemplo sera la suma de dichas : variables.Desigualdad de Chebychev:1 [q(A)[ = _ 11q(r))(r)dr _ -2_S )(r)drsiendo o el conjunto de puntos del soporte de A donde la funcin q essuperior o igual a -2. Por tanto,1 [q(A)[ _ -2_S )(r)dr = -21 _q(A) _ -2y, nalmente:1 _q(A) _ -2_ 1 [q(A)[-21.2 Media, Varianza, Desviacin Tpica, Covarianza y Co-eciente de correlacin muestrales:En general, contamos con observaciones histricas acerca de una o varias vari-ables (precios, rentabilidades, etc.) y queremos calcular medidas de posicincentral, de dispersin y de correlacin con el objeto de resumir las propiedadesbsicas de dichos datos.El conjunto de datos observados dene un histograma de frecuencias, o dis-tribucin muestral de frecuencias, que contiene toda la informacin disponibleacerca de la variable considerada. Un histograma de frecuencias es similar a unadistribucin de frecuencias, pero es diferente de ella. Para entender la diferen-cia entre ambos, hemos de comprender el concepto de proceso estocstico, y elmodo de utilizarlo en el anlisis de datos de series temporales.Un proceso estocstico A|, t = 1, 2, 8, ...es una sucesin de variables aleato-rias, indexadas por la variable tiempo. Las variables aleatorias pueden ser inde-pendientes entre s o no, y pueden tener la misma distribucin de probabilidad,o una distribucin de probabilidad diferente.Cada dato de una serie temporal debe interpretarse como una muestra detamao 1 de la distribucin de probabilidad correspondiente a la variable aleato-ria de ese instante. Por ej., el dato de cierre del IBEX35 (suponiendo quedisponemos de datos de cierre diarios) de hoy es una realizacin, es decir, unamuestra de tamao 1 de la variable aleatoria precio de la cesta IBEX35 (comondice) el da de hoy. La distribucin de probabilidad de esta variable puedeser diferente de la variable aleatoria IBEX35 hace un ao por tener, por ejem-plo, una esperanza matemtica menor, una volatilidad mayor, o no ser Normal,mientras que hace un ao s lo era.Vamos a suponer inicialmente que las variables A| tienen todas la mismadistribucin de probabilidad, y son independientes entre s. Este es el caso ms14sencillo, y constituye un proceso de ruido blanco. Slo en este caso est to-talmente justicado la utilizacin de momentos muestrales como caractersticasde la variable A. Esta observacin debe servir como llamada de atencin allector, dada la excesiva frecuencia con que se calculan estadsticos muestrales,calculados con datos histricos, para representar caractersticas de una vari-able; por ej., la desviacin tpica de la rentabilidad burstil de un determinadomercado.Las medidas de posicin central y dispersin anlogas a la esperanza, vari-anza y desviacin tpica son: r =

nI=lrI:; o2r =

nI=l (rI r)2: 1; 1Tr = o2rmientras que la covarianza y coeciente de correlacin muestrales son:Co(A, 1 ) = 1TT

|=l(r| r) (j| j) = 1TT

|=lr|j| r jLa media, varianza, mediana, covarianza y coeciente de correlacin mues-trales satisfacen propiedades similares a las ya mencionadas para sus anlogospoblacionales. Entre ellas: La suma de las desviaciones de la variable respecto de su media, es iguala cero:n

I=l(rI r) =n

I=lrIn

I=l r = : r : r = 0 Como consecuencia de lo anterior, la media muestral de las diferenciasrI r, i = 1, 2, ..., : es igual a cero. Si una de las dos variables, A o 1 tiene esperanza cero, tenemos:Co(A, 1 ) = 1TT

|=lr|j| = 1(A1 ) La varianza de A puede escribirse:1:n

I=l(rI r)2= 1:n

I=lr2I 21:n

I=lrI r 1:n

I=l r2= 1:n

I=lr2I r2Al igual que en el caso de una distribucin de probabilidad, otras medidasutilizadas en la representacin de una muestra son:Coc)icic:tc dc ariaci o: = 1001Tr r15Coc)icic:tc dc a:i:ctria =lT

T|=l (r| r)31T3rCoc)icic:tc dc cnrto:i: =lT

T|=l (r| r)d1Tdrsiendo T el tamao muestral.El recorrido o rango es la diferencia entre el mayor y el menor valor obser-vados de una variable. Los cuartiles son los datos que dividen a la muestra, unavez ordenada crecientemente, en cuatro submuestras de igual tamao (aproxi-madamente). El segundo cuartil es la mediana. El rango intercuartlico es ladistancia entre los cuartiles primero y tercero. Estos estadsticos tienen la vir-tud de no verse afectados por la presencia de valores atpicos. De modo anlogose denen los deciles y percentiles.En una variable temporal, las funciones de autocovarianza y autocorrelacinmuestrales se denen:| = Co(A|, A||) = 1TT

|=|l(r| r) (r|| r)j| = Corr(A|, A||) = Co(A|, A||)_o2r_o2r=lT

T|=|lr|r|| r2o2rsiendo siempre: 0 = \ ar(A|) y j0 = 1.1.3 Distribuciones marginales y condicionadasConsideremos la distribucin de probabilidad bivariante,Al2 1 0 1 2A2 1 2,24 0 2,24 4,24 00 0 1,24 2,24 0 2,242 0 8,24 2,24 0 6,24donde Al puede tomar valores -2,-1,0,1,2, mientras que A2 puede tomar val-ores -1, 0,2. El cuadro recoge probabilidades; por ejemplo, 1 [Al = 1, A2 = 0[ =1,24. Las 15 probabilidades del cuadro suman 1.La distribucin marginal de Al es,\ a|orc: dc Al2 1 0 1 2Ii o/a/i|idadc: 2,24 4,24 6,24 4,24 8,24con 1(Al) = 1,2, \ ar(Al) = 1,28,siendo la distribucin de A2,\ a|orc: dc A21 0 2Ii o/a/i|idadc: 8,24 ,24 11,24con 1(A2) = 7,12, \ ar(A2) = 268,144.La distribucin d eprobabilidad de Al condicional en un valor numrico deA2 es,16\ a|orc: dc Al 2 1 0 1 2Si A2 = 1 1,4 0 1,4 1,2 0Si A2 = 0 0 1, 2, 0 2,Si A2 = 2 0 8,11 2,11 0 6,11con 1(Al,A2 = 1) = 0, 1(Al,A2 = 0) = 8,, 1(Al,A2 = 2) = 0,11.Luego 1(Al,A2) es una variable aleatoria que toma valores 0, 3/5, 9/11,con probabilidades respectivas: 8/24, 5/24, 11/24. Por tanto, su esperanzamatemtica es 1/2, que coincide con 1(A). Este es un resultado general, puessiempre se tiene,1 [1 (Al,A2)[ = 1(Al)Las dos variables que hemos analizado no son independientes, pues ningunade ellas satisface la condicin de que su distribucin marginal coincida con sudistribucin condicionada en cualquier valor de la otra. Dicho de otro modo, elvalor que toma una variable A2 es informativo acerca de los posibles valores dela otra variable Al.1.4 El caso del proceso autoregresivoEspecialmente interesante en el anlisis de datos nancieros es el modelo au-toregresivo,j| = c0 clj|l n|, 1 < cl < 1donde suponemos que n| es un proceso sin autocorrelacin (correlacin tem-poral consigo mismo). Es decir, Corr(n|, n||) = 0 \/.En estas condiciones, si n| sigue una distribucin Normal n| ~ (0, o2u),entonces j| sigue una distribucinj| ~ (c01 cl,o2u1 c2l)Esta es la distribucin marginal o incondicional, de j|.Por otra parte, condicional en la historia pasada de j|, sin incluir el dato defecha t, la distribu8in de probabilidad condicional de j| es,j| ~ (c0 clj|l, o2u)que tiene una menor varianza. De hecho, la varianza incondicional de j|es tanto mayor cuanto ms se acerque el parmetro cl a 1, creciendo dichavarianza sin lmite. Sin embargo, la varianza condicional es siempre o2u, conindependencia del valor numrico del parmetro cl.La varianza condicional de j| es igual a la varianza de n|, o2u, mientras quela varianza incondicional de j| es siempre mayor que o2u.Adems,1(j|,j|l) = c0 clj|l; 1(j|) =c01 cl171.5 Distribuciones condicionales e incondicionales en pro-cesos temporales: El caso del proceso autoregresivoEspecialmente interesante en el anlisis de datos nancieros es el modelo au-toregresivo,j| = c0 clj|l n|, 1 < cl < 1donde suponemos que n| es un proceso sin autocorrelacin (correlacin tem-poral consigo mismo). Es decir, Corr(n|, n||) = 0 \/.En estas condiciones, si n| sigue una distribucin Normal n| ~ (0, o2u),entonces j| sigue una distribucinj| ~ (c01 cl,o2u1 c2l)Esta es la distribucin marginal o incondicional, de j|.Por otra parte, condicional en la historia pasada de j|, sin incluir el dato defecha t, la distribu8in de probabilidad condicional de j| es,j| ~ (c0 clj|l, o2u)que tiene una menor varianza. De hecho, la varianza incondicional de j|es tanto mayor cuanto ms se acerque el parmetro cl a 1, creciendo dichavarianza sin lmite. Sin embargo, la varianza condicional es siempre o2u, conindependencia del valor numrico del parmetro cl.La varianza condicional de j| es igual a la varianza de n|, o2u, mientras quela varianza incondicional de j| es siempre mayor que o2u.Adems,1(j|,j|l) = c0 clj|l; 1(j|) =c01 cl2 Regression models2.1 Properties of estimators2.1.1 UnbiasednessExplanatory variables are supposed to be deterministic in elementary Econo-metrics, to show unbiasedness of Least squares estimates of linear models.In more general treatments, the alternative assumption is made: 1(n,A) =0, which means: 1(rI|.ns) = 0\t, :, which we usually know as strict exogeneity.It is usually hard to make a strong argument on the validity of that condition.It is easy to gure out why can it fail to hold, but it is much harder to arguein its favor.Since, = , (A0A)lA0n18The condition implies:1(,) = , 1_(A0A)lA0n = , 1_(A0A)lA01(n,A) = ,But, should we care about unbiasedness in Economics, being a property thatrelates to the universe of possible samples?2.1.2 Variance-covariance matrix of estimatesIf the vector error term has covariance matrix,\ ar(n) = o2uThe variance-covariance matrix of least squares estimates is,\ ar(,) = o2u(A0A)l(A0A)(A0A)l(1)If de not allow for a scalar factor o2u, which is not necessary, then \ ar(n) = and \ ar(,) = (A0A)l(A0A)(A0A)l.To estimate we will need to use residuals from some initial estimation.So, we can start by using OLS, and use the residuals to estimate the structurewe assume in .If, for instance, we postulate that 1(nI.n) = 0\i ,= ,, while 1(nI.n) = /.Ifor i = ,, we will then run a regression of the square OLS residuals on ., withoutintercept.Whether we identify o2u with / and with a diagonal matrix with .Ialongthe diagonal, or make those elements equal to /.I and skip the o2u factor, isirrelevant.There are special cases,those in which is almost diagonal,when thevariance-covariance matrix reduces to o2u(A0A)l, but it is unfortunate thatthis matrix is widely presented in a rst discussion of least squares methodsin econometrics textbooks as being the variance covariance matrix of the leastsquares estimator.The elements of o2u(A0A)lare biased estimates of the variances and co-variances of the least squares estimator, not bearing any specic relationshipwith the unbiased o2u(A0A)l(A0A)(A0A)lvalues. The biased, standardestimates may be either larger or smaller than the unbiased ones without anyspecial reason.Nothing is lost by computing (1) in all situations.2.1.3 EciencyThe standard, eciency properties of least squares shown in introductory coursesemerge from its coincidence with Maximum Likelihood under a Normal distri-bution for the error term, and provided we have a right specication for thevariance-covariance matrix of the error term.The rst condition is unlikely in many situations in Economics.19In general, eciency is shown only under deterministic or strictly exogenousexplanatory variables.Heteroscedasticity leads to lack of eciency in least squares estimation.It does not bias the estimates or produce inconsistency.Autocorrelation in static models has similar implicationsDealing with Heteroscedasticity or autocorrelation as usual (Feasible GLS)is usually subject to important sample errors= Use OLS and compute robust variance-covariance matrix of estimates:White, Newey-WestIn general, it is hard to gure out the properties of least squares estimates.=we need to worry about consistency and precision (related to eciency).2.1.4 ConsistencyConsistency is a one-sample property, and all it requires is: j lim_lTA0n_ = 0|.j lim(,) = ,j lim__1T A0A_l_1T A0n__ = ,_j lim_1T A0A_l__j lim_1T A0n__ = ,Under light conditions (law of large numbers) this condition will hold if theerror term is uncorrelated with the set of explanatory variables.It is important that we now do not need exogeneity.All we need is lack of correlation between regressors and error term, i.e., wedo not need zero autocorrelation at all leads and lags of A and n.Situations when correlation is not zero: Simultaneity Errors in variables Dynamic models with autocorrelated errors2.1.5 Instrumental variablesWe then need instrumental variables, 7, satisfying 1(7,n) = 0, .at the sametime 1(7.A) ,= 0.We lose consistency if the rst condition fails to hold, and we lose precisionbecause the correlation between 7and A is less than one (otherwise, we wouldstill have the lack of consistency situation).In most cases, it is usually hard to gure out what are valid instrumentsoutside the model, and often, models are silent with respect to valid instruments.Models with expectations, or dynamic panel data models suggest instru-ments that are already present in the model.Precision means that standard errors are small relative to estimated para-meters.Precision depends, among others on: the quantity and quality of data, pa-rameter stability.202.2 Hypothesis testingMost often, we compare nested models, and versions of likelihood ratio tests areappropriateWe should specically worry about testing hypothesis in the face of lowprecision estimates.Do not run hypothesis tests in the face of estimates obtained with low pre-cisionLow precision in estimation leads to a bias in the results of any given testby too often not rejecting the null hypothesis (any null hypothesis)So, when running signicance tests, we would tend to conclude for non in-formative explanatory variables to often.The t-statistic for signicance ids the ratio between the estimated coecientand its estimated standard error. The t-statistic can be too low, leadgin to notrejecting the null hypothesis of lack of signicance if: i) the estimated coecientis small to the point of being numerically irrelevant, ii) the standard deviationis large enough, i.c., precision is very low, even if the estimated coecient isnumerically sizeable, iii) both, i) and ii).Summarizing the sample information regarding the validity of a given nullhypothesis in the value of a single test statistic value is too much informationis an excessive reduction of the available informationAlways examine residuals (or t) from restricted and unrestricted modelsRelative to signicance tests: statistical signicance of a given coecient and economic relevance (orquantitative relevance) of the accompanying variable are very dierentconcepts to evaluate the relevance of an estimated coecient, multiply it by thestandard deviation of the associated variable, and divide by the standarddeviation of the dependent variable. Or do a similar computation for thewhole sample range or the interquartilic intervals of r and j. we can never test for the information content of a given variable in thecontext of a multiple regression model we can only test for whether a given variable adds information to thatcontained in the other explanatory variables already included in the model to test for information content in an absolute sense, we should estimate asimple regression model the estimated coecient in a simple regression is a biased estimate of thepartial eect of r. But is is an unbiased estimate of the global eect (directeect plus indirect eects) on j of a change in r. each estimated coecient in a multiple regression is an unbiased estimateof the partial eect (conditional on the other explanatory variables) on jof a change in r. It is a biased estimate of the eect on j of a change in r.21 A few time series conceptsEconomics is full of statements relating the dynamic properties of key vari-ables. For instance, we may say that ination is very persistent, that aggregateconsumption and GNP experience cyclical uctuations, or that hours workedand productivity move independently from each other. These statements havedirect implications in terms of the time series representations of these variables.Sometimes we are more specic, as when we state that stock exchange returnsare white noise, thereby justifying the usual belief that they are unpredictable.The unpredictability statement comes from the fact that the forecast of a whitenoise process, no matter how far into the future, is always the same. Thatforecast is equal to the mean of the white noise process, which would likely beassumed to be zero in the case of asset returns. If returns are logarithmic, i.e.,the rst dierence of logged market prices, then prices themselves would followa random walk structure. These properties cannot be argued separately fromeach other, since they are just two dierent forms of making the same statementon stock market prices. We may also say at some point that the economy islikely to repeat next year its growth performance from the previous year, whichincorporates the belief that annual GNP growth follows a random walk, its bestone-step ahead prediction being the last observed value. A high persistencein real wages or in ination could be consistent with rst order autoregressivemodels with an autoregressive parameter close to1. We briey review in thissection some concepts regarding basic stochastic processes, of the type that areoften used to represent the behavior of economic variables.3 Stochastic Processes3.1 Some simple stochastic processesA stochastic process is a sequence of random variables indexed by time. Each ofthe random variables in a stochastic process, corresponding to a given time indext, has its own probability distribution. These distributions can be dierent, andany two of the random variables in a stochastic process may either exhibitdependence of some type or be independent from each other.A white noise process is,j| = -|, t = 1, 2, 8, ...where -|, t = 1, 2, ... is a sequence of independent, identically distributedzero-mean random variables, known as the innovation to the process. A whitenoise is sometimes dened by adding the assumption that -| has a Normaldistribution. The mathematical expectation of a white noise is zero, and itsvariance is constant: \ ar(j|) = o2:. More generally, we could consider a whitenoise with drift, by incorporating a constant term in the process,j| = a -|, t = 1, 2, 8, ...22with mathematical expectation 1(j|) = a, and variance: \ ar(j|) = o2:.The future value of a white noise with drift obeys,j|s = a -|s,so that, if we try to forecast any future value of a white noise on the basisof the information available1at time t, we would have:1|j|s = a 1|-|s = a,because of the properties of the -|-process. That is, the prediction of a futurevalue of a white noise is given by the mean of the process. In that sense, a whitenoise process is unpredictable. The prediction of such process is given by themean of the process, with no eect from previously observed values. Becauseof that, the history of a white noise process is irrelevant to forecast its futurevalues. No matter how many data points we have, we will not use them toforecast a white noise.A random walk with drift is a process,j| = a j|l -|, t = 1, 2, 8, ... (2)so that its rst dierences are white noise. If j| = ln(1|) is the log of somemarket price, then its return r| = ln(1|) ln(1|l), will be a white noise, aswe already mentioned. A random walk does not have a well dened mean orvariance.In the case of a random walk without drift, we have,j|s = j|sl -|s, : _ 1so that we have the sequence of forecasts:1|j|l= 1|j| 1|-|l = j|,1|j|2= 1|j|l 1|-|2 = 1|j|l = j|and the same for all future variables. In this case, the history of a randomwalk process is relevant to forecast its future values, but only through the lastobservation. All data points other than the last one are ignored when forecastinga random walk process.First order autoregressive processes, AR(1), are of the form,j| = jj|l -|, [ j [< 1,and can be represented by,1That amounts to constructing the forecast by application of the conditional expectationoperator to the analytical representation of the future value being predicted, where the con-ditional expectation is formed with respect to the sigma algebra of events known at timet.23j| = 1

s=0js-|sthe right hand side having a nite variance under the assumption that\ ar(-|) = o2: only if [j[ < 1. In that case, we would have:1(j|) = 0; \ ar(j|) =o2:1 j2Predictions from a rst order autoregression can be obtained by,1|j|l= j1|j| 1|-|l = jj|,1|j|2= 1| (jj|l) 1|-|2 = j21|j|l = j2j|and, in general,1|j|s = jsj|, : _ 1which is the reason to impose the constraint [ j [< 1. The parameter j issometimes known as the persistence of the process. As the previous expressionshows, an increase or decrease in j| will show up in any future j|s, althoughthe inuence of that j|-value will gradually disappear over time, according tothe value of j. A value of j close to 1 will therefore introduce high persistencein the process, the opposite being true for j close to zero.The covariance between the values of the rst order autoregressive processat two points in time is:Co(j|, j|s) = js\ ar(j|), : ? 0,so that the linear correlation is:Corr(j|, j|s) = Co(j|, j|s)\ ar(j|)= jswhich dies away at a rate of j. In an autoregressive process with a value ofj close to 1, the correlation of j| with past values will be sizeable for a numberof periods.A rst order autoregressive process with constant has the representation,j| = a jj|l -|, [ j [< 1,Let us assume by now that the mathematical expectation exists and is nite.Under that assumption, 1j| = 1j|l, and we have:1j| = a 1(jj|l) 1-| = a j1j|so that: 1j| =ol. To nd out the variance of the process, we can iterateon its representation:24j|= a jj|l -| = a j(a jj|2 -|l) -| =a(1 j j2... jsl) jsj|s _jsl-|sl ... j2-|2 j-|l -|_and if we proceed indenitely, we getj| = a(1 j j2...) _... j2-|2 j-|l -|_sincelims!1jsj|s = 0.2Then, taking the variance of this expression:\ ar(j|) = \ ar_... j2-|2 j-|l -|_ = 1

s=0j2so2: =o2:1 j2so that the variance of the j|-process increases with the variance of theinnovation, o2:, but it is also higher the closer is j to 1.Si el proceso siguiese una estructura dependiente de su pasado, pero del tipo:j| = c0 clj|l -| t = 1, 2, ..., 1 < cl < 1sus propiedades seran bastante distintas, con:j| = c01 c|l1 cl cslj0 |

s=lc|sl-sy si consideramos que el proceso ha durado innitos perodos,1(j|) =c01 cl; \ ar(j|) =o2:1 c2lestaran bien denidas, son constantes, y el proceso es estacionario.Se de-nomina proceso autoregresivo de primer orden.Los momentos condicionales de este proceso son,1|l(j|) = c0 clj|l; \ ar(j|) = o2:Como se ve, la esperanza condicional es cambiante en el tiempo, en funcinde la informacin disponible en cada instante. La esperanza incondicional esla mejor prediccin que podramos proporcionar del proceso j| sin disponer deinformacin muestral para el mismo, pero conociendo la estructura estocsticade dicho proceso, incluidos los valores numricos de los parmetros. Si dis-pusiramos de muestra pero ignorsemos el proceso estocstico que sigue j|,podramos sustituir0l1 por la media muestral. Esta es la mejor prediccinen cuanto a minimizar el error cuadrtico medio de la prediccin, pero no es la2This is the limit of a random variable, and an appropriate limit concept must be used. Itsuces to say that the power of j going to zero justies the zero limit for the product randomvariable.25prediccin ptima, que es c0clj|l y requiere estimaciones de los parmetros.Esta prediccin minimiza el error cuadrtico medio condicional.Por otra parte, la varianza condicional, que es constante, es siempre inferiora la varianza incondicional. La diferencia entre ambas es tanto mayor cuantoms se aproxima el valor numrico del coeciente c a 1 1. En ambos lmites,adems, la varianza del proceso autoregresivo de primer orden tiende a innito.A future value of the rst order autoregression can be represented:j|s = a jj|sl -|s, [ j [< 1, : _ 1,which can be iterated to,j|s = a(1 j j2... jsl) jsj| _jsl-|l js2-|2 ... -|s_so that its forecast is given by,j|s = a1 js1 j jsj|So, as the forecast horizon goes to innity, the forecast converges to,lim1|j|s =a1 jthe mean of the process.As j approaches 1, the rst order autoregression becomes a random walk,for which this expression would give an innite variance. This is because if werepeat for the random walk the same argument we have made here, we get,j|= a j|l -| = a (a j|2 -|l) -| =a: j|s (-|sl ... -|2 -|l -|)so that the past term j|s does not die away no matter how far we moveback into the past, and the variance of the sum in brackets increases withoutbound as we move backwards in time. The random walk process has an innitevariance. Sometimes, it can be assumed that there is a known initial conditionj0. The random walk process can then be represented:j|= a j|l -| = a (a j|2 -|l) -| == ... = at j0 (-l ... -|2 -|l -|)with 1(j|) = j0 ta and \ ar(j|) = to2:. Hence, both moments change overtime, the variance increasing without any bound.Ello se debe a que el ltimo sumando en la representacin anterior, |s=l-s,es un ejemplo de tendencia estocstica. Cuanto mayor sea el nmero de obser-vaciones consideradas, mayor ser la varianza muestral del camino aleatorio: un26camino aleatorio tiene menor varianza a lo largo de una hora que a lo largo deun da, a lo largo de un da que a lo largo de una semana, etc.. El aumento dela varianza a lo largo del tiempo no tiene nada que ver con el trmino tj quesiendo determinista, tiene varianza cero.However, if we compare in a same graph time series realizations of a randomwalk together with some stationary autoregressive processes, it will be hard totell which is the process with an innite variance.Esto es lo que ocurrir con la inmensa mayora de los precios cotizados en losmercados nancieros. Aunque la presencia de tendencias estocsticas se producegeneralmente junto con estructuras ms complejas que la de un camino aleatorio,la implicacin acerca de una varianza creciente con el tiempo se mantiene cuandose aaden a sta componentes autoregresivos o de medias mviles para j|. Paraevitarlo, caracterizamos la volatilidad de un mercado o de un activo analizandoel comportamiento de la rentabilidad que ofrece a lo largo del tiempo, no de suprecio o cotizacin.En este caso, la tendencia estocstica aparece debido al coeciente unitariodel retardo de j| en la ecuacin que explica el comportamiento de esta variable.En el lenguaje estadstico, se dice que el proceso j| tiene una raz unitaria.La diferenciacin elimina las tendencias estocsticas, pues tendramos,j|j|l = ^j| = j -|, t = 1, 2, ...con 1(j|) = j, \ ar(j|) = o2:, para todo t.Como veremos ms adelante, el concepto de proceso browniano est bastanteligado al de camino aleatorio. Por tanto, la armacin anterior es coherente conestablecer la hiptesis de que la rentabilidad de un determinado activo sigue unproceso browniano, pero no tanto con efectuar dicha hiptesis sobre su precio.La diferenciacin elimina asimismo las tendencias deterministas, como fcil-mente puede comprobarse algebraicamente. De este modo, si el precio de undeterminado activo tiene una tendencia temporal determinista lineal, su primeradiferencia estar libre de dicha tendencia,j| = ,0 ,lt -|cuya primera diferencia es:^j| = j|j|l = ,l (-|-|l)Un proceso con una tendencia determinista cuadrtica sigue trayectorias conformas parablicas, cncavas o convexas, dependiendo del signo del coecientedel trmino de segundo grado. Su primera diferencia presentar una tendencialineal, mientras que su segunda diferencia estar libre de tendencia. Un procesocon una tendencia determinista representada por un polinomio de grado trespuede tener ciclos. La primera diferencia de este proceso tendr una tendenciacuadrtica.Si consideramos una tendencia de grado 2:27j| = ,0 ,lt ,2t2-|cuya primera diferencia es:^j| = j|j|l = (,l,2) 2,2t (-|-|l)siendo su segunda diferencia:^2j| = ^j|^j|l = j|2j|l j|2 = 2,2 (-|2-|l -|2)De modo anlogo, un proceso puede tener asimismo varias races unitarias.Los tipos de inters ya son rentabilidades, por lo que tienen, generalmente,un orden de no estacionariedad (es decir,un nmero de tendencias) menosque las series de ndices burstiles o de precios de derivados, por ejemplo.Enocasiones, sin embargo, algunas series de precios son no estacionarias de orden2 (tienen 2 races unitarias), por lo que incluso las rentabilidades pueden ser noestacionarias, presentando una raz unitaria.3.2 Stationarity, mean reversion, impulse responsesA stochastic process is stationary when the distribution of /-tuples (j|1, j|2, ..., j|!)is the same with independence of the value of / and of the time periods tl, t2, ..., t|considered. It is a property of any stationary stochastic process that the forecastof a future value converges to its mean as the forecast horizon goes to innity.This is obviously fullled in the case of a white noise process. Another char-acteristic is that any time realization crosses the sample mean often, while anonstationary process would spend arbitrarily large periods of time at eitherside of its sample mean.As we have seen above for the rst order autoregres-sion, the simple autocorrelation function of a stationary process, made up by thesequence of correlations between any two values of the process, will go to zerorelatively quickly, dieing away very slowly for processes close to nonstationarity.When they are not subject to an stochastic innovation,3stationary autore-gressive processes converge smoothly and relatively quickly to their mathemat-ical expectation. The j|-process will converge tool either from above or frombelow, depending on whether the initial value, j0, is above or belowol. Thespeed of convergence is given by the autoregessive coecient. When the processis subject to a nontrivial innovation, the convergence in the mean of the processwill not be easily observed. This is the case because the process experiencesa shock through the innovation process every period, which would start a newconvergence that would overlap the previous one, and so on. Under normalcircumstances we will just see a time realization exhibiting uctuations aroundthe mathematical expectation of the process, unless the process experiences ahuge innovation, or the starting condition j0 is far enough fromol, in units ofits standard deviation, _c2zl2.3That is, if the inovation .I has zero variance.28The property of converging to the mean after any stochastic shock is calledmean reversion,and is characteristic of stationary processes. In stationaryprocesses, any shock tends to be corrected over time. This cannot be appreci-ated because shocks to j| are just the values of the innovation process, whichtake place every period. So, the process of mean reversion following a shockgets disturbed by the next shock, and so on. But the stationary process willalways react to shocks as trying to return to its mean. Alternatively, a nonstationary process will tend to depart from its mean following any shock. As aconsequence, the successive values of the innovation process -| will take j| everytime farther away from its mean.An alternative way of expressing this property is through the eects of purelytransitory shocks or innovations. A stationary process has transitory responsesto purely transitory innovations. On the contrary, a nonstationary process mayhave permanent responses to purely transitory shocks. So, if a stationary vari-able experiences a one-period shock, its eects may be felt longer than that,but will disappear after a few periods.The eects of such a one-period shockon a nonstationary process will be permanent. A white noise is just an in-novation process. The value taken by the white noise process is the same asthat taken by its innovation.Hence, the eects of any innovation last as longas the innovation itself, reecting the stationary of this process. The situationwith a random walk is quite dierent. A random walk takes a value equal tothe one taken the previous period, plus the innovation. Hence, any value of theinnovation process gets accumulated in successive values of the random walk.The eects of any shock last forever, reecting the nonstationary nature of thisprocess. In a stationary rst order autoregression, any value of the innovation-| gets incorporated into j| that same period. It will also have an eect of sizej-| on j|l. This is because j|l = jj| -|l so, even if -|l = 0, the eect of-| would still be felt on j|l through the eect it previously had on j|.This argument suggests how to construct what we know as an impulse re-sponse function. In the case of a single variables, as with the stochastic processeswe consider in this section, that response is obtained by setting the innovationto zero every period except by one, in which the impulse is produced. At thattime, the innovation takes a unit value.4The impulse response function willbe the dierence between the values taken by the process after the impulse inits innovation, and those that would have prevailed without the impulse.Theresponse of a white noise to an impulse in its own innovation is a single unitpeak at the time of the impulse, since the white noise is every period equalto its innovation, which is zero except at that time period. In the case of ageneral random walk, a zero innovation would lead to a random walk growingconstantly at a rate dened by the drift a from a given initial condition j0. Ifat time t

the innovation takes a unit value, the random walk will increase bythat amount at time t

, but also at any future time. So the impulse response is4When working with several variables, responses can be obtained for impulses in morethan one variable. To make the size of the responses comparable, each innovation is supposedto take a value equal to its standard deviation, which may be quite dierent for dierentinnovations.29in this case a step function, that takes the value 1 at t

and at any time afterthat. Consider now a stationary rst order autoregression. A unit innovationat time t

will have a unit response at that time period, and a response of sizejseach period t :, gradually decreasing to zero.Another important characteristic of economic time series is the possibil-ity that they exhibit cyclical uctuations. In fact, rst order autoregressiveprocesses may display a shape similar to that of many economic time series, al-though to produce regular cycles we need a second order autoregressive processes,j| = jlj|l j2j|2 -|,with -| being an innovation, a sequence of independent and identically dis-tributed over time.Using the lag operator: 1sj| = j|s in the representationof the process:j|jlj|lj2j|2 = _1 jl1 j212_j| = -|,The dynamics of this process is characterized by the roots of its characteristicequation,1 jl1 j212= (1 `1) (1 `

1) = 0which are given by:`, `

= jl_j2l 4j22j2Stationary second order autoregressions have the two roots of the charac-teristic equation smaller than 1.A root greater than one in absolute size willproduce an explosive behavior. A root equal to one also signals nonstationarity,although the sample realization will not be explosive. It will display extremelypersistent uctuations, very rarely crossing its mean, as it was the case with arandom walk. This is very clear in the similar representation of a random walk:(1 1) j| = -|.Since the characteristic equation is now of second degree, it might have asroots two conjugate complex numbers. When that is the case, the autoregressiveprocess displays cyclical uctuations. The response of j| to an innovation -|will also display cyclical uctuations, as we will see in dynamic macroeconomicmodels below.3.3 Numerical exercise: Simulating simple stochastic processesThe Simple_simul.xls EXCEL book presents simulations of some of these simplestochastic processes. Column A in the Simulations spreadsheet contains a timeindex. Column B contains a sample realization of random numbers extractedfrom a (0, 1) distribution. This has been obtained from EXCEL using the se-quence of keys: Tools/Data Analysis/Random Number Generator and selectingas options in the menu number of variables =1, observations = 200, a Normal30distribution with expectation 0 and variance 1, and selecting the appropriateoutput range in the spreadsheet.A well constructed random number generator produces independent real-izations of the chosen distribution. We should therefore have in column B 200independent data points from a N(0,1), which can either be interpreted as a sam-ple of size 200 from a N(0,1) population, or as a single time series realizationfrom a white noise where the innovation follows a N(0,1) probability distribu-tion. The latter is the interpretation we will follow. At the end of the column,we compute the sample mean and standard deviation, with values of 0.07 and1.04, respectively.These are estimates of the 0 mathematical expectation andunit standard deviation with this sample. Below that, we present the standarddeviation of the rst and the last 100 observations, of 1.09 and .98. Estimatesof the variance obtained with the full sample or with the two subsamples seemreasonable. A dierent sample would lead to dierent numerical estimates.Panel 2 contains sample realizations from three dierent random walks with-out drift, The only parameter in such processes is the variance of the innovation,which takes values 1, 25 and 100, respectively. At a dierence of a white noise,an initial condition is needed to generate a time series for a random walk, be-cause of the time dependence between successive observations, as can be seenin (2) . The three sample realizations are graphed in the RandomWalks spread-sheet. All exhibit extreme persistence, crossing the sample mean just once in200 observations. We know by construction that these three processes lack awell dened mean and have a time increasing variance. We can always computesample averages and standard deviations, as shown in the spreadsheet at theend of the series, but it is not advisable to try to interpret such statistics.Inparticular, in this case, by drawing dierent realization for the white noise incolumn B, the reader can easily check how sample mean and standard devia-tions may drastically change. In fact, standard deviations are calculated in thespreadsheet for the rst and last 100 sample observations, and they can turnout to be very dierent, and dierent from the to2: theoretical result. The pointis we cannot estimate that time-varying moment with much precision.Panel 3 compares a random walk to three rst-order autoregressive processes,with autoregressive coecients of 0.99, 0.95 and 0.30. As mentioned above, arandom walk can be seen as the limit of a rst order autoregression,as theautoregressive coecient converges to 1, although the limit presents some dis-continuity since, theoretically, autoregressive processes are stationary so longas the autoregressive coecient is below 1 in absolute value, while the randomwalk is nonstationary. The autoregressive processes will all have a well-denedmean and variance, which is not the case for the limit random walk process.0.99. The sample time series realizations for the four processes are displayedin the AR-processes spreadsheet, where it can be seen that sample dierencesbetween the autoregressive process with the 0.99 coecient and the randomwalk are minor, in spite of the theoretical dierences between the two processes.In particular, the autoregressive process crosses its sample mean in very fewoccasions. That is also the case for the 0.95-autoregressive process, although itsmean reverting behavior is very clear at the end of the sample. On the other31hand, the time series realization from the 0.30-autoregressive process exhibitsthe typical behavior in a clearly stationary process, crossing its sample meanrepeatedly.Panel 4 presents sample realizations from two white noise processes with driftand N(0,1) innovations. As shown in the enclosed graph, both uctuate aroundtheir mathematical expectation, which is the value of the constant dening thedrift, crossing their sample means very often. Panel 5 contains time seriesrealizations for two random walk processes with drift. These show in the graphin the form of what could look as deterministic trends. This is because thevalue of the drifts, of 1.0 and 3.0, respectively, is large, relative to the innovationvariance which is of 25 in both cases. If the value of the drift is reduced, orthe variance of the innovation increased, the shape of the time series wouldbe dierent, since the uctuations would then dominate over the accumulatedeect of the drift, as the reader can check by reducing the numerical values ofthe drift parameters5used in the computation of these two columns.Panel 6 presents realizations of a stationary rst order autoregression withcoecient of .90. In the second case we have not included an innovation process,so that it can be considered as a deterministic autoregression. It is interestingto see in the enclosed graph the behavior of a stationary process: starting froman initial condition, in the absence of an innovation, the process will alwaysconverge smoothly to its mathematical expectation. That is not the case in thestochastic autoregression, just because the innovation variance, of 25, is largerelative to the distance between the initial condition, 150, and the mathematicalexpectation, 100. The reader can check how reducing the standard deviationused in column S from 5 to 0.5, the pattern of the time series changes drastically,and the convergence process becomes then evident.Panel 7 contains realizations for second order autoregressions. The rst twocolumns present sample realizations from stationary autoregressions,Model 1: j| = 10 .6j|l .8j|2 -|, -| ~ (0, 1) (3)Model 2: j| = 80 1.2j|l.j|2 -|, -| ~ (0, 1) (4)and are represented in an enclosed graph. The two time series display uc-tuations around their sample mean of 100, which they cross a number of times.The second time series, represented in red in the graph can be seen to exhibita more evident stationary behavior, with more frequent crosses with the mean.The next three columns present realizations for nonstationary second order au-toregressions. There is an important dierence between them: the rst twocorrespond to processes:Model 3 : j| = .7j|l .8j|2 -|, -| ~ (0, 1) (5)Model 4 : j| = 1.j|l.j|2 -|, -| ~ (0, 1) (6)5Or signicantly increasing the innovation variance. What are the dierences beetwen bothcases in terms of the values taken by the process?32that contain exactly a unit root, the second one being stable.6The rots ofthe characteristic equation for Model 3 are 1 and -0.3, while those for Model 2are 1 and 0.5. The last autoregressionModel 5 : j| = .8j|l 1.2j|2 -|, -| ~ (0, 1) (7)has a root greater than one, which produces an explosive behavior. The tworoots are -0.95 and 1.25.The Impulse responses spreadsheet contains the responses to a unit shockfor the stochastic processes considered above: a random walk, three rst-orderautoregressions, two stationary second-order autoregressions, and three nonsta-tionary second-order autoregressions. The innovation in each process is sup-posed to take a zero value in each case for ten periods, to be equal to 1, thestandard deviation assumed for the innovation in all cases at t

= 11, and beagain equal to zero afterwards. We compare that to the case when the in-novation is zero at all time periods. Impulse responses are computed as thedierence between the time paths followed by each process under the scenariowith a shock at t

= 11, and in the absence of that shock. The rst-orderautoregressions are supposed to start from an initial condition j0 = 100, whentheir mathematical expectations is zero, so in the absence of any shock, theyfollow a smooth trajectory gradually converging to zero at a speed determinedby its autoregressive coecient. The second order autoregressions are assumedto start from j0 = jl = 100, which is also their mathematical expectations. So,in the absence of any shock, the processes would stay at that value forever.7The rst graph to the right displays impulse responses for a random walkas well as for the three rst order autoregressions considered above, with coe-cients 0.99, 0.95 and 0.30. A random walk has the constant, permanent impulseresponse that we mentioned above when describing this process. The responsesof the rst order autoregressions can be seen to gradually decrease to zero fromthe initial unit value. The response is shorter the lower it is the autoregres-sive coecient. For high autoregressive coecients, the process shows strongpersistence, which makes the eects of the shock to last longer.The second graph shows the impulse responses of the two stationary second-order autoregressions. As the reader can easily check, the characteristic equationfor Model 1 has roots -0.32 and 0.92, so it is relatively close to nonstationarity.The characteristic equation for Model 2 has roots 0.6 0.874 17i, with modulus0.5.This dierence shows up in a much more persistent response of Model 1.The complex roots of Model 2 explain the oscillatory behavior of the impulseresponse of this model.The third graph displays impulse responses for the three nonstationary sec-ond order autoregressions. In the two cases when there is a unit root (Models6The two polynomials can be written as 1o11o212= (11)(1A1), the secondroot being 1A. The reader just need to nd the value of A in each case.7We could have done otherwise, like starting the rst-order autoregresisons at their mathe-matical expectation, and the second-order autoreegressions outside their expected values. Thereader can experiment with these changes.333 and 4), the graph shows a permanent response to the purely transitory, one-period shock. The response of Model 5 is explosive because of having one rootabove 1, and its values are shown on the right Y-axis.3.4 Stationarity Wald decomposition: Any linearly regular stochastic process j| admits arepresentation:j| = )(t) 1

s=0as-|swith -| white noise, and a: = 0 for :r, for some r, possibly innite.In this representation )(t) is a purely deterministic function, i.e., it is perfectlypredictable from its own past, and other than for this component, the stochasticprocess j| admits a possibly innite MA representation.But we also know that such a MA representation can be inverted, providedthe roots of the lag polynomial satisfy the appropriate requirements, to obtaina possibly innite AR representation.A stochastic process is said to have a unit root if the characteristic equationof its AR representation has such a root. A stochastic process may have morethan one unit root.The rst dierence of a process having a unit root is stationary. A stochasticprocess is said to be integrated of order d, if its d-th order dierence is stationary.Characteristics of a stationary process: It has nite variance Its simple and partial autocorrelation functions converge to zero quickly The time series realization crosses its sample mean level often A one-period shock has purely transitory eects Its forecast converges to its mathematical expectations as the forecasthorizon goes to innityCharacteristics of a non-stationary stochastic process Its variance increases with the sample size Its autocorrelation functions do not go to zero quickly The number of periods between successive crosses with its sample meanis innity A one-period shock has permanent eects Its forecast does not converge to its mathematical expectation as the fore-cast horizon goes to innity343.5 Valoracin por simulacinLa valoracin de una opcin mediante simulacin se ajusta a la idea generalde simular el precio del subyacente desde el instante en que se valora la opcinhasta el vencimiento de la misma. En el caso de una opcin Europea, basta conconsiderar en cada simulacin el precio resultante al nal de la serie temporalsimulada, que coincide con el instante de vencimiento de la opcin. Mediante unelevado nmero de realizaciones simuladas, podemos aproximar la distribucinde probabilidad del precio del activo subyacente al vencimiento de la opcin. Deeste modo, obtenemos el valor intrnseco de la opcin a vencimiento para cadarealizacin y, por tanto, una aproximacin a la distribucin de probabilidad dedicho valor intrnseco. De dicha distribucin de probabilidad inferimos un pre-cio actual para la opcin a partir de un determinado mecanismo de valoracin:una posibilidad es calcular la esperanza matemtica de la distribucin de prob-abilidad del valor intrnseco a vencimiento, y descontarlo al instante en que seefecta la valoracin.En el caso de otros tipos de opciones, puede utilizarse, en general, un pro-cedimiento anlogo, si bien teniendo en cuenta a) todos los posibles instantes deejercicio, b) el valor intrnseco en cada uno de ellos, c) el descuento apropiadoa utilizar.Sin embargo, hay otras posibilidades: una, interesante, consistira en consid-erar los tipos de inters como estocsticos, y simular simultneamente los tiposde inters y el precio del subyacente, una vez que hubiramos recogido en elmodelo la dependencia entre ambos. Por ejemplo,j|= ,0 ,lr| -|r|= c0 clr|l -2|con (-l|, -2|) ~ __ 00_,_ o2lol2ol2o22__. Tngase en cuenta que, en unmodelo de estas caractersticas, la relacin entre los tipos de inters r| y larentabilidad del activo subyacente j| se produce por dos vas: una, explcita,por la presencia de los tipos en la ecuacin de la rentabilidad; otra, implcita,por la correlacin entre las innovaciones de ambas ecuaciones.En el caso en que la rentabilidad y los tipos tengan estructuras de volatilidadcondicional no trivial, entonces podramos establecer un modelo ARCH bivari-ante, en el que se pueden recoger las dependencias tanto entre rentabilidadescomo entre volatilidades.3.6 Contrastes de camino aleatorioExisten en la literatura distintas deniciones de camino aleatorio,no todasequivalentes entre s. Una denicin requiere que las rentabilidades sean in-dependientes e idnticamente distribuidas.Esta denicin, que puede resultarinteresante en determinados contextos, no lo es tanto cuando tratamos la posiblepredicitibilidad de la serie de rentabilidades. La razn es que una estructura de35heterocedasticidad condicional (la varianza depende en cada perodo de las re-alizaciones recientes de la serie de rentabilidades), por ejemplo, introduce claradependencia temporal, pero no por ello permite predecir la serie de rentabili-dades si, por ejemplo, mantiene una estructura de ruido blanco con este tipo deheterocedasticidad.Una denicin ms general [Granger y Mortensen (1970)] se basa en lascondiciones: a) esperanza matemtica constante y b) ausencia de correlacinserial. En este caso, la prediccin lineal ptima de ua rentabilidad futura es suesperanza incondicional, que estamos suponiendo constante.Si pretendemos contrastar la hiptesis la de que la serie de rentabilidadesobedece una estructura de camino aleatorio, tenemos que introducir condicionesadicionales [ver Lo y MacKinlay (1988)].Una tercera denicin [Samuelson (1965)] es: 1[r|l,1|[ = j para ciertaconstante j y para todo instante t y toda historia pasada: 1| = r|I, i _ 0.La tercera denicin implica la segunda, siempre que las rentabilidades ten-gan varianza nita. La diferencia entre ambas es menor. Los contrastes decamino aleatorio que utilizan funciones de autocorrelacin se basan en la se-gunda denicin. Suponiendo varianza nita, si un test de este tipo rechaza lasegunda denicin, rechaza tambin la tercera denicin.3.6.1 Coecientes de autocorrelacinLa manera ms directa de contrastar si un determinado proceso estocstico tienenaturaleza de camino aleatorio, o lo que es lo mismo, la hiptesis de martingala,es analizando los coecientes de correlacin entre dos variables constituyentes dedicho proceso estocstico en dos instantes distintos de tiempo. Bajo la hiptesisnula, todos los coecienets de autocorrelacin deberan ser nulos, lo que complicaen cierta medida el diseo del contraste, pues el nmero de hiptesis a contrastares potencialmente ilimitado. Pero, una vez ms, para llevar a cabo el contrastenos habremos de servir de sus anlogos muestrales, en cuyo clculo perdemosobservaciones muestrales, por el hecho de tener que retardar la serie temporalde datos.Fuller (1976) caracteriza la distribucin asinttica del vector de los :primeroscoecientes de autocorrelacin, siendo sta Normal multivariante:_T j| (0, 1) (8)En muestras nitas, si el proceso estocstico tiene estructura de caminoaleatorio (RW1-Taylor antiguo), con varianza nita o2y momentos de ordenseis nitos, se tiene:1 ( j|) = T /T(T 1) O(T2)\ ar( j|) =T /T2O(T2)Co ( j|, jl) = O(T2)36Por tanto, los coecientes de autocorrelacin muestrales de un camino aleato-rio estn sesgados a la baja.8En muestras pequeas, tal sesgo puede ser impor-tante. Para evitar el sesgo, Fuller (1976) propone la correccin: j| = j| T /(T 1)2_1 j2|_,con:TT / j| (0, 1)1 ( j|) = O(T2)3.6.2 Contrastes PortmanteauPara recoger adecuadamente un concepto de camino aleatorio que implica quetodos los coecientes de autocorrelacin son cero, Box y Pierce (1970) pro-pusieron un contraste conjunto basado en el estadstico:Qn =n

|=lj2|Bajo la hiptesis nula (RW1), (8) implica que:Qn =

n|=l j2| se distribuyecomo una 2n. Ljung y Box (1978) propusieron una correccin en muestrasnitas:Q0n = T(T 2)n

|=lj2|T /Al agregar los coecientes de autocorrelacin al cuadrado, el contraste tienepotencia frente a diversas alternativas. Sin embargo, la eleccin del orden :es ambigua, y puede condicionar los resultados del contraste. Si se utiliza un: pequeo, puede no detectarse la autocorrelacin de orden superior. Si seutiliza : grande, el contraste pierde potencia debido a la acumulacin de auto-correlaciones no signicativas. Si se dispone de una alternaitva concreta, puededisearse un contarste con mejores propiedades estadsticas.3.6.3 Ratios de varianzaRecordando que las rentabilidades continuas son aditivas, es decir, que la rentabil-idad sobre 2 perodos es la suma de las rentabilidades sobre cada uno de ellos:r2| = rl| rl|l, tenemos la razn de varianzas a 2 perodos,8La razn es que un coeciente de autocorrelacin se estima mediante productos cruzadosde desviaciones respecto de la media muestral. Como dichas desviaciones suman cero, unadesviacin positiva tender a venir seguida de desviaciones negativas, y viceversa.371\ (2) =\ ar(r2|)2\ ar(rl|) = \ ar(rl| rl|l)2\ ar(rl|)= 2\ ar(r|) 2Co(rl|, rl|l)2\ ar(rl|)= 1 jlque est determinada por el primer valor de la funcin de autocorrelacinsimple.Si las rentabilidades son ruido blanco (white noise), el coeciente de auto-correlacin de orden 1 es igual a cero, y la razn de varianzas es igual a 1. Conautocorrelacin positiva, la razn de varianzas ser mayor que uno, siendo infe-rior a la unidad si las rentabilidades estn negativamente autocorrelacionadas,lo que es infrecuente en datos nancieros.Para contrastar la signicatividad de este estadstico, puede utilizarse ladistribucin asinttica:_2:(1\ (2) 1) ~ (0, 2)que sugiere que,1\ (2) ~ (1, 1:)por lo que, manteniendo un 95% de conanza, la razn de varianzas de orden2 no debera separarse de 1.0 en ms del doble del inverso del tamao muestral.Existe un contraste ms amplio, que incorpora los coecientes de autocor-relacin hasta orden . La razn de varianzas es entonces:1\ () =\ ar(rj|)\ ar(rl|) = 1 2jl

I=l_1 i_jIque muestra que el ratio de varianzas 1\ () es una combinacin lineal delos 1 primeros coecientes de autocorrelacin, tomados con ponderacionesdecrecientes. En el caso = 2 tenemos la expresin que antes vimos para 1\ (2).Nuevamente, si el proceso es ruido blanco, el ratio de varianzas 1\ () es iguala 1 para todo .Si, por ejemplo, se trata de un proceso autoregresivo de primer orden,r| = cr|l -|se tiene:1\ () = 1 2jl

I=l_1 i_jI = 1 21 c_c cj c cj(1 c)_una expresin que puede utilizarse para disear un contraste de caminoaleatorio teniendo una estructura AR(1) como hiptesis alternativa.383.6.4 Ratios y diferencias de varianzasA partir de una serie de precios 1|, t = 0, 1, ..., 2:, de longitud 2: 1, si deno-tamos por j| a la serie de logaritmos, j| = ln(1|), t = 1, 2, ..., 2:.Supongamos elmodelo:j| = j -|, -| ~ i., i.d., (0, o2)tenemos los estimadores de j y o2: j = r =12:2n

I=l(j|j|l) =12:(j2nj0) o2o=12:2n

I=l(j|j|l j)2 o2b=12:n

I=l(j2|j2|22 j)2done o2b hace uso de la naturaleza de camino aleatorio de r| bajo la hiptesisnula, puesto que la varianza puede entonces estimarse a partir de la mitad delos incrementos de las observaciones de orden par. Los tres estimadores sonconsistentes:_2:_ ooo2_ ~ (0, 2od)_2:_ obo2_ ~ (0, 4od)Como o2o es un estimador asintticamente eciente bajo la hiptesis nula(RW1), podemos utilizar el clsico argumento de Hausman, para mostrar que lavarianza asinttica de la diferencia de un estimador consistente y un estimadorasintticamente eciente es simplemente la diferencia de las varianzas asintticasde ambos estimadores.por tanto, si denotamos 1\ (2) = o2b o2o, tenemos elestadstico de Diferencia de varianzas de orden 2:_2:1\ (2) ~ (0, 2od)por lo que la hiptesis nula de camino aleatorio puede contrastarse utilizandocualquier estimador consistente de odcomo, por ejemplo, 2_ o2o_2. Entonces, elestadstico estandarizado,_:1\ (2),_ odsigue una distribucin N(0,1) bajo lahiptesis nula.De modo similar, el estadstico de razn de varianzas que se obtiene mediante1\ (2) = o2b, o2o sigue una distribucin:_2:(1\ (2) 1) ~ (0, 2)39como puede probarse a partir de una aproximacin de Taylor de primer ordeno mediante el llamado mtodo delta.En consecuencia, el estadstico estandarizado_2:(1\ (2)1),_2 =_:(1\ (2)1) sigue una distribucin (0, 1). Lo y MacKinley (1988) sugieren utilizar uncontraste basado en esta distribucin.Sin embargo, aunque suele preferirse elestadstico ratio de varianzas al de diferencia de varianzas, por estar libre de es-cala, ambos conducen a las mismas conclusiones, puesto que si se utiliza 2_ o2o_2para estimar 2od, se tiene:1\ (2)_ od= o2b o2o o2o= _1\ (2) 1_~ _0, 1:_La potencia de este tipo de contrastes aumenta si se reduce la posible pres-encia de heterocedasticidad en los datos.Las deniciones y estadisticos pueden extendersea intervalos de ms de 2perodos, con: j = r =1:2j

|=l(j|j|l) =1:(jjnj0) o2o=1:jn

|=l(j|j|l j)2 o2b=1:n

|=l(jj|jj|j j)2y las distribuciones:_:1\ () ~ (0, 2( 1)od)_:(1\ () 1) ~ (0, 2( 1))siendo el nmero de perodos. Dos renamientos mejoran las propiedadesde muestras nitas de estos contrastes. Uno consiste en estimar: o2c =12:nj

|=j(j|j|j j)2y el segundo en corregir un sesgo en los estimadores o2o y o2c antes de dividiruno por otro.4 Modelos VAR4.1 IntroduccinUtilizamos un modelo del tipo vector autoregresivo (VAR) cuando queremoscaracterizar las interacciones simultneas entre un grupo de variable. Un VAR40es un modelo de ecuaciones simultneas formado por un sistema de ecuacionesde forma reducida sin restringir. Que sean ecuaciones de forma reducida quieredecir que los valores contemporneos de las variables del modelo no aparecencomo variables explicativas en las distintas ecuaciones. El conjunto de varia