Upload
cengage-learning-editores
View
345
Download
1
Embed Size (px)
DESCRIPTION
Este libro constituye un valioso aporte de Eduardo Court y Erick Rengifo a la literatura financiera, ya que presentan de manera muy sencilla y didáctica, los aspectos fundamentales de la teoría estadística y su aplicación a las distintas herramientas y modelos que utilizan los agentes financieros. El mundo moderno genera cada vez más instrumentos y operativas financieras de mayor complejidad y sofisticación. Esto exige a su vez entender y explicar la determinación y medición de los nuevos riesgos que se derivan de ellos, es aquí que las herramientas y modelos (econometría financiera) se constituyen como un buen soporte para la toma de decisiones. Considero este libro de mucha importancia y de lectura necesaria, desde estudiantes hasta profesionales que estén involucrados en el mundo de las finanzas.
Citation preview
ESTADÍSTICAS Y ECONOMETRÍA
FINANCIERA
EDUARDO COURT & ERICK RENGIFO
Revisión Técnica Lic. Enrique Fernando Zabos Pouler
Estadísticas y Econometría Financiera
Court, Eduardo & Rengifo, Erick
Directora General Susana de Luque
Coordinadora de Edición y Producción Luciana Rabuffetti
Edición y Revisión Técnica Lic. Enrique Fernando Zabos Pouler
Diseño Sebastián Escandell Verónica De Luca
Copyright D.R. 2011 Cengage Learning Argentina, una división de Cengage Learning Inc.Cengage Learning™ es una marca registrada usada bajo permiso. Todos los derechos reservados.
Rojas 2128. (C1416CPX) Ciudad Autónoma de Buenos Aires, Argentina. Tel: 54 (11) 4582-0601
Para mayor información, contáctenos en www.cengage.com o vía e-mail a: [email protected]
Impreso en MetroColor S.A. Tirada de 1000 ejemplares
Impreso en Perú
Court, Eduardo & Rengifo, Erick
Estadísticas y Econometría Financiera
1a ed. - Buenos Aires, Cengage Learning Argentina, 2011. 612 p.; 21x27 cm.
ISBN 978-987-1486-48-9
1. Econometría. 2. Estadística. 3. Enseñanza Superior. I. Rengifo Minaya, Erick Williams. II. Título.
CDD 330.015 195
Fecha de catalogación: 14/03/2011
División Latinoamérica
Cono Sur Rojas 2128 (C1416CPX) Ciudad Autónoma de Buenos Aires, Argentina www.cengage.com.ar
México Corporativo Santa Fe 505, piso 12 Col. Cruz Manca, Santa Fe 05349, Cuajimalpa, México DF www.cengage.com.mx
Pacto Andino: Colombia, Venezuela y Ecuador Cra. 7 No. 74-21 Piso 8 Ed. Seguros Aurora Bogotá D.C., Colombia www.cengage.com.co
El Caribe Metro Office Park 3 - Barrio Capellania Suite 201, St. 1, Lot. 3 - Code 00968-1705 Guaynabo, Puerto Rico www.cengage.com
Queda prohibida la reproducción o transmisión total o parcial del texto de la presente obra bajo cualesquiera de las formas, electrónica o mecánica, incluyendo fotocopiado, almacenamiento en algún sistema de recuperación, digitalización, sin el permiso previo y escrito del editor. Su infracción está penada por las leyes 11.723 y 25.446
PARTE
1
Índice
ACERCA DE LOS AUTORES ...................................................................................................................................................................... I PRÓLOGO .........................................................................................................................................................................................................III
Capítulo 1 Estadística descriptiva ............................................................................................................................................11. INTRODUCCIÓN A LAS ESTADÍSTICAS ...........................................................................................................................................12. COLECCIÓN DE DATOS (MUESTREO) ................................................................................................................................................3
2.1. El muestreo probabilístico ...........................................................................................................................................................3 2.1.1. Muestreo aleatorio simple ................................................................................................................................................4 2.1.2. Muestreo sistemático .........................................................................................................................................................5 2.1.3. Muestreo estratificado simple ........................................................................................................................................5
2.2. El muestreo no probabilístico ....................................................................................................................................................6 2.2.1. Muestreo basado en el juicio del analista ...................................................................................................................6 2.2.2. Muestreo basado en la facilidad de acceso a los elementos que forman la base del estudio ..............6 2.2.3. Muestreo basado en un propósito específico ...........................................................................................................63. DISTRIBUCIÓN DE FRECUENCIAS ......................................................................................................................................................74. MEDIDAS DE TENDENCIA CENTRAL .............................................................................................................................................. 11
4.1. El promedio o media ..................................................................................................................................................................... 11 4.2. El promedio ponderado .............................................................................................................................................................. 12 4.3. La mediana ........................................................................................................................................................................................ 13 4.4. La moda .............................................................................................................................................................................................. 13
5. MEDIDAS DE DISPERSIÓN ................................................................................................................................................................... 13 5.1. El rango ................................................................................................................................................................................................14 5.2. Los cuartiles ......................................................................................................................................................................................14
5.3. La desviación media absoluta (DMA) ...................................................................................................................................16 5.4. La varianza y la desviación estándar ................................................................................................................................. 18 5.5. La variable estandarizada (z) .................................................................................................................................................. 20 5.6. Coeficiente de variación ............................................................................................................................................................ 21
6. MEDIDAS DE ASOCIACIÓN ................................................................................................................................................................... 22 6.1. El diagrama de series de tiempo ........................................................................................................................................... 22 6.2. El diagrama de dispersión ......................................................................................................................................................... 22 6.3. El coeficiente de correlación ................................................................................................................................................... 26 6.4. El coeficiente de variación ........................................................................................................................................................ 28
7. PROBLEMAS PROPUESTOS................................................................................................................................................................ 288. ECUACIONES DEL CAPÍTULO ..............................................................................................................................................................31
Capítulo 2 Probabilidades ................................................................................................................................................................. 351. INTRODUCCIÓN .......................................................................................................................................................................................... 352. DEFINICIONES ............................................................................................................................................................................................. 35
2.1. Experimento ..................................................................................................................................................................................... 36 2.2. Variable aleatoria (VA) ................................................................................................................................................................ 36
2.2.1. Variables aleatorias discretas ....................................................................................................................................... 36 2.2.2. Variables aleatorias continuas ..................................................................................................................................... 36
2.3. Espacio muestral............................................................................................................................................................................ 37 2.4. Evento ................................................................................................................................................................................................. 37 2.5. Probabilidad ...................................................................................................................................................................................... 37
3. MÉTODOS PARA CALCULAR LAS PROBABILIDADES ......................................................................................................... 37 3.1. Método clásico ................................................................................................................................................................................. 38 3.2. Método basado en las frecuencias relativas .................................................................................................................. 38 3.3. Método subjetivo ........................................................................................................................................................................... 40
4. CONTEO ........................................................................................................................................................................................................... 40 4.1. El principio de multiplicación ................................................................................................................................................... 40 4.2. Permutaciones .................................................................................................................................................................................41 4.3. Combinaciones .................................................................................................................................................................................41
5. TEORÍA DE CONJUNTOS Y PROBABILIDADES ........................................................................................................................ 42 5.1. Intersección ...................................................................................................................................................................................... 42 5.2. Unión .................................................................................................................................................................................................... 43 5.3. Conjuntos mutuamente excluyentes ................................................................................................................................. 43 5.4. Regla de la suma ............................................................................................................................................................................ 43 5.5. Tablas de contingencias ............................................................................................................................................................. 43 5.6. Diagrama del árbol ........................................................................................................................................................................ 45 5.7. Probabilidad marginal .................................................................................................................................................................. 45 5.8. Probabilidad conjunta ................................................................................................................................................................. 46 5.9. Probabilidad condicional ............................................................................................................................................................ 46 5.10. La regla de la multiplicación......................................................................................................................................................47 5.11. Regla de la multiplicación de eventos independientes ..............................................................................................47
6. EL TEOREMA DE BAYES .........................................................................................................................................................................47
7. INDEPENDENCIA ESTADÍSTICA ........................................................................................................................................................ 49 7.1. La independencia estadística y el tipo de muestreo ................................................................................................. 50
7.1.1. Muestreo con reemplazo ................................................................................................................................................ 50 7.1.2. Muestreo sin reemplazo...................................................................................................................................................518. DISTRIBUCIONES DE PROBABILIDAD .......................................................................................................................................... 52
8.1. Distribuciones de probabilidad discretas.......................................................................................................................... 52 8.1.1. Esperanza matemática .................................................................................................................................................... 53 8.1.2. La varianza y la desviación estándar ......................................................................................................................... 54 8.1.3. La covarianza ...................................................................................................................................................................... 54 8.1.4. El coeficiente de correlación ......................................................................................................................................... 55
8.2. Distribuciones de probabilidad continuas ........................................................................................................................ 569. PROBLEMAS PROPUESTOS................................................................................................................................................................ 5710. ECUACIONES DEL CAPÍTULO ..............................................................................................................................................................61
Capítulo 3 Funciones de distribución de probabilidad discretas ................................................. 651. INTRODUCCIÓN .......................................................................................................................................................................................... 652. DISTRIBUCIÓN BINOMIAL .................................................................................................................................................................... 663. DISTRIBUCIÓN HIPERGEOMÉTRICA .............................................................................................................................................. 724. DISTRIBUCIÓN DE POISSON .............................................................................................................................................................. 755. PROBLEMAS PROPUESTOS................................................................................................................................................................ 786. ECUACIONES DEL CAPÍTULO ............................................................................................................................................................. 82
Capítulo 4 Distribuciones de probabilidad continuas .................................................................................. 851. INTRODUCCIÓN .......................................................................................................................................................................................... 852. LA DISTRIBUCIÓN UNIFORME .......................................................................................................................................................... 873. LA DISTRIBUCIÓN EXPONENCIAL .................................................................................................................................................. 894. LA DISTRIBUCIÓN NORMAL ................................................................................................................................................................915. APROXIMACIÓN DE LA DISTRIBUCIÓN BINOMIAL USANDO LA NORMAL ..........................................................1026. LA DISTRIBUCIÓN CHI CUADRADA ..............................................................................................................................................1077. LA DISTRIBUCIÓN T DE STUDENT ...............................................................................................................................................1118. LA DISTRIBUCIÓN F DE FISHER .....................................................................................................................................................1169. LAS DISTRIBUCIONES DE PROBABILIDAD MUESTRAL ..................................................................................................118
9.1 Distribución muestral de la media y de la proporción .............................................................................................12010. PROBLEMAS PROPUESTOS..............................................................................................................................................................12611. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................131
Capítulo 5 Estadística inferencial: Intervalos de confianza ..............................................................1371. INTRODUCCIÓN ........................................................................................................................................................................................1372. DEFINICIONES ...........................................................................................................................................................................................1383. ESTIMACIÓN PUNTUAL .......................................................................................................................................................................1404. INTERVALOS DE CONFIANZA ..........................................................................................................................................................142
4.1. Intervalos de confianza para la media poblacional (μ) cuando la varianza poblacional (σ2) es conocida .........................................................................................................143
4.2. Intervalos de confianza para la media poblacional (μ) cuando la varianza poblacional no es conocida ...........................................................................................................148
4.3. Intervalos de confianza para el caso de las proporciones ....................................................................................1525. AJUSTES CUANDO EL TAMAÑO DE LA POBLACIÓN ES PEQUEÑA ...........................................................................1546. DETERMINACIÓN DEL TAMAÑO DE LA MUESTRA .............................................................................................................1557. PROBLEMAS PROPUESTOS..............................................................................................................................................................1608. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................163
Capítulo 6 Estadística inferencial: Pruebas de hipótesis para la media ...........................1671. INTRODUCCIÓN ........................................................................................................................................................................................1672. DEFINICIONES ...........................................................................................................................................................................................1673. PRUEBAS DE HIPÓTESIS .................................................................................................................................................................... 171
3.1. Pruebas de hipótesis para la media poblacional (μ), cuando la varianza poblacional (σ 2 ) es conocida ........................................................................................................ 171
3.2. Pruebas de hipótesis para la media poblacional (μ), cuando la varianza poblacional no es conocida ...........................................................................................................177
3.3. Pruebas de hipótesis para las proporciones .................................................................................................................1834. PROBLEMAS PROPUESTOS..............................................................................................................................................................1875. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................191
Capítulo 7 Estadística inferencial: Aplicaciones de la chi cuadrada.......................................1931. INTRODUCCIÓN ........................................................................................................................................................................................1932. PRUEBAS DE HIPÓTESIS DE LA VARIANZA POBLACIONAL ........................................................................................1933. OTRAS APLICACIONES DE LA CHI CUADRADA ....................................................................................................................200
3.1. Independencia estadística ......................................................................................................................................................200 3.2. Pruebas de bondad de ajuste ...............................................................................................................................................203
4. PROBLEMAS PROPUESTOS..............................................................................................................................................................2145. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................219
Capítulo 8 Fundamentos de álgebra lineal .............................................................................................................2231. INTRODUCCIÓN ........................................................................................................................................................................................2232. GENERALIDADES.....................................................................................................................................................................................2243. TIPOS ESPECIALES DE MATRICES ................................................................................................................................................224
3.1. Vectores ...........................................................................................................................................................................................224 3.2. Matriz cuadrada ............................................................................................................................................................................224 3.3. Matriz nula .......................................................................................................................................................................................224 3.4. Matriz identidad ...........................................................................................................................................................................225 3.5. Matriz simétrica ............................................................................................................................................................................225
4. OPERACIONES MATRICIALES BÁSICAS ....................................................................................................................................225 4.1. Matrices transpuestas ..............................................................................................................................................................225 4.2. Suma de matrices ........................................................................................................................................................................226 4.3. Multiplicación de matrices ......................................................................................................................................................226 4.4. Multiplicación escalar ................................................................................................................................................................228 4.5. Producto escalar ..........................................................................................................................................................................228
4.6. Traza de una matriz ...................................................................................................................................................................2295. EL DETERMINANTE DE UNA MATRIZ .........................................................................................................................................229
5.1. Matriz singular ..............................................................................................................................................................................2316. MATRIZ INVERSA ....................................................................................................................................................................................2327. MATRICES IDEMPOTENTES ..............................................................................................................................................................2348. SISTEMA DE ECUACIONES .................................................................................................................................................................2359. DEPENDENCIA LINEAL ........................................................................................................................................................................23610. DERIVADA DE MATRICES ..................................................................................................................................................................23711. PROBLEMAS PROPUESTOS..............................................................................................................................................................23912. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................241
Capítulo 9 El modelo de mínimos cuadrados ordinarios (MCO) univariado..................2471. INTRODUCCIÓN ........................................................................................................................................................................................2472. EL DIAGRAMA DE DISPERSIÓN Y EL MODELO DE MCO UNIVARIADO ...................................................................2483. SUPUESTOS DEL MODELO DE MCO .............................................................................................................................................2554. EL MODELO DE MCO UNIVARIADO ...............................................................................................................................................2605. EL COEFICIENTE DE DETERMINACIÓN (R2) .............................................................................................................................2676. EL ERROR ESTÁNDAR ..........................................................................................................................................................................2717. EL ANÁLISIS DE VARIANZA (ANVA) ............................................................................................................................................2728. PRUEBA DE HIPÓTESIS INDIVIDUALES DE LOS COEFICIENTES DE LA REGRESIÓN .....................................2759. APLICACIÓN USANDO EVIEWS ......................................................................................................................................................281
9.1. Creación de hoja de trabajo e importación de datos ...............................................................................................281 9.2. Análisis preliminar de los datos ...........................................................................................................................................285 9.3. El modelo de MCO ........................................................................................................................................................................289 9.4. Testeo del modelo de equilibrio de activos financieros (Capital Asset Pricing Model - CAPM) ........290
10. PROBLEMAS PROPUESTOS..............................................................................................................................................................29611. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................299
Capítulo 10 El modelo de mínimos cuadrados ordinarios (MCO) multivariado .......3051. INTRODUCCIÓN ........................................................................................................................................................................................3052. EL MODELO DE MCO MULTIVARIADO .........................................................................................................................................3063. PRUEBAS DE BONDAD DE AJUSTE: EL COEFICIENTE DE DETERMINACIÓN (R2) ............................................3114. VARIANZA DE LOS ERRORES ESTIMADOS .............................................................................................................................3125. LA VARIANZA DE LOS ESTIMADORES .......................................................................................................................................3136. PROPIEDADES DE LOS COEFICIENTES ESTIMADOS POR EL MODELO DE MCO ...............................................314
6.1. Insesgamiento ...............................................................................................................................................................................315 6.2. Eficiencia ..........................................................................................................................................................................................315 6.3. Consistencia ...................................................................................................................................................................................315
7. APLICACIÓN: EL MODELO DE VALORACIÓN POR ARBITRAJE (MVA) .....................................................................3168. HIPÓTESIS LINEALES ...........................................................................................................................................................................3219. VARIABLES CUALITATIVAS ..............................................................................................................................................................325
9.1. Variables dummy y los valores extremos (outliers) .................................................................................................32910. NO LINEALIDAD DE LA RELACIÓN ENTRE “Y” Y “X”: REGRESIÓN POLINOMIAL ............................................33211. PROBLEMAS PROPUESTOS..............................................................................................................................................................335
12. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................34013. APÉNDICE ....................................................................................................................................................................................................341
13.1. Derivación algebraica de la varianza de los errores.................................................................................................341 13.2. Derivación de la varianza de los parámetros ...............................................................................................................343 13.3. Demostración formal de las propiedades estadísticas de los parámetros estimados ..........................344
Capítulo 11 Prueba de los supuestos del modelo de MCO ...............................................................3471. INTRODUCCIÓN ........................................................................................................................................................................................3472. SUPUESTOS DEL MODELO DE MCO: UN REPASO ...............................................................................................................3483. SUPUESTO 1: LINEALIDAD ................................................................................................................................................................3494. SUPUESTO 2: E(ε) = 0 ..........................................................................................................................................................................3525. SUPUESTO 3A: HOMOCEDASTICIDAD, VAR(ε) = σ 2 .......................................................................................................352
5.1. El test de heterocedasticidad de White ..........................................................................................................................353 5.2. Consecuencias de la heterocedasticidad ........................................................................................................................357
6. SUPUESTO 3B: NO AUTOCORRELACIÓN, COV(ΕI ΕJ) = 0 ...........................................................................................360 6.1. Posibles causas de la autocorrelación de los errores ..............................................................................................361 6.2. El Test de Durbin-Watson .......................................................................................................................................................361 6.3. El test de Breusch-Godfrey ...................................................................................................................................................363 6.4. Consecuencias de la autocorrelación ...............................................................................................................................365 6.5. Errores estándar ajustados por autocorrelación y heterocedasticidad:
El método de Newey-West .....................................................................................................................................................366 6.6. Mala especificación de la dinámica del modelo ...........................................................................................................367
7. SUPUESTO 4: Ε ~ N(0, Σ 2) ...............................................................................................................................................................368 7.1. El test de normalidad de Jarque-Bera ..............................................................................................................................369 7.2. Consecuencias de no normalidad de los errores ........................................................................................................370 7.3. Posibles causas de no normalidad......................................................................................................................................370
8. SUPUESTO 5: ORTOGONALIDAD ..................................................................................................................................................3719. OTROS PROBLEMAS ASOCIADOS AL MODELO DE MCO .................................................................................................371
9.1. Multicolinealidad ..........................................................................................................................................................................371 9.1.1. Consecuencias de cuasi multicolinealidad .............................................................................................................372 9.1.2. Soluciones al problema de cuasi multicolinealidad .............................................................................................372
9.2. Forma funcional ...........................................................................................................................................................................373 9.2.1. Consecuencias de errores de especificación funcional ..................................................................................373 9.2.2. El test de Ramsey ...........................................................................................................................................................373
9.3. Omisión de variables importantes .....................................................................................................................................375 9.4. Variables redundantes .............................................................................................................................................................377 9.5. Estabilidad de los parámetros estimados ......................................................................................................................379
9.5.1. El test de estabilidad de Chow ...................................................................................................................................380 9.5.2. Test de errores de predicción ......................................................................................................................................38310. PROBLEMAS DEL CAPÍTULO ............................................................................................................................................................38711. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................39012. APÉNDICE ....................................................................................................................................................................................................394
12.1. El modelo de mínimos cuadrados generalizados ........................................................................................................394 12.2. El método de Cochrane-Orcutt ............................................................................................................................................396
Capítulo 12 Modelos de series de tiempo ...............................................................................................................3991. INTRODUCCIÓN ........................................................................................................................................................................................3992. PROCESOS ESTACIONARIOS ............................................................................................................................................................400
2.1. Estacionariedad estricta .........................................................................................................................................................400 2.2. Estacionariedad débil ................................................................................................................................................................401
3. LA AUTOCOVARIANZA, LA AUTOCORRELACIÓN Y EL CORRELOGRAMA............................................................402 3.1. El proceso de ruido blanco ......................................................................................................................................................403 3.2. Pruebas de autocorrelación ..................................................................................................................................................403
4. MODELO DE MEDIAS MÓVILES MA(Q) ........................................................................................................................................4065. MODELOS AUTORREGRESIVOS AR(p) .......................................................................................................................................411
5.1. Estacionariedad de procesos AR(p) ...................................................................................................................................4136. MODELOS ARMA(P,Q) ...........................................................................................................................................................................4207. CRITERIOS DE INFORMACIÓN .........................................................................................................................................................4228. PRONÓSTICOS ..........................................................................................................................................................................................423
8.1. Pronósticos con el modelo AR(p) ........................................................................................................................................424 8.2. Pronósticos con el modelo MA(q) .......................................................................................................................................425 8.3. Pronósticos con el modelo ARMA(p,q) .............................................................................................................................426 8.4. Evaluación de los pronósticos ..............................................................................................................................................427
8.4.1. La media de los errores al cuadrado (Mean Square Error - MSE) ..................................................................428 8.4.2. La media absoluta de los errores (Mean Absolute Error - MAE) ...................................................................428 8.4.3. La media absoluta de errores porcentuales (Mean Absolute Percentage Error - MAPE) ...................428 8.4.4. El coeficiente de desigualdad de Theil (Theil Inequality Coefficient) .........................................................429 8.4.5. Descomposición de los errores de predicción ......................................................................................................4299. LA METODOLOGÍA DE BOX-JENKINS ...........................................................................................................................................43010. PROBLEMAS DEL CAPÍTULO ............................................................................................................................................................43911. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................442
Capítulo 13 Modelos para la volatilidad condicional: Los modelos de heteroscedasticidad condicional autorregresiva .....449
1. INTRODUCCIÓN ........................................................................................................................................................................................4492. MODELOS BÁSICOS DE VOLATILIDAD .......................................................................................................................................4503. MODELOS DE HETEROSCEDASTICIDAD CONDICIONAL AUTORREGRESIVA ......................................................452
3.1. El modelo ARCH(q) ......................................................................................................................................................................453 3.2. Los momentos del modelo ARCH ........................................................................................................................................454 3.3. Detección de la presencia de los efectos ARCH .........................................................................................................455 3.4. El modelo ARCH generalizado, GARCH(p,q) ...................................................................................................................457 3.5. El modelo ARCH-M ......................................................................................................................................................................463
4. LA CURVA DE IMPACTO DE LAS NOTICIAS .............................................................................................................................465 4.1. El modelo TARCH .........................................................................................................................................................................466 4.2. El modelo EGARCH ......................................................................................................................................................................470 4.3. Modelo de componentes ARCH ...........................................................................................................................................476
5. EL PRONÓSTICO DE LA VOLATILIDAD .......................................................................................................................................4806. PROBLEMAS DEL CAPÍTULO ............................................................................................................................................................4847. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................486
8. APÉNDICE ....................................................................................................................................................................................................490 8.1. La ecuación para la media condicional .............................................................................................................................491 8.2. La ecuación para la varianza condicional .......................................................................................................................491 8.3. El modelo ARCH ............................................................................................................................................................................491 8.4. El modelo GARCH(1,1) como un modelo ARMA(1,1) ...................................................................................................495
................................................................496
Capítulo 14 Modelos de Series de Tiempo Multivariados y el Concepto de Cointegración ........................................................................................................499
1. INTRODUCCIÓN ........................................................................................................................................................................................4992. ESTACIONARIEDAD ...............................................................................................................................................................................500
2.1. Tipos de no estacionariedad .................................................................................................................................................501 2.1.1. No estacionariedad en tendencia .............................................................................................................................501 2.1.2. No estacionariedad estocástica ................................................................................................................................504 2.1.3. Diferenciar una serie no estacionaria en tendencia ..........................................................................................505
2.2. Métodos visuales para la detección de no estacionariedad.................................................................................506 2.3. El método aumentado de Dickey-Fuller (ADF) .............................................................................................................507
3. EL MODELO AUTORREGRESIVO MÚLTIPLE (VAR) ..............................................................................................................511 3.1. Generalidades ................................................................................................................................................................................511 3.2. Determinación del orden de rezagos del modelo VAR............................................................................................515 3.3. Interpretación de los resultados obtenidos con el modelo VAR .......................................................................519
3.3.1. Significancia en bloques y la causalidad de Granger .........................................................................................519 3.3.2. Las funciones de impulso-respuesta ......................................................................................................................520 3.3.3. Descomposición de la varianza ..................................................................................................................................524 3.3.4. Pronósticos ........................................................................................................................................................................525
3.4. Una nota de precaución ...........................................................................................................................................................5264. COINTEGRACIÓN .....................................................................................................................................................................................526
4.1. El modelo de corrección de errores ...................................................................................................................................528 4.2. Determinación de la existencia de vectores de cointegración ..........................................................................529
4.2.1. El método de Engle-Granger .......................................................................................................................................529 4.2.2. El método de Johansen ..................................................................................................................................................532
4.3. El modelo VEC: funciones de impulso-respuesta y pronósticos ........................................................................5395. UN EJEMPLO INTEGRAL ......................................................................................................................................................................5446. PROBLEMAS DEL CAPÍTULO ............................................................................................................................................................5557. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................556
Tablas Estadísticas ...............................................................................................................................................561 Distribución binomial: Tablas de frecuencias relativas ........................................................................................................561 Distribución binomial: Tablas de Frecuencias Acumulativas .............................................................................................567 Distribución Poisson: Tablas de Frecuencia Relativa ............................................................................................................572 Distribución Poisson: Tablas de Frecuencia Relativa ............................................................................................................577 Tabla T de Student...................................................................................................................................................................................582 Tabla T de Student...................................................................................................................................................................................583
Tabla T de Student...................................................................................................................................................................................584 Tabla de Distribución Normal Estándar ........................................................................................................................................585 Estadístico de Durbin-Watson (α=0.05) ......................................................................................................................................586
REFERENCIAS BIBLIOGRÁFICAS ...................................................................................................................................................587
CAPÍTULO
1
Estadística descriptiva
1
CAPÍTULO
1
Estadística descriptiva
1. INTRODUCCIÓN A LAS ESTADÍSTICAS
Este capítulo introduce las nociones básicas de la teoría estadística y sus aplicaciones en la economía
y los negocios. Las estadísticas pueden entenderse como el proceso de recopilar, analizar e interpretar
datos y reportar los resultados. Las estadísticas son usadas en una variedad de circunstancias que
van desde aplicaciones en el ámbito gubernamental, medicina, negocios y economía, entre otros.
Se muestran en este capítulo una serie de técnicas estadísticas que brindarán al lector las he-
rramientas necesarias para la mejor toma de decisiones en ambientes de incertidumbre. El enfoque
del capítulo es teórico-práctico. Se presentarán los conceptos estadísticos y su aplicación a casos
concretos. Se desarrollarán ejemplos numéricos y, a su vez, se presentarán de manera detallada la
forma en que estos problemas pueden ser resueltos con el uso de Microsoft Excel.
El primer aspecto que todo analista realiza para cumplir con sus funciones es el entender el
problema a tratar. Entendido el problema se procede a enumerar una serie de hipótesis que serán
materia de estudio o proyecto. Una vez determinadas las hipótesis se procede a ver la disponibilidad
de datos (sean de fuentes primarias o secundarias) y, de acuerdo a esta disponibilidad, se ajustarán
las hipótesis a aquellas que puedan ser efectivamente testeadas y se determinarán los métodos de
adquisición de datos necesarios. Los métodos de adquisición de los datos pueden ir desde simple
recolección primaria de datos propios de la empresa (estados financieros, inventario permanente
valorizado, los registros de compras y ventas entre otros) hasta la determinación y ejecución de en-
trevistas, búsqueda de datos secundarios por internet, etc.
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
2
Acabado el proceso de adquisición de datos, implica para el analista, el comienzo del análisis
estadístico propiamente dicho. El primer aspecto a considerar en esta nueva etapa es entender los
datos, sus principales características y la determinación y localización de posibles errores que se
pudieran haber cometido. En las siguientes secciones se tratará las formas de presentar los datos
que ayuden a tener una primera visión de los mismos mediante el uso de tablas de frecuencias y de
diversos estadísticos de tendencia central, dispersión y asociación.
Antes de proceder, es necesario introducir dos conceptos que serán de gran ayuda para entender
los conceptos y técnicas que se exponen en este capítulo. En estadísticas se conoce a la totalidad de
datos relacionados a una determinada variable como población. El número de elementos en esta
población se denomina N. A cualquier subconjunto de esta población se le conoce como muestra y su tamaño es representado por la letra n. Por ejemplo, si se está interesado en conocer cuál es el
promedio de los salarios de la población entre los 15 y 64 años de edad de los Estados Unidos, N sería
igual a 205.794.364.1 Si se desea tomar una muestra de la población de 10.000 habitantes, entonces
n sería igual a 10.000.
Población y muestra
Población (N) Muestra (n)
En términos prácticos, trabajar con la totalidad de los datos (N ) es poco eficiente y realista
considerando el tiempo, los recursos económico-financieros y los recursos humanos que serían
necesarios para recolectar dicha información. Por lo tanto, y a no ser que el tamaño de la población
sea pequeño y de fácil acceso, se trabaja con muestras poblacionales de tamaño n. Ahora bien, la
selección de la muestra tiene que hacerse con bastante cuidado, tratando que esta sea una muestra representativa de la población, de tal manera que los resultados obtenidos mediante el análisis
estadístico sean válidos, es decir, que sean no sesgados y eficientes. Se desarrollarán con más detalle
estos términos en las siguientes secciones.
El capítulo se encuentra organizado de la siguiente manera: la sección 2 describe los métodos
de recolección de datos más usados; la sección 3 muestra como generar las distribuciones de frecuen-
cias a partir de datos recolectados; finalmente en las secciones 4, 5, y 6 se presentan las medidas de
1 CENTRAL INTELLIGENCE AGENCY, The World FactBook, valores aproximados a julio del 2009.
CAPÍTULO 1 Estadística descriptiva
3
tendencia central, dispersión y de asociación, respectivamente. La sección 7 presenta una serie de
ejercicios propuestos y la sección 8 incluye la lista de las ecuaciones más importantes del capítulo.
2. COLECCIÓN DE DATOS (MUESTREO)
Como se mencionó anteriormente, en la práctica se trabaja con muestras tomadas de determi-
nadas poblaciones. Asimismo, se aludió que las muestras son la base fundamental del análisis, por
lo que se debe de prestar particular atención en la forma en la que esta se recolecta.
Esta sección presenta los conceptos básicos de la colección de datos, dejando la lectura más
avanzada a los libros y artículos mencionados en la bibliografía.
Algunos de los conceptos que se necesitan se describen a continuación:
Población, también conocida como Universo, contiene todos los posibles elementos de la
variable en estudio.
Muestra, una parte seleccionada de la población.
Censo, se refiere a la recolección de todos los elementos de la población.
Parámetro, una característica de la población. Por ejemplo, la media poblacional (μ), la
desviación estándar poblacional (σ), entre otros.
Estadístico, una característica de la muestra. Por ejemplo, la media muestral ( x ), la des-
viación estándar poblacional (s), entre otros.
Error muestral, es el error que aparece debido al uso de la muestra en vez de la población. Es
importante notar, que este error puede reducirse al incrementarse el tamaño de la muestra
si se usa el muestreo probabilístico que se detalla posteriormente.
Error no muestral, también conocido como sesgo o error direccional, representa los errores
originados en el diseño de la muestra, en una mala comunicación de lo que se quería averiguar
en el caso de una entrevista, entre otros. En este caso, el error no muestral no puede disminuir
simplemente añadiéndose más observaciones a la muestra. Se tienen que hacer revisiones
fundamentales a los procesos, a las entrevistas, etc.
En general, antes de determinar el método de muestreo a utilizar, será necesario entender el
problema que se tiene a mano y se deberá tratar de determinar las características de los datos a reco-
lectar. Por lo general, se sugiere realizar ciertos análisis exploratorios para entender mejor los datos
que se desean recolectar.
Se pueden definir dos métodos de muestreo: el muestreo probabilístico y el muestreo no pro-
babilístico. Ambos tipos de muestreo son tratados a continuación.
2.1. El muestreo probabilístico
En este tipo de muestreo se supone que todos los elementos de la población tienen la proba-
bilidad de ser elegidos. Sin embargo, no todos tendrán necesariamente la misma probabilidad de
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
4
ser elegidos. Este método es el que debe ser utilizado si la intención es la realización de inferencia
estadística. Este método, a su vez, se clasifica en:
2.1.1. Muestreo aleatorio simple
En el muestreo aleatorio simple cada elemento o miembro de la población tiene la misma pro-
babilidad de ser elegido. La forma común en la que se selecciona a los miembros de la población es
creando números aleatorios.
Por ejemplo, si se imagina que se tiene una población de 500 contadores en una determinada
ciudad y que se quiere seleccionar aleatoriamente a 10 de ellos. Se supone que se los tiene identificados
de acuerdo a un número consecutivo que va desde 1 hasta 500. El procedimiento que se seguirá se
describe en la aplicación Excel que presenta a continuación.
Primero se creará la cantidad de números aleatorios deseados (en nuestro caso 10). La creación
se basa en la distribución uniforme (0,1) con lo que se asegura que los números generados estarán
entre 0 y 1. Se multiplica cada uno de los números generados por el tamaño de la población para
obtener el número correlativo que permitirá identificar al contador seleccionado por este proceso
es decir, los números resultantes representan la identificación de los contadores a ser seleccionados.
Por lo normal, se aproximan los números del paso anterior al número inmediato inferior.
Por ejemplo, el primer número aleatorio presentado en la aplicación Excel 1, es igual a 191. Esto
significa que el contador cuyo número de identificación es 191 será seleccionado para nuestra muestra.
Generación de Números Aleatorios
CAPÍTULO 1 Estadística descriptiva
5
2.1.2. Muestreo sistemático
El muestreo sistemático se basa en determinar aleatoriamente un número (conocido como
semilla), que se usa para determinar los elementos u observaciones de una población que serán se-
leccionados. Por ejemplo, se selecciona un número al azar entre 1 y 10, por ejemplo 4. Este número
implica que las observaciones que se seleccionarán serán basadas en los múltiplos de este número.
Se seleccionarán las observaciones 4, 8, 12, etc.
El principal problema de este método es conocido como el de estacionalidad. El problema
de estacionalidad ocurre cuando en los datos existen ciertos patrones determinísticos que se repiten
de acuerdo a una determinada frecuencia. Un ejemplo clásico es el referido a la venta de helados.
Las mayores ventas de helados se producen durante todos los veranos, mientras que las ventas más
bajas se dan en el invierno. Si se desean determinar las ventas promedio en unidades de una empresa
dedicada a producir helados durante los 10 últimos años, usando datos trimestrales y usando un
muestreo sistemático, se puede correr el riesgo que el número semilla coincida exactamente o con el
verano (que generaría que el promedio sea inflado) o con el invierno (que haría que el promedio esté
subvaluado). De ahí la importancia de conocer los datos con los que se está trabajando para prever
todo tipo de problemas que pudieran aparecer y determinar la mejor manera de solucionarlos.
2.1.3. Muestreo estratificado simple
Muchas veces la población a estudiar tiene cierta estructura que puede ser identificada a priori.
Por ejemplo, si se desea hacer un análisis del nivel de ingresos de la población de un determinado
país, se pueden identificar distintos niveles de ingresos de acuerdo a determinados estudios sobre
los niveles socio-económicos.
Esta estructura de la población debe ser considerada al momento de recolectar los datos para
hacer que la muestra resultante sea representativa de la población. Es decir, lo que se trata de replicar
es la estructura (o estratos) existente en los datos para luego al interior de cada estrato aplicar un
muestreo aleatorio simple.
Se analiza el siguiente ejemplo desarrollado con valores hipotéticos:
Nivel socio-económico Población Ingresos (en miles de U.M.) Muestra 1 Muestra 2(muestreo estratificado)
A 1.000 (10%) 125 10 (10%) 10 (10%)B 3.000 (30%) 70 80 (80%) 30 (30%)C 6.000 (60%) 25 10 (10%) 60 (60%)
Esta tabla presenta la población y, en paréntesis, el porcentaje respecto al total. Por ejemplo, 10%
de la población pertenece al nivel socio-económico A. Asimismo, presenta valores de dos muestras
hipotéticas de 100 habitantes cada una. Entre paréntesis se encuentra el porcentaje de la misma
respecto al total de la muestra. Por ejemplo, en la muestra 1 se seleccionaron a 80 personas del nivel
B, lo que representa el 80% del total de la muestra.
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
6
La expresión U.M. se refiere a unidades monetarias.
Primero, se supone que el muestreo es completamente aleatorio y que, por azar, el resultado
de la selección resulta sesgado (por diversos motivos, como facilidad de acceso a las observaciones,
o simplemente por motivos aleatorios). Se supone que esos datos corresponden a la Muestra 1 en la
Tabla 1. Aquí se puede observar que el nivel socio-económico B está sobre representado mientras
que el nivel C está sub representado con respecto a la población. Si se desearan construir estadísticos
con esta muestra los resultados estarían sesgados hacia los valores de la clase B.
Por otro lado, la muestra hallada usando un muestreo estratificado simple, la estructura funda-
mental de la población se ha preservado, generándose de esta manera la representatividad necesaria
de la muestra. Es importante notar que en el muestreo estratificado simple, una vez que los estratos
han sido formados, para seleccionar a los elementos que comprenderán cada uno de los estratos se
aplica una muestra aleatoria simple.
2.2. El muestreo no probabilístico
En este caso no todos los elementos de la población tienen la probabilidad de ser seleccionados.
En este tipo de muestreo se utiliza bastante la intuición y la experiencia del analista y, por lo general,
es utilizado para realizar estudios exploratorios, cuyos resultados no son usados para realizar infe-
rencia acerca de los parámetros poblacionales.
Se pueden identificar los tipos de muestreos no probabilísticos que se citan a continuación.
2.2.1. Muestreo basado en el juicio del analista
Este tipo de muestreo depende de lo que el analista considere como importante para la cons-
trucción de la muestra. Por ejemplo, un auditor contable puede decidir no aplicar ningún muestreo
probabilístico como los mencionados anteriormente y, en vez de eso, determinar en base a su expe-
riencia, qué documentos solicitar para su análisis.
2.2.2. Muestreo basado en la facilidad de acceso a los elementos que forman la base del estudio
Este muestreo se construye en base a la disponibilidad y facilidad de acceso a los elementos
que constituyen la población. Por ejemplo, si un grupo de estudiantes desea construir una muestra
para entender de manera preliminar (exploratoria) los hábitos de consumo de café de los clientes de
Starbucks; estos pueden concentrar sus esfuerzos en una determinada área geográfica que les sea
de fácil acceso.
2.2.3. Muestreo basado en un propósito específico
En este tipo de muestreo, los miembros de la muestra son seleccionados con el propósito explícito
de ayudar a responder alguna pregunta relevante en el estudio. Por ejemplo, si se desea determinar la
CAPÍTULO 1 Estadística descriptiva
7
calidad de un libro básico de introducción a las finanzas, se puede seleccionar a un grupo de alum-
nos de pregrado con nociones mínimas de finanzas. Si estos estudiantes entienden los conceptos
presentados en el libro, esto será una señal que podrá ser fácilmente entendido por estudiantes con
cierto nivel de conocimientos de la materia.
3. DISTRIBUCIÓN DE FRECUENCIAS
Si el analista cuenta con los datos necesarios para realizar su trabajo, lo primero a hacer será
entender los datos con los que se cuenta. Se supone que los datos se refieren a las ventas en unidades
de los últimos 10 años los que se muestran a continuación:
Año Ventas (miles de unidades)20X0 2.54020X1 2.56020X2 2.61220X3 2.63020X4 2.72020X5 2.76020X6 2.78520X7 2.80420X8 2.83120X9 2.935
Una manera bastante fácil y útil para tener un mejor entendimiento de los datos es el crear una
tabla de frecuencias. Las tablas de frecuencias presentan la información agrupada de acuerdo a
rangos predeterminados. Una posible tabla de frecuencias tiene la siguiente forma:
Tabla de frecuencias
Clases Frecuencia Frecuencia relativa (%)
Frecuencia acumulada
Frecuencia relativa acumulada
2 20% 2 20%(2.600, 2.700] 2 20% 4 40%(2.700, 2.800] 3 30% 7 70%(2.800, 2.900] 2 20% 9 90%(2.900, 3.000] 1 10% 10 100%
0 0% 10 100%Total 10 100%
Los elementos característicos de una tabla de frecuencias son los siguientes:
a. Clases: son los rangos en los que se separan los datos. Por ejemplo, (2.600, 2.700] in-
dica que se deben seleccionar las observaciones mayores que 2.600 (no incluyendo
2.600) y menores o iguales a 2.700 (incluyendo 2.700).
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
8
b. Límites de las clases: son los valores que definen el mínimo y máximo valor a incluir
en una determinada clase. Por ejemplo, en la clase (2.600, 2.700], los límites son 2.600
y 2.700.
c. Rango de las clases: es la diferencia entre el límite máximo y el mínimo. Por ejemplo,
en (2.600, 2.700] el rango sería 2.700 - 2.600 = 100. Es importante notar que el rango
de todas las clases no tiene que ser necesariamente el mismo, aunque se sugiere que si lo
sea por motivos de presentación.
d. Marca de clases: Es el punto medio de cada clase. Se calcula sumando el límite infe-
rior al superior y dividiendo el resultado entre 2. Por ejemplo, el valor medio de la clase
(2.600, 2.700] es igual a (2.600 + 2.700)/2 = 2.650. Estos valores son importantes para
graficar el polígono de frecuencias que se detallará posteriormente.
Es importante notar que una tabla de frecuencias está bien estructurada si las clases satisfacen
las siguientes características:
a. Las clases deben ser mutuamente excluyentes, es decir, los límites entre clases jamás
deben pertenecer a más de una clase. Por ejemplo, las clases (2.600, 2.700] y (2.700,
2.800] son mutuamente excluyentes ya que los límites de una clase no están incluidas
en la otra: 2.700 está incluida en la primera clase pero no lo está en la segunda. Nótese
que “]” significa que el límite está incluido en una clase en particular y, “(” implica que
el límite no está incluido en una clase en particular.
b. Las clases deben ser exhaustivas, es decir, todas las observaciones en la muestra deben
estar incluidas en alguna de las clases. Como puede advertirse en la Tabla 3, todos los
valores de Tabla 2 han sido incluidos. La forma de verificar esto es simplemente verifi-
car que el total de la columna “frecuencia” corresponda al número de observaciones de
la muestra (en nuestro caso 10).
A continuación se describen los resultados presentados en la Tabla 3.
a. La primera columna (clases) contiene las clases en las que se dividirán las observacio-
nes.
b. La segunda columna (frecuencia) describe el número de observaciones que caen en
una determinada clase. Por ejemplo, se observan dos años con ventas entre (2.600,
2.700]. Nótese que la suma de esta columna debe ser igual al tamaño de la muestra.
c. La tercera columna (frecuencia relativa) describe el porcentaje de observaciones en
una determinada clase. Por ejemplo, el 20% de las ventas fueron entre (2.600, 2.700].
Adviértase que la suma de esta columna debe ser igual al 100%.
d. La cuarta columna (frecuencia acumulada) describe el número de observaciones que
son menores o iguales al límite superior de una determinada clase. Por ejemplo, se ob-
servan 7 años con ventas menores o iguales a 2.800.
CAPÍTULO 1 Estadística descriptiva
9
e. La quinta columna (frecuencia relativa acumulada) describe el porcentaje de observa-
ciones que son menores o iguales al límite superior de una determinada clase. Por ejem-
plo, se observan que el 70% de las ventas fueron menores o iguales a 2.800.
Cuando se utilizan los valores de la Tabla 3, se pueden generar algunos gráficos que son de
bastante ayuda:
a. El histograma: muestra la información contenida en la primera columna de la Tabla 3,
es decir presenta las frecuencias.
b. El gráfico de las frecuencias relativas acumuladas: muestra la información de la
quinta columna de la Tabla 3. Nótese que el máximo valor de las frecuencias relativas
acumuladas es 100%.
0,00%20,00%40,00%60,00%80,00%
100,00%
0
1
2
3
4
2500 2600 2700 2800 2900 3000 More
Freq
uenc
ia
Límites
Histograma y frecuencias relativas acumuladas
Frequency Cumulative %
c. El polígono de frecuencias: muestra la misma información que el histograma, pero de
manera más intuitiva, en el sentido que supone que las frecuencias varían gradualmente
conforme las observaciones aumentan o disminuyen en el eje de los límites. Para reali-
zar este gráfico se usan los valores medios de las clases como puntos que se ponen en la
parte superior de cada rectángulo. El polígono de frecuencias se obtiene uniendo estos
puntos.
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
10
01234
2500 2600 2700 2800 2900 3000 More
Freq
uenc
ia
Límites
Histograma y polígono
Frequency Frequency
de frecuencias
A continuación se presenta la forma en que se pueden realizar estas tablas por medio de Excel.
Tabla de frecuencias
Una vez que se tiene un entendimiento de las características básicas de los datos obtenidos me-
diante el análisis presentado en esta sección, se procederá a analizar determinados estadísticos que
CAPÍTULO 1 Estadística descriptiva
11
proporcionarán un mayor entendimiento de ciertas características claves de los datos en términos
de sus medidas de tendencia central, dispersión y asociación.
4. MEDIDAS DE TENDENCIA CENTRAL
Las medidas de tendencia central permiten al analista determinar los valores típicos de los datos.
En esta sección se analizarán los estadísticos más importantes: el promedio, el promedio ponderado,
la media y la moda. Se presentarán los estadísticos para las poblaciones y para las muestras. Para esto
se debe recordar que para el tamaño de la población se utilizará N y para el tamaño de la muestra n.
4.1. El promedio o media
El promedio o media es también conocido como la media aritmética. La media poblacional,
que a partir del momento se identificará con la letra griega “μ” (mu), se calcula de la siguiente manera:
1
N
iix
N (1)
Por otra parte, si se trata de la media muestral, para una muestra de tamaño n, este estadístico
estará dado por:
1
n
iix
xn
(2)
Donde: x representa el promedio muestral, xi la variable de interés, n el número de observa-
ciones en la muestra y ∑ el operador de suma.
Se supone que se tienen los datos de las ventas anuales correspondientes a los 10 últimos años
de una determinada corporación (los datos se encuentran en la Tabla 2) y que desea conocer las
ventas anuales promedio:
Por lo tanto, x = 2.718. Es decir, que la venta anual promedio durante los últimos 10 años es
igual 2.718 U.M.
El principal problema de este estadístico es que es muy susceptible a valores extremos. Para
entender este problema, se supone que las ventas en unidades del año 20X9 han sido 5.450 en vez de
2.935. El efecto de este cambio se puede notar a continuación:
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
12
Por lo tanto, x = 2.969. Como se puede apreciar, la existencia de un valor extremo, tiende a
mover el promedio en la dirección de dicha variable. Dicho de otra manera, un valor mucho mayor
que las demás observaciones, tiende a empujar el valor promedio hacia la derecha, mientras que la
existencia de un valor extremo mucho menor que las otras observaciones moverá la media hacia la
izquierda. Este problema se acentúa cuanto más lejano sea el valor.
Una forma de solucionar este problema es no considerar los valores extremos en el cálculo del
promedio o utilizar otro estadístico como la mediana.
4.2. El promedio ponderado
El promedio considera que toda la información tiene la misma ponderación o importancia en
el cálculo del estadístico. Sin embargo, muchas veces cada observación tiene diferente peso o pon-
deración. Es eso exactamente lo que considera el promedio ponderado. La fórmula del promedio
ponderado es:
1
n
i ii
x x (3)
Donde:
1
1n
ii
(4)
En la fórmula anterior, x representa el promedio ponderado y i la ponderación de cada
observación.
Un ejemplo típico en este caso es el cálculo de la rentabilidad de un portafolio. Si se imagina que
se tiene la siguiente composición de un determinado portafolio: 10% en renta fija, 70% en acciones
y 20% en metales como el oro. Si los rendimientos ganados por cada clase de activo financiero son
2%, 10% y 35%, respectivamente, el promedio ponderado sería calculado de la siguiente manera:
Es decir, que la rentabilidad promedio del portafolio es igual a 14,2%.
CAPÍTULO 1 Estadística descriptiva
13
4.3. La mediana
La mediana representa el valor medio de los datos debidamente ordenados ya sea de manera
ascendente o descendente. Si el número de observaciones es impar, la mediana se encuentra en la
posición (n + 1)/2 y si el número de observaciones es par la mediana corresponde al promedio de las
dos observaciones centrales que se localizan en las posiciones (n/2) y [(n/2) + 1].
Se supone que se tienen las siguientes observaciones en orden ascendente: 1, 4, 7, 10 y 15. En este
caso n (número de observaciones) es igual a 5, por lo tanto, la mediana se encuentra en la posición
(5 + 1)/2 = 3, es decir, la mediana de esta muestra es igual a 7.
Por otro lado, si se tiene la siguiente muestra ordenada de manera ascendente: 1, 4, 7, 10, 15,
18; las posiciones de los valores que determinarán la media son 6/2 = 3 y (6/2) + 1 = 4. Por lo tanto,
la mediana será igual a (7 + 10)/2 = 8,5.
La ventaja de la mediana respecto al promedio es que es inmune a los valores extremos. Por
ejemplo, si se toma la primera serie del primer párrafo de este ejemplo y se reemplaza el último valor
15 por 25. La nueva serie resultante será: 1, 4, 7, 10, 25. Como se puede ver la mediana sigue siendo
7 independientemente de los valores extremos.
4.4. La moda
La moda corresponde al valor que se observa más frecuentemente en la muestra. Si una serie
tiene una sola moda se llamara unimodal; si tiene dos modas se llamará bimodal y si tiene más de
dos modas se llamará multimodal.
Si se tiene la siguiente serie: 2, 4, 3, 5, 3, 1 y 9 la moda será 3, es decir, el número que aparece
más frecuentemente en esta serie es el número 3. En este caso, esta serie es unimodal.
5. MEDIDAS DE DISPERSIÓN
Las medidas de dispersión permiten al analista determinar cuán dispersos son los valores de
los datos respecto a alguna medida de tendencia central, usualmente el promedio. Estas medidas
de dispersión son de gran uso en las finanzas ya que la dispersión de los valores de las observaciones
está asociada con el nivel de riesgo o incertidumbre asociada con la variable observada. Se tratará
este tema en detalle en las siguientes secciones de este capítulo.
A continuación se analizarán algunos de los estadísticos de dispersión más importantes: el
rango, los cuartiles, la desviación media absoluta, la varianza y la desviación estándar, la variable
estandarizada y el coeficiente de variación.
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
14
Para un mejor entendimiento de los conceptos se utilizarán los datos de la presente tabla:
Año Gastos en publicidad (miles de U.M.)20X0 11020X1 11520X2 12720X3 13820X4 14720X5 15020X6 17520X7 16020X8 17020X9 180
5.1. El rango
El rango se calcula de la siguiente manera:
Rango = valor máximo – valor mínimo
El rango de las observaciones presentadas en la Tabla 4 será: 180 – 110 = 70. Es importante
recalcar que el rango, al solo usar los valores extremos, sufre del mismo problema que el promedio.
Es decir, su valor es sensible a los valores extremos.
5.2. Los cuartiles
Los cuartiles dividen los datos en cuatro grupos, cada uno de los cuales contiene el 25% de las
observaciones de la muestra. La estrategia para calcular los cuartiles es el siguiente:
a. Encontrar la posición de cada uno de los límites de los cuartiles ( pQ1 , pQ2 y pQ3 ) de la
siguiente manera:
(5)
Se advierte que la posición del segundo cuartil corresponde a la ubicación de la mediana, es
decir que el segundo cuartil será siempre igual a la mediana.
b. Una vez localizada la posición se procede a determinar el valor que corresponde a la
posición encontrada en el paso a. En caso que esta posición no sea un número entero se
procede a realizar una interpolación lineal tal como se explica a continuación.
399
1. INTRODUCCIÓN
Los modelos de series de tiempo tratan de explotar la información contenida en la historia de
las mismas variables. Estos modelos son conocidos como modelos en forma reducida o no estruc-
turales, ya que no han sido derivados de un modelo teórico económico o financiero. Estos modelos
son de bastante uso en finanzas, porque usualmente las predicciones obtenidas con estos modelos
son mejores que las obtenidas con los modelos estructurales.
Este capítulo introduce de manera bastante práctica los principales modelos de series de tiempo.
Se empezará presentando en la sección 2 la definición de un proceso estocástico, la definición de
procesos fuerte y débilmente estacionarios. La sección 3 trata sobre las autocovarianzas, autocorre-
laciones y el correlograma. También esta sección introduce los principales métodos para detectar las
autocorrelaciones. A continuación se desarrollan, en las secciones 4, 5 y 6, los modelos autorregresi-
vos AR(p), los modelos de medias móviles MA(q), y los modelos ARMA(p,q), respectivamente. La
sección 7 está destinada a la forma matemática de determinar el orden de los modelos de series de
tiempo mediante los criterios de información. La sección 8 desarrolla el tema de los pronósticos y
la forma de verificar su calidad. La sección 9 presenta el método de Box-Jenkins para el trabajo con
modelos de series de tiempo. Se muestra este método mediante el desarrollo de un ejemplo numérico
usando EViews. Finalmente, en las secciones 10 y 11 se encuentran los ejercicios y ecuaciones del
capítulo, respectivamente.
CAPÍTULO
12
Modelos de series de tiempo
400
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
2. PROCESOS ESTACIONARIOS
Un concepto clave en los modelos de series de tiempo es el conocido como procesos estocásticos. Un proceso estocástico es una secuencia de números aleatorios. El proceso estocástico se escribirá
como { yi } para i = 1, 2,… Si este índice representa tiempo, el proceso estocástico se llamará serie de
tiempo. Si se asigna un posible valor de y por cada i se estará construyendo una posible realización
del proceso estocástico.
El principal problema en los modelos de series de tiempo es que en la realidad solo se observa
el proceso estocástico en una de sus varias posibles realizaciones. Por lo tanto, solo se puede obtener
un set de estadísticos (media, varianza, etc.) dadas las observaciones disponibles. En teoría, si se
pudieran observar todas las posibles realizaciones del proceso estocástico, se podrían calcular los
parámetros poblacionales (tal como la media poblacional) simplemente como el promedio de todas
las realizaciones.
Sin embargo, la realidad no se muestra de distintas maneras: solo existe una realización de
la realidad. Esto inmediatamente presenta una limitación que se debe tratar de solucionar. En esta
sección del capítulo se tratará el concepto de estacionariedad, que en síntesis significa que todas
las observaciones de la series de tiempo provienen de la misma distribución de probabilidad y que,
si a su vez el proceso no es muy persistente, cada observación contendrá información valorable que
no está presente en ninguna de las otras observaciones, por lo que los estadísticos obtenidos de las
observaciones serán consistentes con sus respectivos parámetros poblacionales. Por ejemplo, la media
de estas observaciones en el tiempo será consistente con la media poblacional.
El concepto de estacionariedad tiene dos versiones: la estacionariedad estricta y la estaciona-
riedad débil, que se procede a explicar a continuación.
2.1. Estacionariedad estricta
Un proceso estocástico { yi } con i = 1, 2,…T es estrictamente estacionario si, para un número
real finito r y para cualquier conjunto de subíndices i1 , i
2 ,…, i
T :
1 2 1 2, ,..., 1 , ,..., 1( ,..., ) ( ,..., )i i i i r i r i rT Ty y y T y y y TF y y F y y (1)
Es decir, que la distribución conjunta de { yi } con i = 1, 2,…T, depende solo de la distancia r y
no de i, es decir, la probabilidad conjunta de ( y1, y
11 ) es la misma que ( y
51 , y
61 ) (nótese que en este
caso r = 10). Lo importante para la distribución es la posición relativa de la secuencia. Además, esto
quiere decir que la probabilidad que y caiga en algún intervalo en particular es siempre la misma.
Por lo tanto, si un proceso estocástico es estrictamente estacionario: la media, la varianza y otros
momentos de la distribución serán los mismos para todo i. Ejemplos de series estrictamente estacio-
narias incluyen los procesos independientes e idénticamente distribuidos (i.i.d.).
Muchos procesos son no estacionarios simplemente porque tienen una tendencia determinística.
Es decir, que si se remueve la tendencia, la serie de tiempo se convertirá en una serie estacionaria. A
dichas series se les conoce como series estacionarias con tendencia. Asimismo, si se tiene una serie
CAPÍTULO 12 Modelos de series de tiempo
401
de tiempo que no es estacionaria pero que su diferencia sí lo es, se conoce como serie estacionaria en diferencias.
2.2. Estacionariedad débil
Un proceso estocástico { yi } con i = 1, 2,…T es débilmente estacionario si se cumple lo siguiente:
( )iE y (2)
2 2( )iE y (3)
( )( , )i i j i i j jcov y y (4)
La ecuación (4) dice que es la posición relativa ( j) lo importante y no la absoluta (i). Por ejemplo:
1 11 51 61 11, , cov y y cov y y (5)
El gráfico (1) presenta la evolución del índice Dow Jones Industrial Average (DJIA) y el gráfico
(2) presenta la serie de tiempo de los retornos del mismo índice (RDJIA).
402
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
Como se puede observar el gráfico de los precios (DJIA) es un proceso no estacionario, mientras
que el gráfico de los retornos (RDJIA) parece serlo. Una forma fácil de ver por qué la primera serie
es no estacionaria es tomando un intervalo de un tamaño fijo en dos puntos distantes y calcular el
promedio. Se asume por ejemplo, que se toman las siguientes observaciones del DJIA: 1982 hasta
1984 y del 2002 al 2004 (intervalos de 3 años cada uno). De acuerdo al concepto de estacionariedad,
si se hace esto y la serie es en realidad estacionaria, se esperaría que las medias sean iguales. Sin em-
bargo, solo observando el gráfico se advierte que este no será el caso, puesto que el índice estaba entre
3.638,06 y 2.278,20 entre enero de 1982 y diciembre de 1984 y, entre 616,53 y 421,98 entre enero
del 2002 y diciembre del 2004. En cambio si se observa la serie de los retornos, las medias estarán
bastante cercanas en los mismos intervalos de tiempo, lo que puede indicar que efectivamente esta
serie de tiempo es estacionaria. Posteriormente se presentará la forma econométrica de determinar
la estacionariedad de las series.
3. LA AUTOCOVARIANZA, LA AUTOCORRELACIÓN Y EL CORRELOGRAMA
Se supone que el subíndice i representa el tiempo, por lo tanto, el proceso estocástico { yi } , i =
1, 2,…T será una serie de tiempo. La autocovarianza se expresa como γj y se la define como:
( )( , )i i j i i j jcov y y (6)
Como se mencionó anteriormente, la autocovarianza solo depende de j (la posición relativa).
La varianza de la serie de tiempo {yi } será igual a:
0( , ) ( )i i i i icov y y var y (7)
CAPÍTULO 12 Modelos de series de tiempo
403
Por lo tanto, la autocorrelación de orden j ( ρj ) se definirá como el ratio entre la autocovarianza
de orden j y la varianza:
0
( , )( )
j i i jj
i
cov y yvar y
(8)
Con j = 1, 2,… Si j = 0, ρj = 1. Ahora bien, si se grafica la evolución en el tiempo de ρ
j , se estará
construyendo lo que se conoce como el correlograma.
3.1. El proceso de ruido blanco
El proceso de ruido blanco (White Noise Process) es un proceso débilmente estacionario con
media constante y no autocorrelación. Es decir, en un proceso de ruido blanco se cumple:
( )iE y (9)
-( , ) 0 0i i j jcov y y j (10)
20( , ) i icov y y (11)
3.2. Pruebas de autocorrelación
Se recuerda que la autocorrelación muestral se calcula de la siguiente manera:
1
1ˆ ( ) ( )n
j t t jt j
y y y yn j
(12)
Obsérvese que se divide entre n - j y no entre n, para que el estadístico sea insesgado. Esto es im-
portante si se está trabajando con una muestra pequeña. Sin embargo, si la muestra es lo suficientemente
grande n - j será bastante aproximado a n. La media de la serie se calcula como es usual:
1
n
ity
yn
(13)
Se sigue a nivel muestral y se define la autocorrelación muestral como:
0
ˆˆ
ˆj
j (14)
Dado esto, se presentan a continuación los test empleados para determinar la presencia de
autocorrelación. El primer método se basa en la siguiente propiedad asintótica:
ˆ (0, )mdn N I (15)
404
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
Donde: 1 2ˆ ˆ ˆ ˆ( , ,..., )m . Esta ecuación establece que las autocorrelaciones ρ asintóticamente
se distribuyen como una normal estándar. Por lo tanto, se pueden construir intervalos de confianza
para la autocorrelación poblacional de la siguiente manera:
/21zn
(16)
Si el nivel de confianza deseado es del 90% (nivel de significancia α = 10%), el valor de zα/2 será
igual a 1,645.1 Por lo tanto, el intervalo de confianza para las autocorrelaciones poblacionales será:
11,645n
(17)
Existen otros métodos que permiten determinar la existencia de autocorrelaciones hasta un
determinado orden (m), que se presentan a continuación.
El método de Box-Pierce y el método de Ljung-Box permiten testear la siguiente hipótesis nula:
0 1 2 3: ... 0mH (18)
El test de Box-Pierce se calcula mediante:
2 2 2
1 1( ) ( ) ( )
m m
j jj j
Box Pierce Q n n m (19)
El test de Ljung-Box:
22 2
1 1
2( ) ( 2) ( ) ( )m m
jj
j j
nLjung Box Q n n n mn j n j
(20)
Ambas pruebas se distribuyen como una chi cuadrada debido a que ˆn es asintóticamente
independiente y distribuida como una normal estándar. Por lo tanto, la suma al cuadrado de estos
números es asintóticamente chi-cuadrada. Los grados de libertad de esta distribución son iguales a
m, que representa el número de rezagos deseados.
El método de Ljung-Box es preferido cuando el tamaño de la muestra es pequeño. Como se
puede observar, la diferencia entre estos dos métodos desaparece conforme n (número de observa-
ciones) se incrementa.
1 Se recomienda al lector remitirse al capítulo 5 para un detallado tratamiento de los intervalos de confianza.
CAPÍTULO 12 Modelos de series de tiempo
405
El problema con ambos test es que no existe una metodología clara para seleccionar el número de
rezagos (m). Si se escoge un m muy pequeño, el riesgo que no se estén capturando autocorrelaciones
de orden superior aumentará. Por otro lado, si el número m es demasiado grande las propiedades
asintóticas del test se pueden perder y la distribución no será más la chi cuadrada.
En esta parte se presenta un ejemplo ficticio que permite entender cómo es que estos test son
utilizados en la práctica. Se parte del hecho que se han calculado las tres primeras autocorrelaciones
de los retornos de algún instrumento financiero. Se supone que el número de observaciones es igual
a 50 y que el nivel de confianza deseado es igual al 90%. Finalmente, se asume que las autocorrela-
ciones obtenidas son las siguientes: 1 2 3ˆ ˆ ˆ1, 25; 0, 22; 0,02 .Primero, se estima el intervalo de confianza para las autocorrelaciones:
11,645 0,2326;0,232650
Con base en este intervalo de confianza, solo la primera autocorrelación no está en el intervalo.
Por lo que este será un indicio de la presencia de autocorrelación de primer orden.
Ahora se presenta la forma en que las pruebas de Box-Pierce y Ljung-Box son calculadas:
2 2 2 2
1
ˆ( ) ( ) ( 50 1,25) ( 50 0,22) ( 50 0,02)
( ) 80,565
m
jj
Box Pierce Q n
Box Pierce Q (21)
2
1
2 2 2
2 ˆ( ) ( )
50 2 50 2 50 2( ) ( 50 1,25) ( 50 0, 22) ( 50 0,02)50 1 50 2 50 3
( ) 85,55
m
jj
nLjung Box Q nn j
Ljung Box Q
Ljung Box Q
(22)
La hipótesis nula en este caso es:
0 1 2 3: 0H (23)
Esto significa que se prueba la no existencia de autocorrelación de hasta tercer orden. Se conoce
que ambas pruebas se distribuyen como una chi cuadrada con 3 grados de libertad (m = 3). Si se
desea un nivel de significancia del 10% (es una prueba no direccional, por lo que cada cola será igual
al 5%), el valor crítico superior de la chi cuadrada para estos grados de libertad será igual a 7,8148.
406
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
Por lo tanto, como los valores de las pruebas son 80,565 y 85,55, para el Box-Pierce and Ljung-Box,
respectivamente; se rechazará la hipótesis nula. Lo que significa que existe autocorrelación signifi-
cativa hasta el tercer rezago.
El valor crítico, se ha hallado usando el comando de Excel “PRUEBA.CHI.INV” o “CHIINV”,
según se trate de la versión en español o inglés. La siguiente aplicación muestra la forma de usar Excel
para hallar este valor crítico:
Valores críticos de la chi cuadrada
n 50
nivel de confianza 0,9
rezagos (m) 3
α/2 0,05
grados de libertad 3
Chi_inferior 0,351846
Chi_superior 7,814728
Se advierte que se tienen dos valores críticos porque se trata de una prueba no direccional.
En las siguientes secciones se comienzan a presentar varios modelos de series de tiempo.
4. MODELO DE MEDIAS MÓVILES MA(q)
El proceso de medias móviles o (MA) por sus siglas en inglés (Moving Averages) es un modelo
que supone que la variable puede ser explicada por un cierto número de rezagos (q) de los errores,
es decir:
1 1 2 2 ...t t t t q t qy u u u u (24)
Donde los errores (u) son i.i.d. con media cero y varianza σ 2. A partir de esta sección se cambia
el uso del subíndice i por t para referirse al tiempo. Se puede reescribir esta ecuación de la siguiente
manera:
1
q
t j t j tj
y u u (25)
Antes de continuar, se define el siguiente operador matemático L, que será de gran utilidad en
lo que queda del capítulo:
mt t mL y y (26)
CAPÍTULO 12 Modelos de series de tiempo
407
Por ejemplo, Lyt y
t-1 , L2y
t y
t-2 . Si se emplea esta notación en la ecuación (26):
1
qj
t j t tj
y L u u (27)
Finalmente, si se define:
21 2( ) 1 ... q
qL L L L (28)
La ecuación (27) se puede escribir como:
( )t ty L u (29)
En la ecuación (28) se requiere que todas las raíces características de ( )L caigan fuera del
círculo unitario; es decir, que cada raíz de r en la siguiente ecuación característica sea mayor que
uno en valor absoluto:
21 21 ... 0q
qr r r (30)
Esta condición, conocida como la condición de invertibilidad, asegura que el modelo MA(q),
representado como un modelo AR(∞) converja a cero, es decir, que ( ( )L )-1 tienda a cero. En otras
palabras, esta condición asegura que el modelo MA(q) no es explosivo. Esta condición es muy pa-
recida a la condición de estacionariedad del modelo AR(p) que se discutirá en la próxima sección.
También, esta condición será de vital importancia al momento de trabajar con modelos ARMA(p,q).
La estrategia a seguir cuando se trabaja con series de tiempo es determinar la función de auto-
correlación presentada en la ecuación (8). Para eso se necesitan los siguientes componentes: la media,
la varianza y las autocovarianzas. La estrategia presentada para este modelo será la misma que la que
se utilizará para los otros modelos de series temporales.
Para mostrar la técnica se supone el siguiente modelo MA(3):
1 1 2 2 3 3t t t t ty u u u u (31)
Se recuerda que se asumió que u es un ruido blanco con media cero y varianza σ 2. Se calcula el
valor esperado de esta ecuación. Se toma la esperanza matemática a ambas partes de la ecuación (31):
1 1 2 2 3 3
1 1 2 2 3 3
( ) ( )( ) ( ) ( ) ( ) ( ) ( )t t t t t
t t t t t
E y E u u u uE y E E u E u E u E u
(32)
Como los errores son ruidos blancos con media cero, ecuación (32) será igual a:
( )tE y (33)
408
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
A continuación se calcula la varianza de y. Se recuerda que la varianza se define como:
2 2
0( ) [( ) ]t t t tvar y E y E y E y (34)
Sin perder generalidad en este proceso, se asume que μ = 0 y se desarrolla la ecuación (34):
2 2
0 1 1 2 2 3 3( ) [ ] [( ) ]t t t t t tvar y E y E u u u u (35)
Si se opera:
02 2 2 2 2 2 2t 1 t-1 2 t-2 3 t-3 1 t t-1E[(u + ×u + ×u + ×u +(2× ×u ×u +otros términos cruzados)] (36)
Se analiza el primer término cruzado que se presenta en la ecuación (2 θ1 u
t u
t-1 ). Para esto
se recuerda que la covarianza se define como:
( ) ( ) ( ) ( ) ( )t t j t t j t t j t t jcov u u E u u E u E u E u u , (37)
Asimismo, como los errores son ruidos blancos, la autocovarianza de los errores es cero, obsér-
vese la ecuación (10). Por lo tanto, cuando se aplique el operador de la esperanza a cada uno de los
términos cruzados en la ecuación (36), estos serán iguales a cero. Lo que queda por ver ahora es qué
pasa con los primeros elementos de la ecuación (36):
02 2 2 2
02
0
=
=
=
2 2 2 2 2 2 2t t 1 t-1 2 t-2 3 t-3
2 2 2t 1 2 3
2 2 2t 1 2 3
var(y ) E(u )+ × E(u )+ × E(u )+ × E(u )var(y )var(y ) (1+
(38)
Ahora, lo que queda por calcular son las autocovarianzas de este modelo. Para eso se recuerda que:
,( ) ( ) ( ) ( ) ( )t t j t t j t t j t t jcov y y E y y E y E y E y y (39)
En esta ecuación se sigue con el supuesto que μ = 0, es decir que E(yt ) = E(y
t-1 ) = 0. Se procede
a calcular la autocovarianza de primer orden:
1 1 1 1 2 2 3 3 1 1 2 2 3 3 4( ) ( ) [( ) ( )]t t t t t t t t t t t tcov y y E y y E u u u u u u u u , (40)
Si se opera:
2 2 2t t-1 t t-1 1 t-1 1 2 t-2 2 3 t-3cov(y y )= E(y y )= E[ érminos cruzados], (41)
CAPÍTULO 12 Modelos de series de tiempo
409
De nuevo, al aplicar el operador de la esperanza a los términos cruzados estos desaparecerán de
la ecuación. Se analiza la primera parte de esta ecuación:
12 2 2
12
1
= =
= = + +
= =
2 2 21 t-1 1 2 t-2 2 3 t-3
1 1 2 2 3
1 1 2 2 3(
t t-1cov(y y ),
t t-1cov(y y ),
t t-1cov(y y ),
(42)
Se hace lo mismo para determinar las autocovarianzas de orden superior:
2 2 1 1 2 2 3 3 2 1 3 2 4 3 5( ) ( ) [( ) ( )]t t t t t t t t t t t ty y E y y E u u u u u u u u ,cov (43)
2 2t t-2 t t-2 2 t-2 1 3 t-3cov(y y )= E(y y )= E[ érminos cruzados], (44)
Si se opera, se obtiene:
t t-2cov(y y ), 2
2
2
= =
= =
= =
2 22 t-2 1 3 t-3
2 22 1 32
2 1 3
t t-2cov(y y ),
t t-2cov(y y ), (45)
La autocovarianza de tercer orden:
3 3 1 1 2 2 3 3 3 1 4 2 5 3 6( ) ( ) [( ) ( )]t t t t t t t t t t t tcov y y E y y E u u u u u u u u , (46)
2t t-3 t t-3 3 t-3cov(y y )= E(y y )= E[ érminos cruzados], (47)
Por lo tanto:
3
3
= =
= =
2t t-3 3 t-3
2t t-3 3
cov(y y )cov(y y )
,,
(48)
Como se puede apreciar, las covarianzas de orden mayor a 3 solo tendrán elementos cruzados,
por lo que las covarianzas serán iguales a cero:
t t- j t t- jcov(y y )= E(y y )= 0 j > 3 , (49)
Finalmente, se calculan las autocorrelaciones de acuerdo a la ecuación (8):
11
0
21 1 2 2 3 1 1 2 2 3
2 2 2 2 2 2 21 2 3 1 2 3
= (50)
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
Este libro de los profesores Eduardo Court y Erick Rengifo ofrece un análisis riguroso y exhaustivo de la compleja interacción entre la estadística, econometría y los mercados
--
Joseph QuinlanChief Market Strategist and Managing Director
for Global Wealth and Investment Management at US Trust. US Trust is the private Wealth management arm of Bank of America
Este libro constituye un valioso aporte de Eduardo Court y Erick Rengifo a la literatura -
-
Hector ALonso Bueno Luján Gerente de Riesgos de Empresas y Corporaciones, BBVA Banco Continental
Global Risk Management - BBVA Group
División Latinoamérica
Cono Sur Rojas 2128 (C1416 CPX) Buenos Aires, Argentina www.cengage.com.ar
México Corporativo Santa Fe 505, piso 12 Col. Cruz Manca, Santa Fe 05349, Cuajimalpa, México DF www.cengage.com.mx
Pacto Andino: Colombia, Venezuela y Ecuador Cra. 7 N° 74-21, Piso 8, Ed. Seguros Aurora Bogotá D.C., Colombia www.cengage.com.co
El Caribe Metro Office Park 3 - Barrio Capellania Suite 201, St. 1, Lot. 3 - Code 00968-1705 Guaynabo, Puerto Rico www.cengage.com