Upload
tranxuyen
View
225
Download
1
Embed Size (px)
Citation preview
1
FRANCISCO PARRA RODRÍGUEZ
(Doctor en Economía. Universidad Nacional de Educación a Distancia)
ECONOMETRÍA APLICADA II
Econometria Aplicada II by Francisco Parra Rodríguez is licensed under a Creative Commons
Reconocimiento-NoComercial-CompartirIgual 4.0 Internacional License
2
ÍNDICE
Parte II
1. NÚMEROS INDICES..........................................................................................................................4 1.1. INTRODUCCIÓN........................................................................................................................4 1.2. NÚMEROS ÍNDICES SIMPLES.................................................................................................6 1.3. NÚMEROS ÍNDICES COMPLEJOS O SINTÉTICOS...............................................................7 1.4. ÍNDICES DE PRECIOS.............................................................................................................10 1.5. ENLACES Y CAMBIOS DE BASE..........................................................................................12 1.6. DEFLACCIÓN POR UN INDICE DE PRECIOS. ....................................................................14 1.7. INDICES DE VOLUMEN ENCADENADOS. .........................................................................16 1.8. ELABORACIÓN DE ÍNDICES COMPUESTOS .....................................................................19 1.9. PROBLEMAS ............................................................................................................................23
2. SERIES TEMPORALES....................................................................................................................27 2.1. INTRODUCCIÓN......................................................................................................................27 2.2. COMPONENTES DE UNA SERIE TEMPORAL ....................................................................31 2.3. ANÁLISIS DE LA TENDENCIA..............................................................................................33
2.3.1. Método de los semipromedios ............................................................................................35 2.3.2. Método de mínimos cuadrados...........................................................................................38 2.3.3. Médias móviles...................................................................................................................41 2.3.4. Alisado Exponencial Simple...............................................................................................44 2.3.5. Alisado Exponencial Doble ................................................................................................48 2.3.6. Método de Holt-Winters. ....................................................................................................49
2.4. ANÁLISIS DE LA ESTACIONALIDAD .................................................................................51 2.4.1. Método del porcentaje promedio ........................................................................................55 2.4.2. Método del porcentaje promedio móvil..............................................................................57 2.4.3. Desestacionalización con Estacionalidad Cambiante .........................................................62 2.4.4. Ajuste estacional a través de medias móviles con R..........................................................64
2.5. PROBLEMAS ............................................................................................................................68 3. ANÁLISIS UNIVARIANTE DE SERIES TEMPORALES..............................................................71
3.1. INTRODUCCIÓN......................................................................................................................71 3.2. PROCESOS ESTÓCÁSTICOS..................................................................................................72 3.3. PROCESOS ESTACIONARIOS ...............................................................................................74
3.3.1. Operador de Retardos y Operador Diferencia ....................................................................78 3.4. MODELIZACIÓN UNIVARIANTE DE SERIES TEMPORALES..........................................79
3.4.1. Procesos estocásticos lineales discretos..............................................................................79 3.4.2. Modelos Autorregresivos (AR(p))......................................................................................80
3.4.2.1. Modelos autorregresivos de primer orden AR(1).....................................................81 3.4.2.2. Modelos autorregresivos de segundo orden AR(2)...................................................83 3.4.2.3. Modelos autorregresivos de orden p, AR(p).............................................................85
3.4.3. Procesos de Media Móvil (MA(q)).....................................................................................88 3.4.3.1. Modelos de medias móviles de primer orden MA(1).................................................88 3.4.3.2. Modelos de medias móviles de segundo orden MA(2)..............................................90 3.4.3.3. Modelos de medias móviles de orden q, MA(q)........................................................92 3.4.3.4. Relación entre procesos AR y MA.............................................................................93
3.4.4. Procesos ARMA(p, q) ........................................................................................................95 3.4.4.1. Modelos ARMA(1, 1).................................................................................................95 3.4.4.2. Modelos ARIMA........................................................................................................98
3.4.5. Procesos Estacionales .........................................................................................................99 3.5. FASES PARA LA ELABORACIÓN DE MODELOS UNIVARIANTES..............................111
3.5.1. Fase de identificación .......................................................................................................111 3.5.2. Fase de estimación............................................................................................................113 3.5.3. Fase de validación ............................................................................................................114 3.5.4. Fase de predicción ............................................................................................................119
3.6. EJEMPLOS PRÁCTICOS .......................................................................................................122 3.6.1. Ejemplo 1: Pasajeros en Lineas Aereas. ...........................................................................122 3.6.2. Ejemplo 2: Indice de Producción Industrial de Cantabria ................................................134
3.7. PROBLEMAS ..........................................................................................................................141
3
4. Cointegracion ...................................................................................................................................143 4.1. INTRODUCCIÓN....................................................................................................................143 4.2. PASEO ALEATORIO..............................................................................................................144 4.3. PRUEBA DE RAÍZ UNITARIA..............................................................................................147 4.4. COINTEGRACIÓN .................................................................................................................153 4.5. MECANISMO DE CORRECCIÓN DE ERRORES(MCE) ....................................................157 4.6. PROBLEMAS ..........................................................................................................................158
5. MODELOS VAR .............................................................................................................................161 5.1. INTRODUCCIÓN....................................................................................................................161 5.2. MODELOS VAR .....................................................................................................................162
5.2.1. Definición .........................................................................................................................162 5.2.2. Estimación ........................................................................................................................166 5.2.3. Predicción y Función de Respuesta al Impulso ................................................................168
5.3. VAR ESTRUCTURAL ............................................................................................................173 5.4. EJEMPLO DE ESTIMACION DE UN MODELO VAR CON R. ..........................................176 5.5. PROBLEMAS ..........................................................................................................................181
6. REGRESIÓN EN EL DOMINIO DE LA FRECUENCIA ..............................................................183 6.1. INTRODUCCIÓN....................................................................................................................183 6.2. REGRESIÓN BAND SPECTRUM .........................................................................................184 6.3. REGRESIÓN EN EL DOMINIO DE LA FRECUENCIA CON PARAMETROS DEPENDIENTES DEL TIEMPO. .......................................................................................................191 6.4. DESESTACIONALIZACIÓN A TRAVÉS DE LA REGRESIÓN DEPENDIENTE DE LA FRECUENCIA.....................................................................................................................................197 6.1. PROBLEMAS ..........................................................................................................................202
7. FILTROS LINEALES......................................................................................................................204 7.1. INTRODUCCIÓN....................................................................................................................204 7.2. FILTROS ELEMENTALES ....................................................................................................205 7.3. FILTROS FIR...........................................................................................................................211 7.4. EL FILTRO COMO PRODUCTO DE CONVOLUCIÓN ......................................................216 7.5. DESCOMPOSICIÓN DE SERIES DE TIEMPO MEDIANTE FILTROS LINEALES..........225 7.6. TIPOS DE FILTROS................................................................................................................230 7.7. DISEÑO DE FILTROS............................................................................................................235
ANEXO I. SERIES DE FOURIER ..........................................................................................................244 BIBLIOGRAFÍA......................................................................................................................................270
4
1. NÚMEROS INDICES
1.1. INTRODUCCIÓN
El número índice es un valor expresado como porcentaje de una cifra que se toma como unidad
base. Por ejemplo, cuando decimos que el índice de precios de consumo (base media de
1992=100) correspondiente al mes de diciembre de 1997 es 122,9, estamos señalando que los
precios en diciembre de 1997 eran un 22,9 más elevados que los que estaban en vigor a lo largo
de 1992.
Los números índices no tienen unidades y pueden referirse tanto a precios (índice de precios de
consumo, índice de precios percibidos por los agricultores, índice de precios industriales) como
a cantidades (índice de producción industrial).
El número índice es un recurso estadístico para medir diferencias entre grupos de datos. Un
número índice se puede construir de muchas formas distintas. La forma de cada índice en
particular dependerá del uso que se le quiera dar.
Los números índices no tienen unidades y pueden referirse tanto a precios (índice de precios de
consumo, índice de precios percibidos por los agricultores, índice de precios industriales) como
a cantidades (índice de producción industrial).
El número índice es un recurso estadístico para medir diferencias entre grupos de datos. Un
número índice se puede construir de muchas formas distintas. La forma de cada índice en
particular dependerá del uso que se le quiera dar. Los números índices se elaboran tanto con
precios (p) como con cantidades (q). El año en que se inicia el cálculo de un número índice se
denomina año base y se nombran por p0 o q0 según tratemos de precios o de cantidades, a los
precios o las cantidades de los años sucesivos los indicamos por pt o qt.
5
Las comparaciones pueden ser de una única magnitud, en este caso hablaremos de índices
simples, o de varias magnitudes índices complejos o sintéticos. Si trabajamos con diferentes
magnitudes o tipos de mercancías utilizamos los subíndices (i) para referirnos a un tipo de
mercancía, de modo que utilizamos los símbolos pit o qit para señalar el precio o la cantidad de
la mercancía i en el período t.
Dentro de los índices complejos o sintéticos puede que todas las mercancías tengan la misma
importancia, índices no ponderados y en caso contrario índices ponderados. Los números
índices no ponderados son los más sencillos de calcular, pero deben de utilizarse con especial
cuidado. Los números índices ponderados requieren que definamos previamente a su
construcción los criterios de ponderación o de peso. Una vez definida una ponderación debe de
respetarse en los sucesivos períodos.
Las ventajas de los números índices son:
• Naturaleza adimensional, no tienen unidades y esto nos permite hacer comparaciones.
• Sirven para simplificar la complejidad de ciertos conceptos o fenómenos económicos.
A la hora de elaborar un número índice hay que tener presente una serie de propiedades
que el índice debe de cumplir. Dichas propiedades son:
a) Existencia: Todo número índice ha de tener un valor finito distinto de cero.
b) Identidad: Si se hacen coincidir el período base y el período actual el valor del índice tiene
que ser igual a la unidad (o 100 si se elabora en porcentajes).
c) Inversión: El valor del índice ha de ser invertible al intercambiar los períodos entre sí. Es
decir : IIt
o
ot= 1
el índice del año o calculado con la base del año t, ha de ser igual al inverso del
índice del año t calculado en base del año o.
d) Proporcionalidad: Si en el período actual todas las magnitudes experimentan una variación
proporcional, el número índice tiene que experimentar también dicha variación.
e) Homogeneidad: Un número índice no puede estar afectado por los cambios que se realicen
en las unidades de medida.
6
1.2. NÚMEROS ÍNDICES SIMPLES
Sirven para estudiar la evolución de una sola magnitud en relación a un periodo base y
pueden ser:
a) Fijos: el año base es siempre el mismo.
Si iox y itx representan los valores de la magnitud en los periodos base y actual,
respectivamente, el número índice simple se denota por 0tI , y viene dado por:
1000
0 ×=i
itt
x
xI
Que como se indica suele expresarse en porcentajes, aunque también podría expresarse en tanto
por uno y nos mide la variación que ha sufrido la magnitud entre los dos periodos considerados.
b) En cadena: cuando el año base varía, es decir cuando el año base es el inmediatamente
anterior.
1001
1 ×=−
−it
ittt x
xI
Para obtener un índice fijo a partir de un índice en cadena se utiliza la siguiente formula:
10
01 −− =
t
ttt I
II
Para el caso contrario se utiliza esta fórmula:
∏=
−=t
i
ii
t II1
10
Los números índices más utilizados son los siguientes:
• Precio relativo: es el cociente entre el precio de un bien en el periodo actual ( itp ) y el
precio del mismo en el periodo base (0ip )
1000
0 ×=I
itt
p
pp
7
• Cantidad relativa: es el cociente entre la cantidad de un bien en el periodo actual ( itq ) y
la cantidad del mismo en el periodo base (0iq )
1000
0 ×=I
itt
q
• Valor relativo : es el cociente entre el valor de un bien de un bien en el periodo actual
( itit qp ⋅ ) y la cantidad del mismo en el periodo base ( ioi qp ⋅0 )
tt
iti
ititt qpqp
qpv 00
00 100 ⋅=×
⋅⋅
=
1.3. NÚMEROS ÍNDICES COMPLEJOS O
SINTÉTICOS
Son indicadores sintéticos que se elaboran a partir de dos o más series de datos con el objeto de
estudiar su evolución conjunta y realizar comparaciones con otras series. Los números índices
compuestos se clasifican en:
a. No ponderados: Cuando todas las variables tienen asignada la misma importancia.
b. Ponderados: Cuando a cada variable se le asigna un peso o ponderación.
Partimos de una serie de magnitudes simples nxxx ,....,, 21 , para las que conocemos su valor en
el periodo base o de referencia, al que denotaremos por 0, y en el periodo actual t.
A continuación calculamos los índices simples para cada magnitud, de modo que disponemos
de la siguiente tabla:
8
Magnitudes Valor periodo base Valor periodo actual Índices simples
Magnitud 1
Magnitud 2
.
.
Magnitud N
X10
X20
.
.
XN0
X1t
X2t
.
.
XNt
I1= X1t/ X10
I2= X2t/ X20
.
.
In= XNt/ XN0
Con la serie de los N índices simples podemos obtener los siguientes índices compuestos:
a) índice media aritmética de índices simples cuando operamos del siguiente modo :
I =I I I
N=
I
NN
ii
N
1 2 1+ + + =∑...
b) índice media geométrica de índices simples cuando operamos del siguiente modo :
I = I I I INN i
i
N
N1 2
1
. .... ==
∏
c) índice media armónica de índices simples cuando operamos del siguiente modo :
IN
I I I
N
IN ii
N=+ + +
=
=∑
1 1 1 1
1 2 1
...
d) índice media agregativa de índices simples cuando operamos del siguiente modo :
∑
∑
=
==++++++
=N
iio
N
iit
Nooo
Nttit
x
x
xxx
xxxI
1
1
21
2
...
...
9
Una ponderación wi es un valor de referencia para cada producto que determina su importancia
relativa en el índice total. Al ser el ponderador un valor relativo lo normal es que se presente
calculado en tanto por uno, por ciento ó por mil, expresando así el porcentaje que representa
dicho producto en la cesta de productos que cubre el índice:
W =p q
p q
i
i i
i i
n
0 0
0 0∑
Una vez obtenidos los ponderadores (wi) se calculan el índice media aritmética ponderada de
índices simples cuando operamos del siguiente modo :
I =I w I w I w
w w w=
I w
w
N N
N
i ii
N
ii
N1 1 2 2
1 2
1
1
+ + ++ + +
=
=
∑
∑
...
...
.
Ejemplo 1.1.
En la tabla siguiente aparece la información que disponemos sobre una cesta de productos:
2000 2001 2002
Productos Precio venta Unidades Precio venta Unidades Precio venta Unidades
M1 1 3000 1,2 4000 1,4 5500
M2 1,5 4000 1,5 3000 1,6 4500
M3 2 2500 2 2500 2,4 2000
M4 4 2000 4,5 1500 4,5 2000
Calculamos los índices simples de precios para los productos de la cesta:
Productos 2000 2001 2002
M1 100 120,00 140,00
M2 100 100,00 106,67
M3 100 100,00 120,00
M4 100 112,50 112,50
Los índices simples para la cesta de productos serán:
10
Indices simples 2000 2001 2002
Media aritmética 100 108,13 119,79
Media geométrica 100 107,79 119,16
Media armónica 100 107,46 118,55
Media agregativa 100 108,13 119,79
El ponderador sería tanto por uno el valor del producto, es decir el precio por la cantidad
vendida, en el total vendido:
2000 2001 2002
M1 0,13636364 0,2280285 0,26829268
M2 0,27272727 0,21377672 0,25087108
M3 0,22727273 0,23752969 0,16724739
M4 0,36363636 0,32066508 0,31358885
Y el índice media aritmetica ponderado resultarán ser los siguientes:
Indice ponderado 2000 2001 2002
Media aritmética 100 108,57 119,67
1.4. ÍNDICES DE PRECIOS.
Los índices de precios se elaboran usualmente utilizando índices complejos ponderados
siendo los más utilizados los denominados índices de Laspeyres, Paasche y Fisher.
a) Índice de Laspeyres
El índice de Laspeyres es una media aritmética ponderada de índices simples, cuyo
criterio de ponderación es ioioi qpw ⋅= . La fórmula que define el índice de Laspeyres es la
siguiente:
Lp =I w
I=
p q
p q
i ii
N
ii
N
it ioi
N
io ioi
N=
=
=
=
∑
∑
∑
∑
1
1
1
1
(1.1.)
11
Se suele utilizar este índice a la hora de elaborar los índices de precios por cuestiones
prácticas ya que únicamente requiere investigar en el año base el valor de los ponderadores, que
es la parte mas costosa de la elaboración del índice, (téngase en cuenta que en el IPC se realiza
una encuesta de presupuestos familiares en los años base que requiere una muestra de 20.000
hogares). Una vez determinados los ponderadores el índice de Laspeyres únicamente requiere
que se investigue en los sucesivos períodos la evolución de los precios.
b) Índice de Paasche
También es una media aritmética ponderada de los índices simples, pero utilizando
como coeficiente ponderador itioi qpw ⋅= ; por tanto su definición queda como:
Pp =I w
I=
p q
p q
i ii
N
ii
N
it iti
N
io iti
N=
=
=
=
∑
∑
∑
∑
1
1
1
1
(1.2.)
La diferencia entre el índice Paasche y el índice Laspeyres es que exige calcular las
ponderaciones para cada periodo corriente “t”, haciendo su cálculo estadístico más laborioso, y
presentando el inconveniente de que sólo permite comparar la evolución del precio de cada año
con el año base, dado que las ponderaciones varían de período en período. Ambas razones han
determinado que este índice sea más inusual que el anterior.
c) Índice de Fisher.
El índice de Fisher es la media geométrica de los índices de Laspeyres y Paasche, es
decir :
Ep= Lp Pp. (1.4)
Como los índices de precios de consideran un año determinado para calcular el ponderador bien
sea a partir de q0 .p0 , o de qt .p0, utilizan la denominación de año base para referirse al año “0”
a partir del que se calcula el ponderador wi.
12
Ejemplo 1.2.
Utilizando los datos de la tabla del ejemplo 1.1, vamos a calcular el indice de precios de
Lasperyres (1.1), de Paasche (1.2) y de Fisher (1.3), para el año 2001.
0727,1200042500240005,130001
20005,42500240005,130002,1
1
1
1
1 =×+×+×+×
×+×+×+×=∑
∑
∑
∑
=
=
=
=N
iioio
N
iioit
N
ii
N
iii
qp
qp=
I
wI=Lp
0795,1150042500230005,140001
150005,42500230005,140002,1
1
1
1
1 =×+×+×+××+×+×+×==
∑
∑
∑
∑
=
=
=
=N
iitio
N
iitit
N
ii
N
iii
qp
qp=
I
wI=Pp
0761,10795,10727,1. =×=PpLp=Ep
1.5. ENLACES Y CAMBIOS DE BASE.
Uno de los problemas que tienen los índices ponderados como el índice de Laspeyres es que
pierden representatividad a medida que los datos se alejan del periodo base. Téngase presente
que, por ejemplo, el IPC que el INE calculó en 1991 utilizó los ponderadores obtenidos en la
Encuesta de Presupuestos Familiares de 1983 que, a su vez, reflejaba la estructura media de
consumo de los españoles en aquel año. El tiempo transcurrido entre 1983 y 1991 era lo
suficientemente dilatado para que se hubieran producido cambios en los hábitos de consumo y
en consecuencia el INE procedió a elaborar una nueva Encuesta de Presupuesto Familiares (la
de 1992), cuya estructura de consumo ó cesta de compra es la que actualmente se utiliza como
base para obtener el IPC.
La decisión que tomó el INE de realizar un nuevo IPC con la estructura de consumo resultante
de la Encuesta de Presupuestos Familiares de 1992 es lo que provoca el Cambio de Base del
IPC. Al ser los ponderadores distintos los utilizados entre 1983 y 1991 y los actuales, los índices
de precios son esencialmente distintos, y por lo tanto no se pueden comparar a priori entre sí. El
procedimiento a través del cual hacemos comparables números índices obtenidos con bases
distintas es lo que se denomina Enlace. El enlace de índices se basa en la propiedad de inversión
de los números índices.
Supongamos que queremos efectuar un cambio de base desde un índice construido con base
1983, a otro en base 1982.
13
Sea tI 83 el índice construido en base 1983 e tI 92 el índice construido con la base1992, entonces:
I =I I
I
I
I
I
tt t
9283 92
92
8392
83
8392
9292
.=
En el caso del IPC español el INE publica el valor del cociente I
I8392
9292 que denomina coeficiente
legal de enlace. El valor del coeficiente legal de enlace el la serie del IPC base 92 y el
construido con la base 1983 en el índice general de España es 0,545261 y en el índice general de
Castilla y León es 0,559529.
Cuando se dispone de los coeficientes legales de enlace, como ocurre en el caso del IPC, la
operativa aritmética se simplifica bastante, ya que enlazar la serie con base de 1983 a la serie de
base 1992 únicamente requiere el que multipliquemos la primera por el coeficiente legal de
enlace (en caso contrario habría que dividir).
El enlace del IPC base del IPC 2001, es similar aunque hay que tener presente que entre este
IPC y los anteriores hay una novedades metodológicas que no se resuelven aplicando los
coeficientes legales de enlace, este es el caso de la introducción de las rebajas en el calculo del
IPC.
El coeficiente de enlace legal se obtiene como cociente entre el índice de diciembre de 2001, en
base 2001 y, el índice para el mismo período en base 1992.
Las series enlazadas se calculan multiplicando cada uno de los índices en base 1992 por este
coeficiente. Con estas series se pueden obtener las tasas de variación mensual publicadas, pero
no sucede lo mismo con las tasas de variación anual del año 2002, ya que por ellas se utilizan
los índices del año 2001, en base 2001.
Los coeficientes de enlace se han obtenido de forma independiente para cada una de las series
de índices que tienen continuidad en la nueva base, lo cual implica que cualquier índice
agregado de una serie enlazada no es el resultado de la media ponderada de los índices
elementales que lo componen.
14
Por último, es preciso puntualizar que, si bien el nuevo Sistema tiene como base la media de los
índices del año 2001 en base 2001 igual a 100, los índices que se publicaron en ese año eran
índices calculados en base 1992 y, por tanto, las series enlazadas pueden no tener media 100 en
el año 2001.
Ejemplo 1.3.
A continuación vamos ha realizar un ejercicio de enlace de diferentes bases del índice de
precios percibidos por los agricultores. Por un lado, la seriee 1985-1990 del Índice de Precios
Percibidos por la Agricultores en Castilla y León, base 1985; y por otro la serie 1990-1995 de
dicho índice en base 1990. El enlace de la serie 1985-1990 a la base 1990 se realiza conforme a
la regla antes expuesta:
Base 1985 Base 1990 Base 1985 Base 1990 1985 100 100 94,04 1986 109,83 109,83 103,28 1987 102,29 102,29 96,19 1988 103,26 103,26 97,10 1989 111,05 111,05 104,43 1990 106,34 100 106,34 100,00 1991 99,84 106,17 99,84 1992 95,85 101,93 95,85 1993 99,84 106,17 99,84 1994 110,18 117,17 110,18 1995 113,36 120,55 113,36
1.6. DEFLACCIÓN POR UN INDICE DE
PRECIOS.
La utilidad más importante que tienen los índices de precios, aparte de describir el
comportamiento de los precios durante un período concreto, es la de deflactar series
cronológicas o temporales valoradas en moneda (euros, dolares, etc..). Deflactar es eliminar el
componente de subida de precios que es inherente a toda serie temporal que viene referida a un
valor monetario (ventas de una empresa, los salarios que cobran los trabajadores, los depósitos y
créditos bancarios, el PIB, etc...). Las ventas de una empresa, por ejemplo, se incrementan de un
año a otro (ó de un mes a otro), bien por haber aumentado el número de pedidos que realizan los
clientes o bien por que la empresa o el mercado haya decidido una subida en los precios de los
artículos pedidos. Si se valoramos el número de pedidos del año actual utilizando los precios
vigentes el ejercicio pasado, dispondremos de un elemento comparativo con respecto al
15
ejercicio anterior que nos señalaría de manera inequívoca si nuestro volumen de negocio se ha
incrementado con independencia de lo ocurrido con los precios
En consecuencia, cuando obtenemos el valor de la serie utilizando como referencia para su
valoración el precio que rige en un período determinado (un año en concreto), realizamos una
valoración a precios constantes en tanto que dicha serie valorada a los precios vigentes en cada
período nos da su valor a “precios corrientes”.
Elaborar un indice simple sobre una serie deflactada es obtener un indice de valor ó indice de
valor unitario.
En la práctica, para pasar de una serie en moneda corriente a moneda constante se realiza
dividiendo la primera por un índice de precios adecuado. Este procedimiento recibe el nombre
de deflactación y al índice de precios elegido se le denomina deflactor.
No obstante, hay que señalar que, cuando utilizamos como deflactor un índice de precios de
Laspeyres (1.1.):
ioit
itit
ioio
qp
qpqp
.
..
q . p
q . pq . p
l
v
ioio
ioit
itit
p
t
ΣΣΣ=
ΣΣΣ=
No pasamos exactamente valores corrientes a constante, cosa que si ocurre con el índice de
precios de Paasche (1.2.):
v
l
p . qp . q
p . q
t
p
it it
it it
io it
= =ΣΣΣ
Σp qio io.
Entonces el índice que realmente permite transformar los valores nominales en valores reales es
el índice de precios de Paasche. Sin embargo, los resultados de la deflación por este índice de
precios sólo es válida en el supuesto de que los bienes, y sus cantidades, incluidos en el índice
sean los mismos que en la serie de valores. Esta limitación, junto con el hecho de que en pocas
situaciones se dispone de un índice de precios de Paasche, debido a su complicada elaboración,
hace que en la práctica se utilice un índice de precios de Laspeyres.
16
Ejemplo 1.4.
En la tabla siguiente se ha deflactado la serie de salarios ordinarios en la construcción de
Cantabria por trabajador en el periodo 2002 a 2006 utilizando el Índice General de Precios al
Consumo de Cantabria de 2002 a 2006 (media trimestral) en base 2006:
Año Trimestre Coste
salarial ordinario
IPC Coste salarial en euros del 2006
Indice de Valor del Coste Salarial
2002 1 1105,61 87,04 1270,30 100,00 2002 2 1163,12 88,84 1309,25 103,07 2002 3 1197,78 88,80 1348,92 106,19 2002 4 1203,04 90,16 1334,33 105,04 2003 1 1180,87 90,05 1311,40 103,24 2003 2 1216,98 91,06 1336,41 105,20 2003 3 1200,49 90,96 1319,81 103,90 2003 4 1226,42 92,44 1326,78 104,45 2004 1 1215,01 91,77 1323,91 104,22 2004 2 1265,44 93,79 1349,28 106,22 2004 3 1247,24 93,66 1331,68 104,83 2004 4 1280,62 95,30 1343,79 105,79 2005 1 1288,86 94,52 1363,55 107,34 2005 2 1301,36 96,58 1347,48 106,08 2005 3 1295,75 96,89 1337,41 105,28 2005 4 1320,46 98,43 1341,50 105,61 2006 1 1359,89 98,31 1383,21 108,89 2006 2 1368,91 100,43 1363,00 107,30 2006 3 1386,91 100,31 1382,57 108,84 2006 4 1362,92 100,94 1350,25 106,29 2007 1 1355,71 100,52 1348,71 106,17 2007 2 1389,98 102,66 1353,99 106,59 2007 3 1428,71 102,76 1390,35 109,45
1.7. INDICES DE VOLUMEN ENCADENADOS.
Tradicionalmente, en los índices compuestos se comparan directamente dos puntos en el
tiempo, el periodo actual (t) y el periodo base (0). Las diferencias entre los distintos índices
surgen a la hora de agregar los índices simples o elementales. En los índices de tipo Laspeyres
se considera la utilización de ponderaciones del periodo base, mientras que los índices de tipo
Paasche utilizan las ponderaciones del periodo actual. En ambos casos, si se produce un cambio
importante en la composición de las unidades elementales entre los periodos base y actual, la
relevancia de ambos índices se ve reducida.
17
Los índices encadenados consideran que el paso del período 0 al t puede fragmentarse
considerando los incrementos parciales, esto es, que el encadenamiento de los índices (i.e. de las
variaciones) evaluados con la frecuencia de muestreo máxima posible constituye una valoración
más apropiada del cambio realizado desde 0 hasta t. Intuitivamente, se intenta reducir el
envejecimiento de la base.
La forma de resolver este problema consiste en efectuar las comparaciones entre períodos que
disten lo menos posible (por ejemplo, un período) mediante “eslabones”:
∑ −− =j
ssjA
ss iwI 1/1/
A partir de los eslabones, la variación entre los periodos 0 y t se encadena:
∏=
−=t
s
Ass
At ICI
11/0/
Un índice así construido carece de periodo base o de ponderaciones, ya que van cambiando a lo
largo de los distintos periodos. No obstante, se designa un periodo llamado de referencia, al que
arbitrariamente se le asigna el valor 100.
Ejemplo 1.5
En la siguiente tabla se ofrece un ejemplo con datos hipotéticos de dos productos (A y B) y tres
años (0, 1 y 2):
2000 2001 2002
PRODUCTO PRECIO CANTIDAD p0.q0 PRECIO CANTIDAD p1.q1 PRECIO CANTIDAD p2.q2
A 3 5 15 2 9 18 1 9 9
B 4 7 28 5 7 35 6 11 66
TOTAL 43 53 75
Primero, se calculan los eslabones:
18
10043
559,127
00
10 ×==qp
qp
10053
737,137
11
21 ×==qp
qp
El índice encadenado se obtiene multiplicando cada eslabón anual en forma de índice por la
cadena acumulada hasta el año precedente. La cadena así obtenida es un número índice por lo
que su conversión en términos monetarios se realiza multiplicándola por el valor a precios
corrientes observado en un año particular, llamado “de referencia”. En la siguiente tabla se
considera el año 0 como periodo de referencia:
2000 2001 2002
PRODUCTO PRECIO CANTIDAD p0.q0 PRECIO CANTIDAD P0.q1 PRECIO CANTIDAD P1.q2
A 3 5 15 2 9 27 1 9 18
B 4 7 28 5 7 28 6 11 55
TOTAL 43 55 73
Eslabón 100 127,9 132,7
Índice encadenado 100 127,9 176,2
Valoración monetaria 43 55 76
100
1009,1279,127
×=
100
9,1277,1372,176
×=
Debe señalarse que, a diferencia de lo que ocurría con la valoración a precios constantes en la
que el año de referencia y base coinciden, en el sistema de valoración a precios del año anterior
no son equivalentes. Así, el año de referencia es el que define la escala del índice encadenado
(haciéndolo 100), mientras que la base temporal es móvil, existiendo tantas bases como pares de
2000 2001 2002
PRODUCTO PRECIO CANTIDAD p0.q0 PRECIO CANTIDAD P0.q1 PRECIO CANTIDAD P1.q2
A 3 5 15 2 9 27 1 9 18
B 4 7 28 5 7 28 6 11 55
TOTAL 43 55 73
Eslabón 100 127,9 137,7
19
años consecutivos por lo que, en conjunto, la valoración encadenada carece de base fija (base
móvil).
La aplicación de esta metodología genera una pérdida de aditividad en las medidas encadenadas
de volumen (excepto en los datos correspondientes a los años de referencia y al inmediatamente
posterior). La pérdida de aditividad significa, por ejemplo, que la suma de los componentes del
Producto Interior Bruto (PIB) no coincide con éste (excepto en los datos correspondientes a los
años de referencia y al inmediatamente posterior). De forma general, una variable valorada
mediante medidas encadenadas de volumen no coincide con la suma de sus elementos
constituyentes igualmente evaluados a través de medidas encadenadas de volumen. La pérdida
de aditividad es una consecuencia directa de las propiedades matemáticas del sistema de
valoración, por lo que las discrepancias no reflejan deterioro alguno de calidad en el proceso de
medida.
1.8. ELABORACIÓN DE ÍNDICES COMPUESTOS
La fórmula básica para la construcción de los indicadores líderes compuestos es la siguiente:
donde
iw es el ponderador
is es el método de normalización
ic es el indicador simple
Cuando se elabora un indicador compuesto es necesario que las series individuales presenten la
misma amplitud cíclica relativa, pues de lo contrario, las series con mayor amplitud cíclica
dominarían el comportamiento del indicador compuesto, impidiendo así que se revele la
información contenida en otras series de menor amplitud. Para lograrlo, se normalizan las series
componentes restándoles la media y dividiéndolas por el promedio de las desviaciones de la
media en valor absoluto, conforme la siguiente fórmula:
20
Otros métodos de normalización serían:
z-score:
Min-max:
Cuando se trabaja con balances de respuestas (encuestas de opiniones empresariales), es
conveniente utilizar índices de difusión:
2
100+= t
t
xID
donde IDt es el índice de difusión y xt es el balance de respuestas correspondiente.
La diferencia entre un balance de respuestas y un índice de difusión es que el primero está
centrado en cero, con un valor máximo de 100 y un mínimo de -100, mientras que el segundo
está centrado en 50, con un valor máximo de 100 y un valor mínimo de cero. El uso de índices
de difusión resulta más cómodo que el uso de balances, ya que en tal transformación, las series
sólo toman valores positivos, lo que facilita el uso de logaritmos y descomposiciones
multiplicativas de las series temporales.
Cuando el índice de difusión es mayor que 50, significa que los entrevistados están optimistas
respecto a la evolución de la variable objetivo. Si es menor que 50, los entrevistados se
encuentran pesimistas.
La ponderación se puede obtener de datos base de la Contabilidad Nacional Anual, por ejemplo,
si se quiere construir un indicador de producción industrial, se puede agregar a partir de los
índices subsectoriales y el VAB o empleo de cada subsector.
A continuación se exponen dos metodologías estadísticas de obtención de ponderadores: el
método de Granger y Newbold (1986) y los componentes principales.
21
a. El método de Granger y Newbold
Para la construcción del indicador sintético se estima la siguiente ecuación, utilizando la serie
anual de la macromagnitud de referencia y el conjunto de variables seleccionadas anualizadas:
( ) ( ) ( ) TTTktkkkTTT ZXbaXbaXbaY µµααα +=+++++++= ...2
2221
111
donde:
YT es el valor de la variable a trimestralizar en el año T.
jTX es el valor del indicador aproximativo, en el año T, proyectada hasta el último trimestre del
año actual a través de modelos ARIMA, siendo k el número de indicadores aproximativos
utilizados
aj es el término independiente de la regresión entre Y y Xj.
bj es el coeficiente de la regresión entre Y e Xj.
jα es el peso asignado a la estimación a través de la variable j
TZ es el indicador sintético
Tµ es el error del modelo en el año T.
El peso de cada variable en el indicador sintético se establece de forma inversamente
proporcional al error de su regresión con Y, jσ , tal que:
∑=
−
−
=k
hh
jj
1
1
1
σ
σα
Una vez obtenido el indicador Z, se obtiene la serie estimada del valor trimestral de la variable y
( ) ( ) ( )ktkkkttt xbaxbaxbay ++++++= ααα ...2
2221
111
b. Estimación del modelo con Componentes Principales
La metodología de componentes principales se realiza en dos fases. En primer lugar se realiza
una estimación de los componentes principales de los indicadores estratégicos relacionados con
la variable Y, y en segundo lugar se realiza una regresión entre Y y el valor anualizado de los
factores resultantes de la fase anterior.
22
Así pues, siendo X1, X2,….Xm los distintos indicadores que hemos seleccionado como
variables relacionadas con Y, este método nos va extraer las diferentes funciones lineales (Zs)
que existen entre ellas:
nmnmm
m
nn
nn
XaXaXaZ
XaXaXaZ
XaXaXaZ
....
....
....
....
22
11
22
221
212
12
121
111
++=
++=++=
Este método extrae las funciones lineales (Zs) seleccionando las así de tal modo que las
varianzas de las Zs sean maximizadas. De este modo, los componentes extraídos son las
combinaciones lineales de los indicadores que tienen mayor varianza, siendo Z1 el componente
con mayor varianza explicada, seguido del Z2 que contiene la segunda mayor varianza explicada
pero sin estar correlacionado con Z1 y así sucesivamente, de modo que la suma de la varianza de
todos los componentes explique el total de las variaciones de las Xn y, a su vez, estén
incorrelacionadas entre ellas.
Uno de los problemas de esta metodología radica en la determinación del número de
componentes que deben ser tomados en cuenta para la fase número dos. La práctica más
extendida es que sólo serán tomados aquellos componentes cuyos autovalores (raíces
características) superen la unidad.
En la segunda fase del modelo de componentes principales, se expresa la relación entre el Y
trimestral y los componentes principales (CP) extraídos del conjunto de indicadores originales.
TTT CPY µβα ++=
Obteniéndose la estimación trimestral de Y a partir de:
ttt CPy µβα ++=
23
1.9. PROBLEMAS
1.1 Partiendo de las siguientes observaciones de tres precios:
Año A B C 1 3 2 4 2 4 3,5 3,5 3 4,5 3 2 4 5 2,5 1,5 5 6 3 1
Se pide:
a) Calcular el índice simple de cada precio tomando como referencia en año 1
b) Calcula un indice compuesto media aritmética, armónica y geométrica.
c) Calcula un indice compuesto ponderado utilizando como ponderadores 0.60, 0.30 y
0.10 para el precio A, B y C respectivamente.
1.2 Partiendo de las siguientes observaciones de precios y cantidades de los artículos de la
tabla:
Precios Cantidades Año A B C A B C
1 6 1 2 50 500 100 2 7 1,5 3,5 40 450 120 3 8 0,75 4 30 600 110
a) Obtener los índices de precios de Paache, Laspeyres y Fisher tomando como referencia
en periodo 1.
b) Obtener los índices de cantidades de Paache, Laspeyres y Fisher tomando como
referencia en periodo 1.
1.3 En un contrato de alquiler está establecido que la renta anual se tiene que revisar de acuerdo
al crecimiento anual del IPC, teniendo en cuenta que el año 2010 se pagaba de 700 euros de
alquiler, calcule la actualización de dicha renta en 2011, 2012 y 2013, utilizando los datos
de la tabla siguiente:
IPC(Base 2005)
2010 120 2011 122 2012 125,5 2013 125
24
1.4 En la tabla siguiente se recogen los incrementos de salarios mensuales medios de una
industría durante el periodo 2010-2013, utilizando el IPC que se recoge en el cuadro
anterior calcule:
Año
Salario medio por trabajador y mes
2010 1200 2011 1210 2012 1150 2013 1000
a) Los indices de precios con base 2010
b) Los salarios en valores constantes del 2010
c) Calcule un indice que refleje la evolución del poder adquisitivo de esos salarios durante
el periodo.
1.5 En el 2013 se ha procedido a un cambio de base en dicho IPC, teniendo presente que el IPC
de 2014 con la base 2013 es 101,35, indique como ha variado el poder adquisitivo del un
salario medio de 1150 euros por trabajador y mes pagado en 2012.
1.6 Se dispone de los siguientes datos de precios y cantidades producidas:
A B Años p q p q
0 6 50 3 35 1 8 60 4 45 2 10 70 7 50 3 12 80 9 60
Obtenga los eslabones y los índices de volumen de Laspeyres encadenados, año de referencia 0
y 1.
25
SOLUCIONES
1.1 a)
Año A B C 1 100 100 100 2 133,333333 175 87,5 3 150 150 50 4 166,666667 125 37,5 5 200 150 25
b)
Año Aritmética Armónica Geometrica 1 100 100 100 2 131,944444 121,73913 126,861044 3 116,666667 90 104,004191 4 109,722222 73,7704918 92,1007875 5 125 58,0645161 90,8560296
c)
Año Ponderado 1 100 2 141,25 3 140 4 141,25 5 167,5
1.2 a)
Paache Laspeyres Fisher 100 100 100
147,849462 145 146,4178 113 117,5 115,228035
b)
Paache Laspeyres Fisher 100 100 100
94,8275862 93 93,9093473 96,1702128 100 98,0664126
1.3
Renta 2010 700 2011 711,666667 2012 732,083333 2013 729,166667
26
1.4
a)
Año
Indice de precios (Base 2010)
2010 100 2011 101,666667 2012 104,583333 2013 104,166667
b)
Año
Salarios a valores constantes
2010 1200 2011 1190,16393 2012 1099,60159 2013 960
c)
Año Indice de Valor
2010 100 2011 99,1803279 2012 91,6334661 2013 80
1.5.
1139,22
1.6.
Años Eslabon Indice encadenado
0 100 1 122,222222 122,222222 2 115,151515 140,740741 3 116,190476 133,795094
27
2. SERIES TEMPORALES
2.1. INTRODUCCIÓN
El presente epígrafe pretende ser una breve introducción al estudio de las series temporales, las
cuales poseen una gran importancia en el campo de la Economía dada la abundancia de este tipo
de observaciones; de hecho, las series temporales constituyen la mayor parte del material
estadístico con el que trabajan los economistas.
Pero, ¿qué es una serie temporal? Por definición, una serie temporal es una sucesión de
observaciones de una variable realizadas a intervalos regulares de tiempo. Según realicemos la
medida de la variable considerada podemos distinguir distintos tipos de series temporales:
− Discretas o Continuas, en base al intervalo de tiempo considerado para su medición.
− Flujo o Stock. En Economía, se dice que una serie de datos es de tipo flujo si está
referida a un período determinado de tiempo (un día, un mes, un año, etc.). Por su parte,
se dice que una serie de datos es de tipo stock si está referida a una fecha determinada
(por ejemplo, el 31 de Diciembre de cada año). Un ejemplo de datos de tipo flujo serían
las ventas de una empresa ya que éstas tendrán un valor distinto si se obtiene el dato al
cabo de una semana, un mes ó un año; por su parte, la cotización de cierre de las
acciones de esa misma empresa sería una variable de tipo stock, ya que sólo puede ser
registrado a una fecha y hora determinadas. Obsérvese que existen relación entre ambos
tipos de variables, pues la cotización al cierre de las acciones no es más que el precio de
cierre del día anterior más, o menos, el flujo de precios de la sesión considerada.
− Dependiendo de la unidad de medida, podemos encontrar series temporales en pesetas o
en diversas magnitudes físicas (kilogramos, litros, millas, etc.)
− En base a la periodicidad de los datos, podemos distinguir series temporales de datos
diarios, semanales, mensuales, trimestrales, anuales, etc.
28
Antes de profundizar en el análisis de las series temporales es necesario señalar que, para
llevarlo a cabo, hay que tener en cuenta los siguientes supuestos:
− Se considera que existe una cierta estabilidad en la estructura del fenómeno estudiado.
Para que se cumpla este supuesto será necesario estudiar períodos lo más homogéneos
posibles.
− Los datos deben ser homogéneos en el tiempo, o, lo que es lo mismo, se debe mantener
la definición y la medición de la magnitud objeto de estudio. Este supuesto no se da en
muchas de las series económicas, ya que es frecuente que las estadísticas se
perfeccionen con el paso del tiempo, produciéndose saltos en la serie debidos a un
cambio en la medición de la magnitud estudiada. Un caso particularmente frecuente es
el cambio de base en los índices de precios, de producción, etc. Tales cambios de base
implican cambios en los productos y las ponderaciones que entran en la elaboración del
índice que repercuten considerablemente en la comparabilidad de la serie en el tiempo.
El objetivo fundamental del estudio de las series temporales es el conocimiento del
comportamiento de una variable a través del tiempo para, a partir de dicho conocimiento, y bajo
el supuesto de que no van a producirse cambios estructurales, poder realizar predicciones, es
decir, determinar qué valor tomará la variable objeto de estudio en uno o más períodos de
tiempo situados en el futuro, mediante la aplicación de un determinado modelo calculado
previamente.
Dado que en la mayor parte de los problemas económicos, los agentes se enfrentan a una toma
de decisiones bajo un contexto de incertidumbre, la predicción de una variable reviste una
importancia notoria pues supone, para el agente que la realiza, una reducción de la
incertidumbre y, por ende, una mejora de sus resultados.
Las técnicas de predicción basadas en series temporales se pueden agrupar en dos grandes
bloques:
− Métodos cualitativos, en los que el pasado no proporciona una información directa
sobre el fenómeno considerado, como ocurre con la aparición de nuevos productos en el
mercado. Así, por ejemplo, si se pretende efectuar un estudio del comportamiento de
29
una acción en Bolsa, y la sociedad acaba de salir a cotizar al mercado, no se puede
acudir a la información del pasado ya que ésta no existe.
− Métodos cuantitativos, en los que se extrae toda la información posible contenida en los
datos y, en base al patrón de conducta seguida en el pasado, realizar predicciones sobre
el futuro.
Indudablemente, la calidad de las previsiones realizadas dependerán, en buena medida, del
proceso generador de la serie: así, si la variable observada sigue algún tipo de esquema o patrón
de comportamiento más o menos fijo (serie determinista) seguramente obtengamos
predicciones más o menos fiables, con un grado de error bajo. Por el contrario, si la serie no
sigue ningún patrón de comportamiento específico (serie aleatoria), seguramente nuestras
predicciones carecerán de validez por completo.
Generalmente, en el caso de las series económicas no existen variables deterministas o
aleatorias puras, sino que contienen ambos tipos de elementos. El objeto de los métodos de
previsión cuantitativos es conocer los componentes subyacentes de una serie y su forma de
integración, con objeto de realizar de su evolución futura.
Dentro de los métodos de predicción cuantitativos, se pueden distinguir dos grandes enfoques
alternativos:
− Por un lado, el análisis univariante de series temporales mediante el cual se intenta
realizar previsiones de valores futuros de una variable, utilizando como información la
contenida en los valores pasados de la propia serie temporal. Dentro de esta
metodología se incluyen los métodos de descomposición y la familia de modelos
ARIMA univariantes que veremos más adelante.
− El otro gran bloque dentro de los métodos cuantitativos estaría integrado por el análisis
multivariante o de tipo causal, denominado así porque en la explicación de la variable o
variables objeto de estudio intervienen otras adicionales de ella o ellas mismas.
En el tratamiento de series temporales que vamos a abordar, únicamente se considerará la
información presente y pasada de la variable investigada. Si la variable investigada es Y y se
dispone de los valores que toma dicha variable desde el momento 1 hasta T, el conjunto de
información disponible vendrá dado por:
30
Y1, Y2, Y3, …, YT-1, YT
Dada esa información, la predicción de la variable Y para el período T+1 la podemos expresar
como:
TTY /1ˆ
+
Con esta notación queremos indicar que la predicción para el periodo T+1 se hace condicionada
a la información disponible en el momento T. El acento circunflejo sobre la Y nos indica que esa
predicción se ha obtenido a partir de un modelo estimado. Conviene también hacer notar que
T+1 significa que se está haciendo la predicción para un período hacia delante, es decir, con la
información disponible en t hacemos una predicción para el período siguiente.
Análogamente, la predicción para el período T+2 y para el período T+m, con la información
disponible en T, vendrá dada, respectivamente, por:
TmTTT YY //2ˆ ;ˆ
++
que serán predicciones de 2 y m períodos hacia adelante.
Si, genéricamente, para el período t se efectúa una predicción con la información disponible en
t–1, y a la que designamos por 1/ˆ
−ttY , para el período t podemos hacer una comparación de este
valor con el que realmente observemos (Yt). La diferencia entre ambos valores será el error de
predicción de un período hacia adelante y vendrá dado por:
1/1/ˆ
−− −= ttttt YYe
Cuando un fenómeno es determinista y se conoce la ley que lo determina, las predicciones son
exactas, verificándose que 01/ =−tte . Por el contrario, si el fenómeno es poco sistemático o el
modelo es inadecuado, entonces los errores de predicción que se vayan obteniendo serán
grandes.
Para cuantificar globalmente los errores de predicción se utilizan los siguientes estadísticos: la
Raíz del Error Cuadrático Medio (RECM) y el Error Absoluto Medio (EAM).
31
En el caso de que se disponga de T observaciones y se hayan hecho predicciones a partir de la
observación 2, las fórmulas para la obtención de la raíz del Error Cuadrático Medio y el Error
Absoluto Medio son las siguientes:
1
ˆ
1
1
)ˆ(
1
2
1/
2
1/
2
21/
2
21/
−
−=
−=
−
−
=−
=
∑∑
∑∑
=−
=−
=−
=−
T
YY
T
e
EAM
T
YY
T
e
RECM
T
t
ttt
T
t
tt
T
t
ttt
T
t
tt
De forma análoga se pueden aplicar la RECM y el EAM en predicciones de 2, 3, …, m períodos
hacia adelante.
En el análisis de series temporales se aplican, en general, métodos alternativos a unos mismos
datos, seleccionando aquel modelo o aquel método que, en la predicción de períodos presentes y
pasados, arroja errores de predicción menores, es decir, arroja una RECM o un EAM menor.
2.2. COMPONENTES DE UNA SERIE TEMPORAL
Tradicionalmente, en los métodos de descomposición de series temporales, se parte de la idea de
que la serie temporal se puede descomponer en todos o algunos de los siguientes componentes:
− Tendencia (T), que representa la evolución de la serie en el largo plazo
− Fluctuación cíclica (C), que refleja las fluctuaciones de carácter periódico, pero no
necesariamente regular, a medio plazo en torno a la tendencia. Este componente es
frecuente hallarlo en las series económicas, y se debe a los cambios en la actividad
económica.
Para la obtención de la tendencia es necesario disponer de una serie larga y de un
número de ciclos completo, para que ésta no se vea influida por la fase del ciclo en que
finaliza la serie, por lo que, a veces, resulta difícil separar ambos componentes. En estos
casos resulta útil englobar ambos componentes en uno solo, denominado ciclo-
tendencia o tendencia generalizada.
32
− Variación Estacional (S): recoge aquellos comportamientos de tipo regular y repetitivo
que se dan a lo largo de un período de tiempo, generalmente igual o inferior a un año, y
que son producidos por factores tales como las variaciones climatológicas, las
vacaciones, las fiestas, etc.
− Movimientos Irregulares (I), que pueden ser aleatorios, la cual recoge los pequeños
efectos accidentales, o erráticos, como resultado de hechos no previsibles, pero
identificables a posteriori (huelgas, catástrofes, etc.)
En este punto, cabe señalar que en una serie concreta no tienen por qué darse los cuatro
componentes. Así, por ejemplo, una serie con periodicidad anual carece de estacionalidad.
La asociación de estos cuatro componentes en una serie temporal, Y, puede responder a distintos
esquemas; así, puede ser de tipo aditivo:
Y=T+C+S+I
También puede tener una forma multiplicativa:
Y=TCSI
O bien ser una combinación de ambos, por ejemplo:
Y=TCS+I
Una forma sencilla para ver como están asociadas las componentes de una serie temporal es
representar gráficamente la serie que estamos analizando. Si al realizar la representación gráfica
se observa que las fluctuaciones son más o menos regulares a lo largo de la serie, sin verse
afectadas por la tendencia (véase Figura. 2.1), se puede emplear el esquema aditivo.
33
Figura 2.1. Esquema aditivo
Si, por el contrario, se observa que la magnitud de las fluctuaciones varía con la tendencia,
siendo más altas cuando ésta es creciente y más bajas cuando es decreciente (véase Figura 2.2),
se debe adoptar entonces el esquema multiplicativo.
Figura 2.2. Esquema multiplicativo.
2.3. ANÁLISIS DE LA TENDENCIA
Como decíamos en el apartado anterior, la tendencia es el componente de la serie temporal que
representa la evolución a largo plazo de la serie. La tendencia se asocia al movimiento uniforme
34
o regular observado en la serie durante un período de tiempo extenso. La tendencia es la
información más relevante de la serie temporal ya que nos informa de si dentro de cinco, diez o
quince años tendrá un nivel mayor, menor o similar al que la serie tiene hoy día.
El análisis de la tendencia se realiza fundamentalmente con dos objetivos: por un lado, para
conocer cuáles son las pautas de comportamiento a lo largo del tiempo, de la variable objeto de
estudio, y por otro, para predecir sus valores futuros.
Las tendencias suelen representarse mediante funciones de tiempo continuas y diferenciables.
Las funciones de tendencia más utilizadas son:
1. Lineal.
2. Polinómica.
3. Exponencial.
4. Modelo autorregresivo
5. Función
6. Curva de Gompertz
7. Modelo logarítmico recíproco
Si una serie temporal Xt se ajusta a una tendencia lineal, la función de tiempo que se plantea es
la siguiente:
Xt =α+βt t= 1, 2, …, n
Una tendencia polinómica de grado p se ajustará a una función del siguiente tipo:
f(t) = α+β1 + β2t2 + …+βpt
p
Si la tendencia sigue una ley exponencial, entonces la función de ajuste será:
f(t) = aert
donde a y r son constantes.
Un modelo autorregresivo ajusta la tendencia de la forma siguiente:
Xt =γ0+γ1xt-1 + ut siendo γ>0
35
La curva logística se representa mediante la función:
T t =T
be rt( )1− −
donde t, b y r son constantes positivas.
La curva de Gompertz responde a la siguiente ecuación:
f (t) = T·be-rt
donde T, r, b son parámetros positivos.
Finalmente, el modelo logarítmico recíproco, viene definido por la relación:
f(t) = a + b 1/t B<0
Para calcular las funciones de tendencia, lo habitual es linealizar las formas de las funciones no
lineales y proceder a su estimación como si fuera una función de tendencia lineal.
Una vez establecido un modelo teórico para la tendencia, se debe proceder a la determinación o
cálculo de los parámetros que desconocemos mediante diversos procedimientos estadísticos,
que pasamos a describir a continuación.
2.3.1. Método de los semipromedios
El método de los semipromedios es la forma más rápida de estimar una línea de tendencia recta.
El método requiere dividir la serie de datos en dos mitades y calcular el promedio de cada mitad
que se centra en el punto medio. La recta que una ambas medias (o semipromedios) será la línea
de tendencia estimada.
Ejemplo 2.1.
Utilizando la serie cronológica de ventas de gasolina en Castilla y Leon: años 1985-1994.
(Miles de Tm.) sobre la que vamos a realizar un ajuste de una tendencia basada en el método de
semipromedios:
36
AÑOS Tm.
1985 441.300
1986 441.200
1987 466.700
1988 496.700
1989 527.809
1990 536.445
1991 548.302
1992 599.525
1993 613.849
1994 610.370
Dividimos la serie en dos mitades, cada una de cinco años, y calculamos los promedios de cada
mitad. Los promedios los centramos en las observaciones centrales, las correspondientes a 1987
y 1992:
Promedio centrado en 1987 = 441.300 + 441.200 + 466.700 + 496.700 + 527.809
5474 742= .
Promedio centrado en 1992 = 536.445 + 548.302 + 599.525 + 613.849 + 610.370
5581698= .
La ecuación de la línea de tendencia será:
Yt* = a + bt
donde Yt* es el valor de la tendencia estimada de las ventas de gasolina.
El valor de a se obtiene al hacer t=0, y se hace corresponder con el valor del primer promedio:
a Y= =0 474 472* .
El coeficiente de la pendiente de la recta b representaría el incremento anual de la tendencia, y
se calcula a partir de los dos promedios:
37
b =−
=581698 474 742
521391
. ..
Nótese que al ser cinco los años que hay de diferencia entre 1992 y 1987, años en los que hemos
centrado los promedios, el denominador que utilizamos para calcular el incremento anual es
igual a 5.
La ecuación Yt*=474.742+21391t nos sirve para obtener la tendencia una vez conocidos los
valores t o del regresor, que ha de tener necesariamente valor cero en 1987. Los valores de Xt se
elaboran a partir de una sucesión de puntuaciones consecutivas que van desde un mínimo de -2
de 1985 hasta un máximo de 7 en 1994:
Tm. Semipromedio t Tendencia
1985 441300 -2 431959
1986 441200 -1 453351
1987 466700 474742 0 474742
1988 496700 1 496133
1989 527809 2 517524
1990 536445 3 538916
1991 548302 4 560307
1992 599525 581698 5 581698
1993 613849 6 603089
1994 610370 7 624481
La tendencia se representa en la figura 2.3:
38
Tendencia de las ventas de gasolina
400.000
450.000
500.000
550.000
600.000
650.000
1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
Tm.
Tendencia
Figura 2.3.
2.3.2. Método de mínimos cuadrados
El método de mínimos cuadrados es el que más se utiliza para ajustar tendencias. Este método
da los mismos resultados que el método anterior cuando es utilizado para obtener tendencias
lineales. Si realizamos sencillas transformaciones aritméticas de los datos puede también ser
utilizado para representar funciones de tendencias no lineales.
Estimar una tendencia lineal por el método de MCO equivale a estimar la siguiente función:
Yt* = a + bt (2.1.)
utilizando como variable explicativa un vector de números secuenciales 1,2,3,…,n
representativos del periodo.
39
Si se quiere obtener una tendencia exponencial, debemos linealizar la función lo que requiere su
transformación en logaritmos:
Y = bert (2.2.)
Entonces:
ln Yt = ln b + rt
Una vez estimada la tendencia lineal por mínimos cuadrados, calculamos la exponencial del
logaritmo para devolver la tendencia a la escala de los datos originales.
Ejemplo 2.2
En la siguiente tabla en la que se muestra la evolución de las ventas de gasolina en Castilla y
León Años 1985-1994. (Miles de tm.). Con los datos transformados para estimar por MCO una
tendencia lineal y una tendencia exponencial.
Tm.(Y) Logaritmo (Y) X Tendencia exponencial Tendencia
1985 441300 13.00 1 12.98 435719
1986 441200 13.00 2 13.03 454039
1987 466700 13.05 3 13.07 473130
1988 496700 13.12 4 13.11 493024
1989 527809 13.18 5 13.15 513754
1990 536445 13.19 6 13.19 535355
1991 548302 13.21 7 13.23 557865
1992 599525 13.30 8 13.27 581322
1993 613849 13.33 9 13.31 605764
1994 610370 13.32 10 13.36 631235
Ambas tendencias se representan en la figura 2.4:
40
Tendencia de las ventas de gasolina
400.000
450.000
500.000
550.000
600.000
650.000
1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
Tm.
Tendencia
T.Exponencial
Figura 2.4.
Para analizar la calidad del ajuste realizado hay que considerar los estadísticos de la regresión
mínimo cuadrada1 :
Estadísticas de la regresión
Coeficiente de correlación múltiple 0,984248834
Coeficiente de determinación R2 0,968745767
R2 ajustado 0,964838988
Error típico 0,023756892
Observaciones 10
En el ejercicio que hemos realizado la magnitud del coeficiente de determinación (R2=0,9687)
sería indicativo de un aceptable ajuste.
La estimación MCO da lugar a los coeficientes b y m que figuran en la tabla siguiente:
Coeficientes Error típico Estadístico t Probabilidad Inferior 95% Superior 95%
Intercepción 12.9435651 0.016229 797.55546 6.8409E-21 12.9061409 12.98098942
Variable X 1 0.04118681 0.0026155 15.746915 2.6424E-07 0.03515534 0.047218276
1 El capítulo 8.4 dedicado a la regresión minimo-cuadrada estudia los fundamentos de dicha técnica y los estadísticos que se mencionan.
41
La intercepción en el origen es el coeficiente a, y la “Variable X 1” es el coeficiente b. La tabla
da el abanico de valores más probables para ambos coeficientes al nivel de confianza del 95%,
estos valores son los que figuran en las casillas Inferior y Superior. En el caso del coeficiente a,
el ajuste mínimo-cuadrado da como resultado que lo más probable es que se encuentre entre el
intervalo que va desde el valor 12,91 hasta el 12,98, siendo su valor medio 12,94; en tanto que
el coeficiente b estará en el intervalo que va desde 0,035 hasta 0,047, resultando ser su valor
medio 0,041. Se rechaza en ambos casos la hipóteis nula 0:0 =βH a un 05,0=α , por lo que
consideramos que los coeficientes estimados son estadísticamente significativos.
En el ejemplo la función lineal estimada (2.1) sería:
Yt* = 12,94 + 0,041t
La estimación de la tendencia en forma exponencial (2.2) quedaría:
Yt = 242801,6.e0,041t
2.3.3. Médias móviles
En el análisis de series temporales, el método de medias móviles tiene diversas aplicaciones:
así, este método puede sernos útil si queremos calcular la tendencia de una serie temporal sin
tener que ajustarnos a una función previa, ofreciendo así una visión suavizada o alisada de una
serie, ya que promediando varios valores se elimina parte de los movimientos irregulares de la
serie; también puede servirnos para realizar predicciones cuando la tendencia de la serie tiene
una media constante.
Veamos qué es una media móvil: se trata, sencillamente de una media aritmética que se
caracteriza porque toma un valor para cada momento del tiempo y porque en su cálculo no
entran todas las observaciones de la muestra disponible.
Entre los distintos tipos de medias móviles que se pueden construir nos vamos a referir a dos
tipos: medias móviles centradas y medias móviles asimétricas. El primer tipo se utiliza para la
42
representación de la tendencia, mientras que el segundo lo aplicaremos para la predicción en
modelos con media constante.
Las medias móviles centradas se caracterizan porque el número de observaciones que entran
en su cálculo es impar, asignándose cada media móvil a la observación central. Así, una media
móvil centrada en t de longitud 2n + 1 viene dada por la siguiente expresión:
12
......
12
1)12( 11
+++++++=
+=+ +−++−−
−=+∑
n
YYYYYY
nnMM ntnttntnt
n
niitt
Como puede observarse, el subíndice asignado a la media móvil, t, es el mismo que el de la
observación central, Yt. Obsérvese también que, por construcción, no se pueden calcular las
medias móviles correspondientes a las n primeras y a las n últimas observaciones.
Por su parte, en el caso de las medias móviles asimétricas se asigna cada media móvil al
período correspondiente a la observación más adelantada de todas las que intervienen en su
cálculo. Así la media móvil asimétrica de n puntos asociada a la observación t tendrá la
siguiente expresión:
n
YYYYY
nnMMA ttntnt
t
ntiitt
++++== −+−+−
+−=+∑ 121
1
...1)(
Este tipo de medias móviles se emplea en la predicción de series cuya tendencia muestra una
media constante en el tiempo, utilizándose la siguiente ecuación:
n
Y
n
YnMMAY
nnMMA nTT
T
T
nTitT
111
21 )(
1)( +−+
+
+−=+ −+== ∑
Es decir, para predecir el valor de la serie en el período siguiente se suma a la media móvil, la
media aritmética de los n últimos períodos, siendo n la longitud de la media móvil.
La utilización de medias móviles implica la elección arbitraria de su longitud u orden, es decir,
del número de observaciones que intervienen en el cálculo de cada media móvil. Cuanto mayor
sea la longitud, mejor se eliminarán las irregularidades de la serie, ya que al intervenir más
observaciones en su cálculo se compensarán las fluctuaciones de este tipo, pero por el contrario,
el coste informativo será mayor. Por el contrario, cuando la longitud es pequeña, la media móvil
43
refleja con mayor rapidez los cambios que puedan producirse en la evolución de la serie. Es
conveniente, pues, sopesar estos factores al decidir la longitud de la media móvil.
Ejemplo 2.3
Veamos a continuación un ejemplo, utilizando de nuevo la serie de ventas de gasolina, optamos
por calcular una media móvil trienal que ofrece los siguientes resultados:
Tm. Media móvil trienal
1985 441300
1986 441200 449733
1987 466700 468200
1988 496700 497070
1989 527809 520318
1990 536445 537519
1991 548302 561424
1992 599525 587225
1993 613849 607915
1994 610370
El valor de la media móvil trienal asignado a 1986 se calcula así:
3
466700441200441300449733
++=
A su vez, el valor de la media móvil trienal asignado a 1987 se calcula así:
3
496700466700441200468200
++=
Tendencia en medias móviles trienales de las ventas de gasolina
400.000
450.000
500.000
550.000
600.000
650.000
1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
Tm.
Media movil trienal
Figura 2.5.
44
Como se aprecia en la figura 2.5., el inconveniente que tiene la media móvil es que perdemos
información de la tendencia en los ejercicios inicial y final. En este sentido, volvemos a resaltar
que las medias móviles, comparadas con métodos basados en ajustes aritméticos, tienen un
coste informativo.
2.3.4. Alisado Exponencial Simple
El método del alisado exponencial simple consiste, al igual que en el caso de las medias
móviles, en una transformación de la variable original. Si una variable Y es sometida a un
proceso de alisado exponencial simple se obtiene como resultado la variable alisada St.
Teóricamente, la variable alisada St se obtendría según la expresión:
St = (1 – w) Yt + (1 – w) wYt-1+ (1-w) w2 Yt-2 + (1 – w) w3 Yt-3 + … (2.3.)
donde w es un parámetro que toma valores comprendidos entre 0 y 1, y los puntos suspensivos
indican que el número de términos de la variable alisada puede ser infinito. La expresión
anterior en realidad no es más que una media aritmética ponderada2 de infinitos valores de Y.
Se denomina alisada ya que suaviza o alisa las oscilaciones que tiene la serie, al obtenerse como
una media ponderada de distintos valores. Por otra parte, el calificativo de exponencial se debe a
que la ponderación o peso de las observaciones decrece exponencialmente a medida que nos
alejamos del momento actual t. Esto quiere decir que las observaciones que están alejadas tienen
muy poca incidencia en el valor que toma St. Finalmente, el calificativo de simple se aplica para
distinguirla de otros casos en que, como veremos más adelante, una variable se somete a una
doble operación de alisado.
Una vez que se han visto estos aspectos conceptuales, vamos a proceder a la obtención operativa
de la variable alisada, ya que la expresión no es directamente aplicable, por contener infinitos
términos. Retardando un período en la expresión anterior se tiene que:
2 Para que pueda aceptarse que es una media aritmética ponderada debe verificarse que las ponderaciones, sumen 1. La demostración, que excede las pretensiones de este texto, se basa en el cálculo de la suma de infinitos términos de una progresión geométrica convergente.
45
St-1 = (1 – w) Yt-1 + (1 – w) wYt-2 + (1-w) w2 Yt-3 + …
Multiplicando ambos miembros por w se obtiene:
wSt-1 = (1 – w) wYt-1 + (1 – w) w2 Yt-2 + (1 – w) w3 Yt-3 + … (2.4.)
Restando (2.4) de (2.3) miembro a miembro y ordenando los términos se tiene que:
St = (1 - w) Yt + wSt-1
O también:
St = αYt + (1 - α) St-1 (2.5.)
donde α = 1 – w.
Ahora ya sólo nos falta calcular los valores de α y S0, parámetros a partir de los cuales resulta
sencillo hallar los valores de la variable alisada de forma manera recursiva, tal que:
S1 = αY1 + (1 - α) S0
S2 = αY2 + (1 - α) S1
S3 = αY3 + (1 - α) S2
………………………
Al asignar un valor a α hay que tener en cuenta que un valor pequeño de α significa que estamos
dando mucho peso a las observaciones pasadas a través del término St-1. Por el contrario, cuando
α es grande se da más importancia a la observación actual de la variable Y. En general, parece
que un valor de α igual a 0.2 es apropiado en la mayor parte de los casos. Alternativamente, se
puede seleccionar aquel valor de α para el que se obtenga una Raíz del Error Cuadrático Medio
menor en la predicción del período muestral.
Respecto a la asignación de valor a S0 se suelen hacer estos supuestos: cuando la serie tiene
muchas oscilaciones se toma S = Y1; por el contrario, cuando la serie tiene una cierta estabilidad
se hace S0 = Y .
46
Ejemplo 2.4
La macro de análisis estadístico de EXCEL incluye un procedimiento para realizar el suavizado
exponencial (2.5):
47
En el menú de la macro hay que indicar el rango donde están los datos, el coeficiente 20,0=α ,
y la celda en donde se grabará la salida de resultados, elegimos que nos realice el gráfico y nos
calcule los errores típicos (RECM).
48
2.3.5. Alisado Exponencial Doble
Una variante más avanzada del método anterior es el Alisado Exponencial Doble, también
conocido como método de Brown. Básicamente, lo que se hace mediante este método es
someter a la variable a una doble operación de alisado: en la primera operación se alisa
directamente la variable objeto de estudio, mientras que en la segunda operación se procede a
alisar la variable alisada previamente obtenida. Así pues, las fórmulas del Alisado Exponencial
Doble son las siguientes:
Primer alisado: S’t = αYt + (1–α) S’t-1
Segundo alisado: S’’ t = αS’t + (1–α) S’’t-1
Obsérvese que en los dos alisados se utiliza el mismo coeficiente α. A partir de las dos variables
alisadas se estiman los coeficientes de la recta para utilizarlos en la predicción.
Las fórmulas que permiten pasar de los coeficientes de alisado a los coeficientes de la recta son
las siguientes:
)(1
2
'''1
'''0
ttt
ttt
SSb
SSb
−−
=
−=
αα
Finalmente, si con la información disponible en t, deseamos realizar una predicción de la
variable para el momento t+m, aplicaremos la siguiente fórmula:
mbbY ttmt 10ˆ +=+
Asimismo, al igual que en el caso del Alisado Exponencial Simple, para poder obtener St' y St’’
es necesario conocer los valores iniciales, que en este caso serían dos, S0’ y S0’’ . Para
determinarlos se utilizan las siguientes relaciones que permiten obtener b0t y b1t, aunque en
sentido inverso.
Realizando un ajuste de la recta por mínimos cuadrados con toda la información disponible se
obtendrán las estimaciones tt bb 10ˆ y ˆ .
49
Haciendo que:
b00 = tb0ˆ y b10 = tb1
y tomando t = 0, se obtiene:
αα
αα
−−=
−−=
12
1
1000''
0
1000'0
bbS
bbS
A partir de estos valores se inicia la recursión ya señalada.
En lo que respecta al valor de α, es válido lo que se dijo en el caso del Alisado Exponencial
Simple, siendo aconsejable tomar α = 0.2 o, alternativamente, seleccionar aquel valor de α que
haga mínima la RECM cuando realicemos predicciones.
2.3.6. Método de Holt-Winters.
El método de Holt-Winters es una técnica de suavizado que utiliza un conjunto de estimaciones
recursivas a partir de la serie histórica. Estas estimaciones utilizan una constantes de nivel, α ,
una constante de tendencia, β , y una constante estacional multiplicativa,γ . Las estimaciones
recursivas se basan en las siguientes ecuaciones:
)10(,)1()ˆ(ˆ2
11 <<−+−=−
−− αααt
tttt F
YTYY
)10(),ˆˆ)(1( 11 <<−−+= −− βββ tttt YYTT (2.6.)
)10(,ˆ
)1( <<−+= − γγγt
tstt
Y
YFF
donde s=4 en el caso de datos trimestrales y s=12 en el caso de los datos mensuales. tY sería el
nivel suavizado de la serie, tT la tendencia suavizada de la serie y tF el ajuste estacional
suavizado de la serie.
50
Ejemplo 2.5
Utilizando el programa R se va a desarrollar un alisado exponencial doble, para lo cual hay que
invocar la función “HoltWinters”, que tiene la siguiente estructura:
HoltWinters(x, alpha = NULL, beta = NULL, gamma = NULL, seasonal = c("additive", "multiplicative"), start.periods = 2, l.start = NULL, b.start = NULL, s.start = NULL, optim.start = c(alpha = 0.3, beta = 0.1, gamma = 0.1), optim.control = list())
Hay que tener presente que “x” es el conjunto de datos, alpha, beta y gamma, son las
constantes α , β , y γ de (2.6). Si se desea la función elege los coeficientes α , β , y γ
optimos, en la opción “optim.start”, hay que indicar los valores de partida, la function
intenta encontral el valor optimo minimizando el RECM en la opción por defecto. Si no se le
indican los valores de partida los encuera a través de una simple descomposición temporal de la
serie utilizando medias móviles.
Utilizando la base de datos co2 que se obtiene en R, relativa a concentraciones atomosféricas de
CO2 en partes por millón (ppm), realizamos un suavizado por el metodo de Holt-Winter en R:
> m <- HoltWinters(co2)
> m Holt-Winters exponential smoothing with trend and additive seasonal component. Call: HoltWinters(x = co2) Smoothing parameters: alpha: 0.5126484 beta : 0.009497669 gamma: 0.4728868 Coefficients: [,1] a 364.7616237 b 0.1247438 s1 0.2215275 s2 0.9552801 s3 1.5984744 s4 2.8758029 s5 3.2820088 s6 2.4406990 s7 0.8969433 s8 -1.3796428 s9 -3.4112376 s10 -3.2570163 s11 -1.9134850 s12 -0.5844250
51
Realizamos una representación gráfica de los resultados con: > plot(fitted(m)
2.4. ANÁLISIS DE LA ESTACIONALIDAD
En este apartado pasamos a examinar el análisis de la estacionalidad de las series temporales,
entendiéndose por tal, aquellos ciclos regulares cuya duración es inferior al año. Las variaciones
o ciclos estacionales son muy frecuentes en las series temporales, sea cual sea su naturaleza, y
pueden presentar un esquema horario, diario, semanal, mensual, trimestral o incluso semestral,
no siendo necesario que tengan alguna relación con las estaciones del año. Lo verdaderamente
importante de los ciclos estacionales es su temporalidad o repetición regular.
Algunos ejemplos de ciclos estacionales serían:
− El aumento de viajeros en los autobuses urbanos en determinadas horas del día.
− Las ventas diarias de un supermercado que suelen presentar entre semana un esquema
bastante regular.
52
− El movimiento de viajeros en los establecimientos hoteleros que se concentra en
determinados meses del año.
− El consumo de energía eléctrica que suele ser mayor los meses de invierno.
El motivo principal que induce a estudiar los ciclos estacionales es que, de no tenerse en cuenta
estas variaciones, se obtienen bastantes distorsiones a la hora de analizar la evolución de las
series, actuando muchas veces el factor estacional como una máscara que impide captar
adecuadamente la evolución del fenómeno objeto de estudio. Un ejemplo de estas distorsiones
ocurre, por ejemplo, cuando se compara el consumo de electricidad en el primer y segundo
trimestre del año, ya que el ciclo estacional al delimitar un aumento del consumo en los meses
de invierno, impide una interpretación correcta sobre el uso subyacente de la energía de dicho
período.
Por ello, será conveniente eliminar el influjo de los ciclos estacionales en la serie, a fin de poder
realizar comparaciones entre dos estaciones sucesivas y predecir correctamente el
comportamiento futuro de la variable.
Para ello, existen diferentes procedimientos: utilización de filtros lineales, X11-ARIMA,
SEATS (Signal Extraction in ARIMA Time Series), etc., cuya solución requiere de un cálculo
matemático relativamente complejo; aquí únicamente estudiaremos los procedimientos de
desestacionalización más sencillos: el método de porcentaje promedio y el método del
porcentaje promedio móvil.
Asimismo, cabe señalar que, con carácter previo a la desestacionalización, a menudo hay que
realizar una serie de ajustes en la serie temporal para tener en cuenta hechos o eventos que
pueden afectar al ciclo estacional que tratamos de analizar. Estos eventos que suelen ser
festividades, interrupciones del trabajo debido a huelgas, paros, regulaciones de empleo, etc., no
siempre son eliminados por los promedios dentro del mes o trimestre en que se producen, de ahí
que sea necesario corregir previamente los datos iniciales. Una forma de compensar estas
variaciones es multiplicar la serie de datos origínales por la siguiente razón:
dado mes del efectivos días de Número
laboral) calendario un en (ó años de promedio un en mes un de efectivos días de Número
53
en la que la definición de los días efectivos dependerá de la serie cronológica que nos interesa y
de los motivos por los que realizamos el ajuste.
Finalmente, para saber si una serie temporal presenta variaciones estacionales de relevancia, se
suele hacer un análisis de la varianza del componente estacional-irregular de la serie, utilizando
como factor de variación la referencia temporal de la serie (semanal, mensual, trimestral,
etc.…). Dicho análisis proporciona como estadístico la F de Snedecor, cuyo valor comparado
con el que figura en las tablas del Anexo, nos permite determinar si tiene significación el factor
temporal para explicar la varianza de la serie; de admitirse dicha posibilidad, quedaría
demostrado que los movimientos estacionales de la serie son lo suficientemente determinantes
como para proceder a su desestacionalización posterior.
Ejemplo 2.6
Veamos a continuación un ejemplo: vamos a realizar un test de presencia de estacionalidad a la
serie mensual de ventas de gasolina en Castilla y León durante el período 1985-1994.
Años
Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
1 26000 29100 28400 31000 35689 37229 32745 37621 35299 40157
2 24800 24200 27600 32400 32566 35146 28720 37208 39508 39203
3 29400 34900 33700 38700 45225 40100 42681 43175 45681 51174
4 35400 33400 40600 39700 35800 46117 44134 49106 55183 48357
5 31900 35200 34300 36500 44900 42894 43489 46905 46689 47538
6 31000 34700 39100 39900 42808 42972 42395 47682 50162 52353
7 56500 47300 50100 49700 54817 54729 57811 62712 66180 58967
8 74400 56900 60700 66100 67900 67200 70278 77667 75607 74335
9 35700 40200 40800 45300 46800 46200 50466 53616 53087 52880
10 34400 36700 38700 40200 40485 43940 46597 49400 49777 49722
11 28900 30300 33600 36100 36760 39572 40813 43204 44232 42519
12 32900 38300 39100 41100 44059 40346 48174 51229 52444 53165
TOTAL 441300 441200 466700 496700 527809 536445 548302 599525 613849 610370
Para ello, obtenemos la componente estacional-irregular de la serie como diferencia entre la
serie original y una tendencia que calculamos mediante una media móvil centrada de 12
términos.
54
Años
Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
1 0 -7992 -9617 -9067 -7695 -7370 -11358 -10774 -15852 -10918
2 0 -11433 -10733 -8117 -10968 -9395 -15639 -11802 -11472 -11766
3 0 -1108 -4683 -2192 1566 -4391 -2034 -6098 -5255 223
4 0 -2800 2050 -1317 -7883 1338 -802 -401 4216 -2590
5 0 -1117 -4525 -4725 1163 -2119 -1551 -2800 -4364 -3266
6 -5775 -2067 208 -1492 -1176 -1732 -3297 -2279 -992 1489
7 19467 10592 10992 7918 10705 10399 11713 12945 14621 0
8 37417 19908 21192 24304 23573 23405 23472 27708 24074 0
9 -1742 3308 875 2960 2900 2190 3619 3449 1096 0
10 -2875 -792 -1150 -1815 -4275 96 -665 -1274 -1645 0
11 -8650 -7117 -6433 -6615 -7833 -4322 -6733 -7451 -7261 0
12 -4958 517 -1000 -1857 -548 -3500 188 366 768 0
Para realizar un test de presencia de estacionalidad utilizamos la técnica de Análisis de Varianza
de un factor, utilizando como factor la agrupación por meses de los datos de ventas de gasolina.
El análisis de varianza ofrece en este caso los siguientes resultados:
Análisis de la varianza de la serie de ventas de gasolina en CYL
Origen de las
variaciones
Suma de
cuadrados
Grados de
libertad
Promedio de
cuadrados
F
Probabilidad
Valor crítico
para F
Entre grupos 7788660568 11 708060052 161.680764 1.2494E-51 1.90453875
Dentro de los grupos 367867165 84 4379371.01
Total 8156527733 95
Como se puede apreciar, el valor de la F es lo suficientemente grande para admitir la hipótesis
H0 de que el factor temporal mensual explica una parte de la varianza que tiene toda la serie.
Como vemos en dicha salida también aparece el valor crítico de la F por debajo del cual
rechazamos la hipótesis H0 .
55
2.4.1. Método del porcentaje promedio
El método del porcentaje promedio es un procedimiento rápido y simple para elaborar un índice
estacional. El primer paso consiste en expresar la información de cada mes (o trimestre) como
un promedio para el año; en un segundo paso se obtienen porcentajes de los promedios anuales;
y, finalmente, en un tercer paso, dichos porcentajes se promedian en cada mes, obteniéndose
como resultado el índice estacional.
Ejemplo 2.7.
Para ilustrar el método del porcentaje promedio utilizamos el anterior ejemplo de las ventas
mensuales de gasolina en Castilla y León para el período 1985-1994.
• En primer lugar obtenemos el promedio mensual de las ventas anuales:
Años
Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
1 26000 29100 28400 31000 35689 37229 32745 37621 35299 40157
2 24800 24200 27600 32400 32566 35146 28720 37208 39508 39203
3 29400 34900 33700 38700 45225 40100 42681 43175 45681 51174
4 35400 33400 40600 39700 35800 46117 44134 49106 55183 48357
5 31900 35200 34300 36500 44900 42894 43489 46905 46689 47538
6 31000 34700 39100 39900 42808 42972 42395 47682 50162 52353
7 56500 47300 50100 49700 54817 54729 57811 62712 66180 58967
8 74400 56900 60700 66100 67900 67200 70278 77667 75607 74335
9 35700 40200 40800 45300 46800 46200 50466 53616 53087 52880
10 34400 36700 38700 40200 40485 43940 46597 49400 49777 49722
11 28900 30300 33600 36100 36760 39572 40813 43204 44232 42519
12 32900 38300 39100 41100 44059 40346 48174 51229 52444 53165
TOTAL 441300 441200 466700 496700 527809 536445 548302 599525 613849 610370
MEDIA 36775 36767 38892 41392 43984 44704 45692 49960 51154 50864
• Después calculamos en cada año el porcentaje del promedio, que es la relación que se da
entre las ventas de cada mes y su promedio anual.
56
Años
Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
1 70.70% 79.15% 73.02% 74.89% 81.14% 83.28% 71.66% 75.30% 69.01% 78.95%
2 67.44% 65.82% 70.97% 78.28% 74.04% 78.62% 62.86% 74.47% 77.23% 77.07%
3 79.95% 94.92% 86.65% 93.50% 102.82% 89.70% 93.41% 86.42% 89.30% 100.61%
4 96.26% 90.84% 104.39% 95.91% 81.39% 103.16% 96.59% 98.29% 107.88% 95.07%
5 86.74% 95.74% 88.19% 88.18% 102.08% 95.95% 95.18% 93.88% 91.27% 93.46%
6 84.30% 94.38% 100.54% 96.40% 97.33% 96.13% 92.78% 95.44% 98.06% 102.93%
7 153.64% 128.65% 128.82% 120.07% 124.63% 122.43% 126.52% 125.52% 129.37% 115.93%
8 202.31% 154.76% 156.07% 159.69% 154.37% 150.32% 153.81% 155.46% 147.80% 146.14%
9 97.08% 109.34% 104.91% 109.44% 106.40% 103.35% 110.45% 107.32% 103.78% 103.96%
10 93.54% 99.82% 99.51% 97.12% 92.04% 98.29% 101.98% 98.88% 97.31% 97.75%
11 78.59% 82.41% 86.39% 87.22% 83.58% 88.52% 89.32% 86.48% 86.47% 83.59%
12 89.46% 104.17% 100.54% 99.30% 100.17% 90.25% 105.43% 102.54% 102.52% 104.52%
• El índice estacional sería el promedio para cada mes de los diez datos anuales:
Años
Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
Índice
estacional
1 71% 79% 73% 75% 81% 83% 72% 75% 69% 79% 76%
2 67% 66% 71% 78% 74% 79% 63% 74% 77% 77% 73%
3 80% 95% 87% 93% 103% 90% 93% 86% 89% 101% 92%
4 96% 91% 104% 96% 81% 103% 97% 98% 108% 95% 97%
5 87% 96% 88% 88% 102% 96% 95% 94% 91% 93% 93%
6 84% 94% 101% 96% 97% 96% 93% 95% 98% 103% 96%
7 154% 129% 129% 120% 125% 122% 127% 126% 129% 116% 128%
8 202% 155% 156% 160% 154% 150% 154% 155% 148% 146% 158%
9 97% 109% 105% 109% 106% 103% 110% 107% 104% 104% 106%
10 94% 100% 100% 97% 92% 98% 102% 99% 97% 98% 98%
11 79% 82% 86% 87% 84% 89% 89% 86% 86% 84% 85%
12 89% 104% 101% 99% 100% 90% 105% 103% 103% 105% 100%
1200%
El índice nos señala que en el período estudiado las ventas de enero han estado un 75.71%
por debajo de las ventas mensuales promedio de cada año, y que en el mes de agosto el
nivel de ventas fue un 158.07% superior al nivel de venta mensuales promedio anual. Dado
que el valor medio mensual del índice ha de ser igual a 100, la suma de los 12 datos de que
consta el índice mensual debe ser igual a 1200.
57
• Para obtener una serie de las ventas ajustadas estacionalmente, esto es, descontando el
efecto que provoca el ciclo estacional, se dividiría las ventas de cada mes por el
correspondiente índice estacional y se multiplicaría por 100:
Años
Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
1 34341 38436 37511 40945 47139 49173 43250 49690 46624 53040
2 34122 33297 37975 44579 44807 48357 39516 51194 54359 53939
3 32051 38047 36739 42190 49303 43716 46530 47069 49801 55789
4 36503 34440 41865 40937 36915 47554 45509 50636 56902 49863
5 34276 37822 36854 39218 48244 46089 46728 50398 50166 51078
6 32350 36211 40803 41637 44672 44843 44241 49758 52346 54633
7 44293 37081 39276 38963 42974 42905 45321 49163 51882 46227
8 47066 35996 38400 41816 42954 42512 44459 49133 47830 47025
9 33806 38067 38636 42897 44317 43749 47789 50772 50271 50075
10 35237 37593 39642 41178 41470 45009 47731 50602 50988 50932
11 33898 35540 39411 42343 43117 46415 47871 50675 51881 49872
12 32936 38342 39143 41145 44107 40390 48227 51285 52502 53223
2.4.2. Método del porcentaje promedio móvil
El método del porcentaje del promedio móvil es uno de los métodos más usados para la
medición de la variación estacional. Su cálculo es también bastante sencillo: en primer lugar se
obtiene un promedio móvil de 12 meses de la serie de datos originales (o de 4 trimestres si se
utilizan los datos trimestrales) tal que:
2,...,1
2,
2 ,)(
2/
1)2/(5.0
LN
LLt
L
Y
LMM
L
Lit
t −+==∑
+−+
+
Luego se recurre a un promedio móvil de 2 meses para centrar convenientemente el promedio
anterior, al que se le denomina promedio móvil centrado de doce meses; es decir:
2,...,2
2,1
2 ,
2
)()()2x ( 5.05.0 L
NLL
tLMMLMM
LMM ttt −++=
+= +−
58
Finalmente se obtiene el índice dividiendo los datos originales por el promedio móvil centrado,
MM(L x 2)t:
t
tt LMM
YEI
)2x (=
es decir, una estimación conjunta del componente estacional y del componente irregular. A los
valores obtenidos mediante la expresión anterior se los denomina índices brutos de variación
estacional.
Si disponemos de información para K años completos, el número total de observaciones es N y
la longitud del período estacional es L, se verificará que K·L = N. Bajo estos supuestos, para
cada estación se dispone de K–1 índices brutos de variación estacional, ya que se pierden L/2
datos al principio y L/2 datos al final, es decir, se pierde un dato en cada estación.
Para cada estación se puede calcular una media de todos los índices brutos disponibles. Así,
para la estación h, la media se obtendrá sumando todos los índices brutos de variación
estacional correspondientes a esa estación y dividiendo por K–1, que es el número de datos
disponibles en cada caso; es decir:
LhK
EIE
th ,...,2,1 ,
1* =
−= ∑
Al haber realizado un promedio de K–1 datos, el componente irregular queda eliminado si K es
suficientemente grande. En todo caso, al promediar siempre se atenuará el efecto del
componente irregular. Por ello, el resultado obtenido es un índice de variación estacional en el
que se supone que el componente irregular ha desaparecido completamente.
Sin embargo, estos índices no van a ser los definitivos, ya que se trata de índices no
normalizados. Si existe estacionalidad, ésta no debe afectar al nivel de la serie, por lo que es
razonable exigir a los coeficientes de estacionalidad el requisito de que su media sea 1, ó,
alternativamente, que su suma sea L. Cuando los índices de estacionalidad cumplen este
requisito se dice que están normalizados. Los índices de variación estacional normalizados se
pueden calcular fácilmente aplicando una proporción. Así, si utilizamos el símbolo hE para
designar el índice de variación estacional de la estación h, su expresión vendrá dada por
59
ˆˆ
1
*
*
∑=
=L
hh
hh
E
LEE
Finalmente, la serie desestacionalizada se obtendrá dividiendo cada valor de la serie original por
el índice de variación estacional correspondiente. Así, en el caso de que el período t pertenezca
a la estación h, entonces el valor de la serie desestacionalizada, al que designaremos por Dt,
vendrá dado por:
h
tt
E
YD
ˆ=
Ejemplo 2.8.
Veamos a continuación un ejemplo, utilizando de nuevo la serie de ventas de gasolina de
Castilla y León para obtener dicho índice estacional.
Años Meses Ventas Media móvil 12 meses
1985 1 26000
2 24800
3 29400
4 35400
5 31900
6 31000 36775
7 56500 37033
8 74400 36983
9 35700 37442
10 34400 37275
11 28900 37550
12 32900 37858
1986 1 29100 37092
2 24200 35633
3 34900 36008
4 33400 36200
5 35200 36317
El primer promedio móvil se centra en el 6º mes (Junio), lo que implica dejar sin valores seis
meses al final de la serie.
60
El segundo promedio, que es una media móvil de dos meses, se realiza para centrar
convenientemente el promedio móvil anterior, el primer valor que aparece es el valor promedio
de 36775 y 37033, y se centra en el 7º mes (Julio), quedando así ambos extremos de la serie
resultante con seis meses de ausencia de datos:
Años Meses Ventas Media móvil 12 meses Promedio móv il centrado
1985 1 26000
2 24800
3 29400
4 35400
5 31900
6 31000 36775
7 56500 37033 36904
8 74400 36983 37008
9 35700 37442 37213
10 34400 37275 37358
11 28900 37550 37413
12 32900 37858 37704
1986 1 29100 37092 37475
2 24200 35633 36363
3 34900 36008 35821
4 33400 36200 36104
5 35200 36317 36258
Finalmente se calcula el índice dividiendo los datos originales por el promedio móvil centrado y
multiplicando por cien:
61
Años Meses Ventas Media móvil
12 meses
Promedio
móvil centrado
Índice
estacional
1985 1 26000
2 24800
3 29400
4 35400
5 31900
6 31000 36775
7 56500 37033 36904 153.10%
8 74400 36983 37008 201.04%
9 35700 37442 37213 95.94%
10 34400 37275 37358 92.08%
11 28900 37550 37413 77.25%
12 32900 37858 37704 87.26%
1986 1 29100 37092 37475 77.65%
2 24200 35633 36363 66.55%
3 34900 36008 35821 97.43%
4 33400 36200 36104 92.51%
5 35200 36317 36258 97.08%
La serie desestacionalizada de las ventas de gasolina en Castilla y León sería el promedio móvil
centrado de 12 meses:
Desestacionalización de las ventas de gasolina por media móvil de 12 meses.
0
10000
20000
30000
40000
50000
60000
70000
80000
86 E
ne.
J
un.
N
ov.
A
br.
S
ep.
F
eb.
J
ul.
D
ic.
M
ay
O
ct.
M
ar.
A
go.
90 E
ne.
J
un.
N
ov.
A
br.
S
ep.
F
eb.
J
ul.
D
ic.
M
ay.
O
ct.
M
ar.
A
go.
Ventas
Media movil 12 meses
Figura 2.6.
62
Los coeficientes de estacionalidad calculados en el epígrafe anterior pueden ser utilizados para
realizar predicciones de la variable. Para ello, vamos a considerar el supuesto de que
disponemos de una muestra de tamaño T y deseamos realizar predicciones para los L períodos
siguientes (por ejemplo, si los datos son trimestrales y la muestra comprende años completos, se
trataría de predecir los valores que toma la variable en los trimestres del primer año
postmuestral).
Bajo el supuesto de estacionalidad estable, el predictor vendrá dado por la siguiente expresión:
hhTTht ETY ˆˆˆ/ ++ = , h = 1, 2, …, L
donde hTT +ˆ es la predicción obtenida de la tendencia mediante el ajuste de una función a los
datos desestacionalizados.
2.4.3. Desestacionalización con Estacionalidad Cambiante
Hasta ahora hemos considerado el supuesto de que los coeficientes de estacionalidad eran
estables, es decir, que se repetían año tras año. Sin embargo, en muchas ocasiones este supuesto
no es realista, pudiendo ocurrir que estos coeficientes estén afectados por una tendencia.
Bajo el supuesto de estacionalidad cambiante, las fases para la aplicación del método de la razón
a la media móvil son las siguientes:
1. Obtención de unas medias móviles de orden estacional.
2. Obtención de unas medias móviles centradas.
3. Obtención de los índices brutos de variación estacional.
4. Obtención de los índices de variación estacional sin normalizar.
Las tres primeras fases son las mismas que se aplicaban bajo el supuesto de estacionalidad
estable. Una vez obtenidos los índices brutos de variación estacional, se debe proceder a la
representación de este indicador para cada estación por separado. A la vista de esta
63
representación se tomará la decisión de cuál es la función matemática adecuada para representar
la tendencia de la estacionalidad.
Recuérdese que los índices brutos de variación estacional son una estimación conjunta del
componente estacional y del componente irregular. Por ello, al realizar el ajuste de modelos que
recojan la tendencia de la estacionalidad, lo que estamos haciendo en realidad es separar estos
dos componentes. Así, adoptando el supuesto de que están integrados de forma aditiva, se
tendrá la siguiente descomposición:
ttt IEEI += * , h = 1, 2, …, L
donde *tE son los valores estimados al ajustar una función del tiempo en la que la variable
dependiente es EI. En la mayor parte de las ocasiones es adecuado el ajuste de una recta para tal
finalidad. Si éste es el caso resulta:
raaE hht 10* ˆˆ += , h = 1, 2, …, L
donde r es el año en que se encuentra el período t. Teniendo en cuenta que al calcular los índices
brutos de variación estacional se pierden L/2 datos al principio y L/2 al final y suponiendo que
se dispone de información sobre K años completos, entonces r variará, según los casos, entre 2 y
K o entre 1 y K–1.
Después de realizado el ajuste se procederá a la predicción de los coeficientes de estacionalidad
de cada uno de los años que integran la muestra. De esta forma se obtienen unos índices de
variación estacional sin normalizar, aunque distintos para cada año.
Seguidamente, la obtención de los índices de variación estacional normalizados se realizará
haciendo una ligera modificación en la fórmula ya estudiada. Concretamente, la fórmula a
aplicar será la siguiente:
ˆˆ*
*
∑=
mm
ttE
LEE , m = 1, 2, …, r
Como puede verse en la fórmula anterior, la normalización se realiza año a año. Por ello, el
factor de normalización es igual a L dividido por la suma de los índices de variación estacional
correspondientes al mismo año (r) en que se encuentra el período t.
64
Finalmente, la serie desestacionalizada, al igual que antes, se obtiene dividiendo la serie original
por el índice de variación estacional correspondiente, es decir,
t
tt
E
YD
ˆ=
Obsérvese que, bajo el supuesto de estacionalidad cambiante, a cada dato de la variable le corresponde un
índice de variación estacional distinto, a diferencia de lo que ocurría bajo el supuesto de estacionalidad
constante, donde el índice de variación estacional permanecía fijo dentro de cada estación.
Bajo el supuesto de estacionalidad cambiante, el predictor vendrá dado por la siguiente
expresión:
hhTTht ETY ˆˆˆ/ ++ = , h = 1, 2, …, L
donde hTT +ˆ es la predicción obtenida de la tendencia mediante el ajuste de una función a los
datos desestacionalizados y E es la predicción de la estacionalidad para el período T+h,
obtenida a partir de un ajuste y su posterior normalización.
2.4.4. Ajuste estacional a través de medias móviles con R.
La función R “decompose”, obtiene las series de tendencia, estacionalidad e irregular de una
serie temporal a través de medias móviles, además permite obtener los componentes en base a
un esquema aditivo ó multiplicativo.
Es una función generica de R, lo que significa que no requiere de la instalación de ninguna
librería, su uso es el siguiente:
decompose(x, type = c("additive", "multiplicative"), filter = NULL)
El modelo aditivo que usa la función es:
65
Y[t] = T[t] + S[t] + e[t]
Y el multiplicativo:
Y[t] = T[t] * S[t] * e[t]
La función calcula el componente de tendencia utilizando medias móviles, (si filter = NULL, se
utilizan medias móviles simétricas), los índices de estacionalidad son promedios de los indices
de estacionalidad que se obtienen al desestacionalizar la serie por el modelo elegido, por último,
el componente irregular se obtiene eliminando la tendencia y estacionalidad de la serie
temporal.
La función requiere que los datos tengan forma de serie temporal, “ts” es la función genérica de
R para que los datos tengan forma de serie temporal. Su sintasis es la siguiente:
ts(data = NA, start = 1, end = numeric(), frequency = 1, deltat = 1, ts.eps = getOption("ts.eps"), class = , names = )
De esta sintasis hay que tener presentes los siguiente argumentos:
data Vector, “data frame” o matriz de datos
start Referencia de la primera observacion, es un vector con dos valores numericos, el primero relativo al año y el segundo relativo al trimestre y mes de inicio (1 para el primer trimestre y 1 para enero en series de datos mensuales)
end Referencia de la ultima observación
frequency Número de observaciones por año (4 en series trimestrales, 12 en series anuales)
Un ejemplo de elaboración de un objeto “ts” es el siguiente:
> ts(1:10, frequency = 4, start = c(1959, 2)) # 2nd Quarter of 1959 Qtr1 Qtr2 Qtr3 Qtr4 1959 1 2 3 1960 4 5 6 7 1961 8 9 10
A continuación se realiza un sencillo ejercicio de utilización de la función “descomponse”:
> x <- c(-50, 175, 149, 214, 247, 237, 225, 329, 729, 809, 530, 489, 540, 457, 195, 176, 337, 239, 128, 102, 232, 429, 3,98, 43, -141, -77, -13, 125, 361, -45, 184) > x <- ts(x, start = c(1951, 1), end = c(1958, 4), frequency = 4) > m <- decompose(x)
> m
66
$x Qtr1 Qtr2 Qtr3 Qtr4 1951 -50 175 149 214 1952 247 237 225 329 1953 729 809 530 489 1954 540 457 195 176 1955 337 239 128 102 1956 232 429 3 98 1957 43 -141 -77 -13 1958 125 361 -45 184 $seasonal Qtr1 Qtr2 Qtr3 Qtr4 1951 62.45982 86.17411 -88.37946 -60.25446 1952 62.45982 86.17411 -88.37946 -60.25446 1953 62.45982 86.17411 -88.37946 -60.25446 1954 62.45982 86.17411 -88.37946 -60.25446 1955 62.45982 86.17411 -88.37946 -60.25446 1956 62.45982 86.17411 -88.37946 -60.25446 1957 62.45982 86.17411 -88.37946 -60.25446 1958 62.45982 86.17411 -88.37946 -60.25446 $trend Qtr1 Qtr2 Qtr3 Qtr4 1951 NA NA 159.125 204.000 1952 221.250 245.125 319.750 451.500 1953 561.125 619.250 615.625 548.000 1954 462.125 381.125 316.625 264.000 1955 228.375 210.750 188.375 199.000 1956 207.125 191.000 166.875 72.000 1957 -9.250 -33.125 -36.750 36.250 1958 103.000 131.625 NA NA $random Qtr1 Qtr2 Qtr3 Qtr4 1951 NA NA 78.254464 70.254464 1952 -36.709821 -94.299107 -6.370536 -62.245536 1953 105.415179 103.575893 2.754464 1.254464 1954 15.415179 -10.299107 -33.245536 -27.745536 1955 46.165179 -57.924107 28.004464 -36.745536 1956 -37.584821 151.825893 -75.495536 86.254464 1957 -10.209821 -194.049107 48.129464 11.004464 1958 -40.459821 143.200893 NA NA $figure [1] 62.45982 86.17411 -88.37946 -60.25446 $type [1] "additive" attr(,"class") [1] "decomposed.ts"
Para realizar una representación gráfica:
> plot(m)
67
Una función técnicamente más elaborada para descomponer series temporales en R es la
función “stl”, cuya referencia bibliográfica es Cleveland, R.B. , Cleveland W. S., McRae J. E, y
Terpenning I. (1990
El ejercicio anterior realizado con la función “stl”. > s <- stl(x,"per") > plot (s)
68
2.5. PROBLEMAS 2.1.- En la tabla siguiente se recogen las ventas de una empresa en millones de euros
Trimestres/Años 2006 2007 2008 2009 2010
Primero 3 4 3 6 7
Segundo 3 6 6 7 9
Tercero 4 7 7 10 11
Cuarto 4 6 6 4 7
Se pide:
a) Obtener una tendencia lineal por el método de semipromedios
b) Obtener una tendencia lineal ajustando una recta de MCO
c) Obtener una tendencia lineal utilizando medias móviles de tres periodos centrada.
2.2.- Con los datos de la tabla siguiente realice un suavizado exponencial simple con 4.0=α y
calcule el del Error Cuadrático Medio y el Error Absoluto Medio.
t Y 0 58 1 54 2 60 3 55 4 62 5 62 6 65 7 63 8 70
2.3.- Utilizando los datos del problema 2.1.-, realice una desestacionalización por el método del
porcentaje promedio y porcentaje promedio móvil, y obtenga el índice estacional.
2.4.- Descomponga en la serie co2 que incluye la librería genérica R utilizando el modelo
multiplicativo y presente los resultados gráficos.
SOLUCIONES
2.1.-
Solución:
69
a) V*=4,6+0,28t , t=(-4,-3,…..,15)
b) V*=3,06+0,28t , t=(1,2,…..20)
c)
Año Tendencia Estacional e Irregular
1.2006
2.2006
3.2006 3,625 1,103
4.2006 4,125 1
1.2007 4,875 0,821
2.2007 5,5 1,091
3.2007 5,625 1,244
4.2007 5,5 1,091
1.2008 5,5 0,545
2.2008 5,5 1,091
3.2008 5,875 1,191
4.2008 6,375 0,941
1.2009 6,875 0,873
2.2009 7 1,000
3.2009 6,875 1,455
4.2009 7,25 0,552
1.2010 7,625 0,918
2.2010 8,125 1,108
3.2010
4.2010 2.2.-
Pronostico 58,000 55,600 58,240 56,296 59,718 61,087 63,435 63,174
EAM=1,370 RECM=1,505
70
2.3.-
Serie desestacionalizada por el método de porcentaje promedio Trimestres/Años 2006 2007 2008 2009 2010
Primero 3,9363179 5,2484238 3,9363179 7,8726357 9,1847417
Segundo 2,9484662 5,8969325 5,8969325 6,8797546 8,8453987
Tercero 3,1208187 5,4614327 5,4614327 7,8020467 8,5822513
Cuarto 4,2613335 6,3920003 6,3920003 4,2613335 7,4573337 Serie desestacionalizada e índice estacional por el método de porcentaje promedio móvil
Año Serie Desestacionalizada
Índice estacional
1.2006
2.2006
3.2006 3,625 90,6%
4.2006 4,125 103,1%
1.2007 4,875 121,9%
2.2007 5,5 91,7%
3.2007 5,625 80,4%
4.2007 5,5 91,7%
1.2008 5,5 183,3%
2.2008 5,5 91,7%
3.2008 5,875 83,9%
4.2008 6,375 106,3%
1.2009 6,875 114,6%
2.2009 7 100,0%
3.2009 6,875 68,8%
4.2009 7,25 181,3%
1.2010 7,625 108,9%
2.2010 8,125 90,3%
3.2010
4.2010 2.4.- A realizar por el alumno.
71
3. ANÁLISIS UNIVARIANTE DE SERIES
TEMPORALES
3.1. INTRODUCCIÓN La publicación de la obra Time Series Analysis: Forecasting and Control por G. E. P. Box y G.
M. Jenkins en 1976 estableció un punto de inflexión en las técnicas cuantitativas de predicción
en Economía. La metodología propuesta por estos autores, también conocida como metodología
ARIMA, trata de realizar previsiones acerca de los valores futuros de una variable, utilizando
únicamente como información la contenida en los valores pasados de la propia serie temporal.
Este enfoque supone una alternativa a la construcción de modelos uniecuacionales o de
ecuaciones simultáneas, pues supone admitir que las series temporales poseen un carácter
estocástico, lo que implica que deben analizarse sus propiedades probabilísticas para que éstas
“hablen por sí mismas”.
El análisis univariante de series temporales presenta como ventaja frente a otros métodos de
predicción el no depender de los problemas de información asociados a las variables endógenas
o exógenas. Como hemos visto en capítulos anteriores, los modelos económicos que hemos
estimado hasta el momento requerían un conjunto de variables exógenas que se utilizaban para
explicar el comportamiento de una variable endógena. Sin embargo, en muchas ocasiones no se
dispone de observaciones para alguna de las variables exógenas, ya sea porque no es posible
medir la variable (por ejemplo, las expectativas de los agentes) o porque la muestra de datos de
que disponemos para representar dicha variable presenta errores de medida (cuyas
consecuencias se vieron en el capítulo 4). Este problema desaparece cuando se trata de
modelizar una variable endógena mediante un modelo de tipo univariante como el propuesto por
Box y Jenkins, ya que se hace depender a dicha variable tan sólo de su propio pasado y un
conjunto de perturbaciones aleatorias, pero no de otras variables, caracterizando así las series
económicas en su dimensión temporal.
En el presente capítulo vamos a definir y caracterizar una amplia familia de estructuras
estocásticas lineales así como la metodología a seguir para seleccionar aquel modelo univariante
que resulte más adecuado para representar la estructura estocástica de la variable económica que
estemos analizando.
72
3.2. PROCESOS ESTÓCÁSTICOS
Podemos definir un proceso estocástico como un conjunto de variables aleatorias asociadas a
distintos instantes del tiempo. Así, en cada período o momento temporal se dispone de una
variable que tendrá su correspondiente distribución de probabilidad; por ejemplo, si
consideramos el proceso Yt, para t = 1, tendremos una variable aleatoria, Y1, que tomará
diferentes valores con diferentes probabilidades.
La relación existente, por tanto, entre una serie temporal y el proceso estocástico que la genera
es análoga a la que existe entre una muestra y la población de la que procede, de tal forma que
podemos considerar una serie temporal como una muestra o realización de un proceso
estocástico, formada por una sola observación de cada una de las variables que componen el
proceso. La tarea del investigador será, por tanto, inferir la forma del proceso estocástico a partir
de las series temporales que genera.
Un proceso estocástico, Yt, se suele describir mediante las siguientes características: esperanza
matemática, varianza, autocovarianzas y coeficientes de autocorrelación.
La esperanza matemática de Yt se traduce en la sucesión de las esperanzas matemáticas de las
variables que componen el proceso, a lo largo del tiempo tal que:
E(Yt) = µt, t = 1,2,3...
Por su parte, la varianza de un proceso aleatorio es una sucesión de varianzas, una por cada
variable del proceso:
Var (Yt) = E(Yt – µt)2, t = 1,2,3...
Las autocovarianzas, por su parte, son las covarianzas entre cada par de variables del proceso
tales que:
γk = Cov(Yt,Yt+k) = E[(Yt - µt)(Yt+k - µt+k)] = γt,t+k , t = 1,2,3...
73
Finalmente, los coeficientes de autocorrelación son los coeficientes de correlación lineal entre
cada par de variables que componen el proceso:
11con ...,3,2,1 ,)()·(
,
,
, ≤≤−== ++
++ ktt
ktt
ktt
ktt tYVarYVar
ργ
ρ
Por último, a partir de los coeficientes de autocorrelación, vamos a definir dos funciones que
nos serán muy útiles a lo largo del presente capítulo:
− Por un lado, la función de autocorrelación simple (fas) o correlograma, la cual es la
representación gráfica de los coeficientes de autocorrelación en función de los distintos
retardos o desfases entre las variables.
− La función de autocorrelación parcial (fap), que mide la correlación existente entre dos
variables del proceso en distintos períodos de tiempo, pero una vez eliminados los
efectos sobre las mismas de los períodos intermedios. Por ejemplo, puede que exista
cierta correlación entre Yt e Yt-2 debido a que ambas variables estén correlacionadas con
Yt-1.
Dado que en la práctica se dispone de una muestra de un proceso estocástico, Y1, ...YT, se pueden
obtener los coeficientes de autocorrelación simple y parcial muestral y utilizarlos como
estimadores de los parámetros de la función de autocorrelación simple y parcial teórica.
Así, la función de autocorrelación simple (fas) puede estimarse a partir de las autocovarianzas
del proceso tal que:
0ˆ
ˆˆ
γγρ k
k =
Siendo:
( )
T
YYT
tt∑
=
−= 1
2
0γ
74
( )( ) ( )( )
kT
YYYY
kT
YYYYT
kttkt
T
ktktt
k −
−−=
−
−−=
∑∑+=
++=
+11γ
La estimación de los parámetros de la función de autocorrelación parcial (fap) resulta algo más
compleja, por lo que se verá en epígrafes posteriores.
3.3. PROCESOS ESTACIONARIOS
Se dice que un proceso estocástico es estacionario en sentido estricto si todas las variables
aleatorias que componen el proceso están idénticamente distribuidas, independientemente del
momento del tiempo en que se estudie el proceso. Es decir, la función de distribución de
probabilidad de cualquier conjunto de k variables (siendo k un número finito) del proceso debe
mantenerse estable (inalterable) al desplazar las variables s períodos de tiempo tal que, si P(Yt+1,
Yt+2, …, Yt+k ) es la función de distribución acumulada de probabilidad, entonces:
P(Yt+1, Yt+2, …, Yt+k ) = P(Yt+1+s, Yt+2+s, …, Yt+k+s ), ∀t, k, s
Sin embargo, la versión estricta de la estacionariedad de un proceso suele ser excesivamente
restrictiva para las necesidades prácticas de un economista. Es por ello que generalmente nos
conformaremos con un concepto menos exigente, el de estacionariedad en sentido débil o de
segundo orden la cual se da cuando la media del proceso es constante e independiente del
tiempo, la varianza es finita y constante, y el valor de la covarianza entre dos periodos depende
únicamente de la distancia o desfase entre ellos, sin importar el momento del tiempo en el cual
se calculan. Dicho de otro modo, todos los momentos de primer y segundo orden de un proceso
estocástico que sea estacionario en sentido débil deben ser invariantes en el tiempo.
La contrastación empírica de algunas de estas condiciones puede realizarse fácilmente mirando
el gráfico de la serie temporal. Así, una serie temporal que exhiba una marcada tendencia
creciente tendrá una media también creciente en el tiempo por lo que lo más probable es que el
proceso estocástico que ha generado dicha serie temporal no sea estacionario en media; del
mismo modo, una serie temporal que muestre fluctuaciones de amplitud desigual en el tiempo
seguramente no procederá de un proceso estocástico estacionario en varianza. La diferencia
75
entre ambos tipos de series queda patente en los gráficos que se muestran en las figuras 3.1. y
3.2.
Serie no estacionaria en media
Serie no estacionaria en media y varianza
Figura. 3.1. Ejemplo de series no estacionarias.
Serie estacionaria en media y varianza
Serie estacionaria en media pero no en varianza
Figura. 3.2. Ejemplo de series estacionarias.
Sin embargo, en la práctica el aspecto visual de la serie no siempre será una herramienta
suficiente para decidir si ésta es estacionaria o no, debiendo recurrir al diagrama desviación
típica – media, esto es, a la representación gráfica de la media (eje de abscisas) contra la
desviación típica (eje de ordenadas), calculadas sobre subdivisiones de la serie en grupos del
mismo tamaño. En función de la configuración que adopte dicho gráfico decidiremos si la serie
es estacionaria o no, tal y como puede apreciarse en los gráficos de la figura 3.3.
76
Serie estacionaria en media y varianza
Serie no estacionaria en varianza
Serie no estacionaria en media
Serie no estacionaria en media ni en varianza
Figura. 3.3. Gráfico media-desviación típica.
Pero, ¿por qué resulta importante para el investigador que el proceso analizado sea estacionario?
La razón fundamental es que los modelos de predicción de series temporales que veremos a
continuación están diseñados para ser utilizados con procesos de este tipo. Si las características
del proceso cambian a lo largo del tiempo, resultará difícil representar la serie para intervalos de
tiempo pasados y futuros mediante un modelo lineal sencillo, no pudiéndose por tanto realizar
previsiones fiables para la variable en estudio.
Sin embargo, por regla general, las series económicas no son series que procedan de procesos
estacionarios, sino que suelen tener una tendencia, ya sea creciente o decreciente, y variabilidad
no constante. Dicha limitación en la práctica no es tan importante porque las series no
estacionarias se pueden transformar en otras aproximadamente estacionarias después de aplicar
diferencias a la serie en una ó más etapas. Por ello, cuando estemos analizando una serie
económica que no sea estacionaria en media deberemos trabajar con la serie en diferencias,
especificando y estimando un modelo para la misma. Si además observamos que la serie
77
presenta no estacionariedad en varianza, deberemos transformarla tomando logaritmos antes de
aplicar diferencias en la serie3.
Posteriormente la predicción que realicemos con las series transformadas habrá que traducirla a
una predicción para la serie original, en cuyo análisis estaba interesado inicialmente el
investigador, deshaciendo las diferencias y aplicando antilogaritmos según convenga.
Por último, antes de continuar avanzando, debemos hacer mención a un tipo de proceso
estacionario particular: es el denominado ruido blanco, un proceso estocástico en el que las
variables aleatorias que lo forman no están correlacionadas entre sí, siendo su esperanza
matemática igual a cero y su varianza constante e igual a σ2.
En particular, supondremos que los errores de los procesos que veremos a continuación son
ruidos blancos gaussianos, formados por una sucesión de variables aleatorias con distribución
Normal, esperanza cero, varianza constante e incorrelacionadas serialmente entre sí. Es decir:
εt es ruido blanco gaussiano si εt ∼ N(0,σ2), para cualquier t, tal que Cov(εt,εt’) = 0, ∀ t≠t'
Seguramente el lector recuerde de anteriores capítulos que, en el modelo de regresión lineal
clásico, se supuso implícitamente que el término de error incluido en el mismo respondía a las
características de un ruido blanco gaussiano.
En la figura 3.4. se muestra la representación de un ruido blanco, en la que se puede apreciar
claramente la estacionariedad de este proceso:
Figura. 3.4. Representación de un ruido blanco.
3 La aplicación de logaritmos a la serie para hacerla estacionaria en varianza es lo que se conoce como transformación Box-Cox. Para más detalles, véase Venables y Ripley (2002).
78
3.3.1. Operador de Retardos y Operador Diferencia Antes de seguir avanzando, debemos mencionar dos operadores que utilizaremos
frecuentemente a lo largo del capítulo. Por un lado, se define el operador de retardos, que
denotaremos por B, como aquel operador que al ser aplicado a la serie la transforma de tal forma
que:
BYt = Yt-1
Es decir, el resultado de aplicar el operador B corresponde a retardar las observaciones un
período.
Aplicada dos veces sobre la variable Yt tendremos que:
B(BYt) = B2Yt = Yt-2
y, en general, podemos decir que el operador Bk aplicado sobre una variable en el periodo t, la
retarda k períodos tal que:
BkYt = Yt-k
Por su parte, el operador diferencia, el cual denotaremos por ∆, aplicado a una serie la
transformará de tal forma que:
∆Yt = Yt – Yt-1 = (1 – B) Yt
Si aplicamos el operador diferencia dos veces a la serie tendremos que:
∆2Yt =∆(∆Yt) = ∆(Yt – Yt-1) = ∆Yt – ∆Yt-1 = Yt – 2Yt-1 +Yt-2 = (1–B)2Yt
Y en general, podemos escribir:
∆kYt = (1 – B) kYt
79
Por lo que resulta evidente que la relación existente entre el operador diferencia y el operador
retardo es:
∆k = (1 – B) k
3.4. MODELIZACIÓN UNIVARIANTE DE SERIES
TEMPORALES La representación formal de los procesos aleatorios que generan series reales se puede realizar
mediante modelos lineales de series temporales. Considerando que una determinada serie
temporal ha sido generada por un proceso estocástico, en este epígrafe pasamos a describir los
posibles modelos teóricos que permiten explicar el comportamiento de la misma y, por tanto, el
de su proceso generador.
Las estructuras estocásticas estacionarias lineales que se tratarán de asociar a una serie de datos
económicos se clasifican en tres tipos: modelos autorregresivos, modelos de medias móviles y
modelos mixtos, los cuales pasamos a ver a continuación.
3.4.1. Procesos estocásticos lineales discretos Se dice que un proceso estocástico discreto es lineal si se puede expresar de la forma:
∑∞
=−−−− ++=++++++=
12211 ......
ιιτιτττττ εψεµεψεψεψεµ kktY (3.1)
con µ, ψ1 , ψ2 , ...,parámetros (normalmente desconocidos) y ετ , ετ −1, ετ −2 , ..., un ruido blanco
de media 0 y varianza2σ .Con frecuencia, ετ ,se denomina innovación porque se corresponde
con el error de predicción un periodo hacia delante que cometemos si utilizamos la predicción
adecuada. Es decir, es la parte de Yt no predecible aunque se utilice óptimamente toda la
información pasada, Yt-1, Yt-2, ….
¿Por qué el análisis de series temporales se ha centrado en este tipo de procesos? La principal
justificación es el Teorema de la descomposición de Wold (1938): Un proceso estocástico
discreto, estacionario en covarianza, se puede representar unívocamente como la suma de dos
procesos mutuamente incorrelacionados, ttt WDY += , siendo Dt un proceso puramente
determinista y Wt un proceso puramente no determinista, que se puede escribir como un media
móvil infinita (3.1).
80
Restringiremos el estudio a los procesos lineales discretos que dependan de pocos parámetros
conocidos como procesos autorregresivos de medias móviles de órdenes p y q, abreviadamente
ARMA(p,q), que se definen:
qtqtttptpttt YYYY −−−−−− +++++++++= εθεθεθεφφφδ ...... 22112211 , ),0( 2σε RBt ≈
Estos procesos se pueden escribir de otras dos formas:
• En la forma media móvil, es decir, en función únicamente de la innovación,
...2211 +++= −− ttttY εθεθε
• En la forma autorregresiva, es decir, en función del pasado de la variable y la
innovación actual,
...2211 +++= −− ttt YYY φφδ
En principio, consideramos únicamente los procesos ARMA que posean las propiedades de
estacionariedad y ergodicidad, que garantizan la resolución del problema de estimación al
disponer de estimadores consistentes. Esta hipótesis implica que los parámetros de la forma
media móvil cumplen la condición 0lim =∞→ ss ψ . Además, introducimos la hipótesis de
invertibilidad con objeto de que el modelo sea útil para predecir, y que implica la condición
0lim =∞→ ss ϕ en la forma autorregresiva.
Pasamos a mostrar las propiedades que caracterizan a los distintos procesos ARMA. Dentro de
esta clase general de modelos encontramos dos casos particulares, los procesos autorregresivos
(cuando q=0) y los procesos médias móviles (si p=0).
3.4.2. Modelos Autorregresivos (AR(p)) Los procesos autorregresivos son aquellos que representan los valores de una variable durante
un instante del tiempo en función de sus valores precedentes. Así, un proceso autorregresivo de
orden p, AR(p), tendrá la siguiente forma:
Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt
donde δ es un término constante y εt es un ruido blanco, que representa los errores del ajuste y
otorga el carácter aleatorio al proceso.
81
Asimismo, haciendo uso del operador de retardos que veíamos anteriormente, el proceso
también puede expresarse como:
Yt = δ + φ1BYt + φ2B2Yt + ...+ φpB
pYt + εt
O también:
(1 – φ1B – φ2B2 – ...– φpB
p)Yt = δ + εt
φp(L)Yt = δ + εt
Veamos a continuación las características particulares de dos procesos autorregresivos
elementales, el de orden 1 ó AR(1) y el de orden 2, ó AR(2). Posteriormente, los resultados
obtenidos se generalizarán al caso de un proceso autorregresivo de orden p, AR(p).
3.4.2.1. Modelos autorregresivos de primer orden AR(1)
Sea el proceso autorregresivo de primer orden:
Yt = δ + φ1Yt-1 + εt
Si el proceso es estacionario en media y varianza entonces se verificará que E(Yt) = E(Yt-1) y
Var (Yt) = Var(Yt-1), ∀t de tal forma que:
111 1
)()(φ
δµµφδµµ−
=⇒+=⇒== −tt YEYE (3.2)
21
2
02
021001
1)()(
φσγσγφγγ ε
ε −=⇒+=⇒== −tt YVarYVar
La condición a cumplir para que µ y γ0 sean positivas y finitas es que |φ1| < 1 . En ese caso el
proceso será estacionario en media y varianza. Del mismo modo, si el proceso es estacionario,
también se verificará para las covarianzas que:
82
( )( )[ ] ( )tttttt
tttt
yyEYYEYYCov
tYYCovYYCov
111
111
),(
,),(),(
−−−
+−
=−−=
∀==
µµ
γ (3.3)
Donde las variables en minúscula expresan que los datos están expresados en desviaciones
respecto a la media.
Despejando en la expresión (3.2) el valor de δ y sustituyéndolo en la ecuación del proceso
queda que:
tttttt
ttttt
yyYY
YYY
εφεµφµ
εφφµεφδ
+=⇒+−=−
++−=++=
−−
−−
1111
11111
)(
)1(
Sustituyendo el valor de yt en (3.3) tenemos que:
( )( ) 0112
1111111 )()()( γφεφεφγ =+=+== −−−−− tttttttt yEyEyyEyyE
El resultado anterior puede generalizarse si tomamos esperanzas entre yt e yt-k obteniéndose que,
en general:
01 γφγ kk =
A partir de los resultados anteriores podemos obtener la estimación de los coeficientes de la
función de autocorrelación simple (fas) para un proceso autorregresivo de orden 1 mediante las
siguientes expresiones:
kkk 1
0
21
0
22
10
11
0 1
φγγρ
φγγρ
φγγρ
ρ
==
==
==
=
LLL
Del resultado anterior se deduce que los valores de la función de autocorrelación son las
sucesivas potencias del parámetro φ1. La condición |φ1|<1 garantiza que los sucesivos valores ρk
83
convergerán a cero, si bien la función puede presentar dos aspectos distintos, dependiendo del
signo de φ1 como puede observarse en la figura 3.5.
φ1 >0
φ1 <0
Figura 3.5. Función de autocorrelación simple para un proceso AR(1)
La condición |φ1|<1 para que el proceso AR(1) sea estacionario es equivalente a la condición de
que la raíz del operador polinomial φ(Β) = 0 debe caer fuera del círculo unidad, es decir:
111
101 11
1 <⇒>⇒>⇒=− φφ
φ BB
3.4.2.2. Modelos autorregresivos de segundo orden AR(2)
La expresión para un proceso autorregresivo de orden dos es la siguiente:
Yt = δ + φ1Yt-1 + φ2Yt-2 + εt
Del mismo modo que antes, si el proceso es estacionario en media y varianza tenemos que E(Yt)
= E(Yt-1)= E(Yt-2) y Var(Yt) = Var(Yt-1) = Var(Yt-2), ∀t.
Así, en el caso de la media tenemos que:
21
211 1)()(
φφδµµφµφδµµ
−−=⇒++=⇒== −tt YEYE
Debiéndose verificar, para que la media sea finita, que φ1+φ2 ≠ 1.
En el caso de la varianza tenemos que:
84
22
21
2
02
0220
210021 1
)()()(φφ
σγσγφγφγγ εε −−
=⇒++=⇒=== −− ttt YVarYVarYVar
Finalmente, para las covarianzas se verificará que:
[ ] ( )[ ][ ] ( )[ ]
[ ] ( )[ ] )0( )())((),(
...
)())((),(
)())((),(
t ,),(),(
22112211
0211221122222
1201221111111
111
>+=++==−−==
+=++==−−==+=++==−−==
∀==
−−−−−−−−
−−−−−−
−−−−−−
+−
kyyyEyyEYYEYYCov
yyyEyyEYYEYYCov
yyyEyyEYYEYYCov
YYCovYYCov
kktttkttkttkttktk
tttttttttt
tttttttttt
tttt
γφγφεφφµµγ
γφγφεφφµµγγφγφεφφµµγ
γ
De donde podemos derivar las expresiones para los coeficientes de la función de
autocorrelación simple:
0 ,
1
1
1
2211
0
2
2
21
2211
0
22
2
11121
0
1201
0
11
0
>+==
+−
=→+==
−=→+=
+==
=
−− kkkk
k ρφρφγγρ
φφ
φρφρφγγρ
φφρρφφ
γγφγφ
γγρ
ρ
LLL
La condición de estacionariedad utilizando la notación en retardos es que las raíces del
polinomio de retardos, al igual que en el caso del proceso AR(1), estén fuera del círculo unidad
de tal forma que verifiquen:
01 221 =+− BB φφ
85
Asimismo, si el parámetro 2φ fuera negativo, la resolución de las raíces del polinomio podría
generar raíces imaginarias; en tal caso, Yt presentará ciclos de periodo T que vendrán dados por
la expresión:
2
1
2
2cos
φφπ−
=T
Al igual que en el caso anterior, la función de autocorrelación simple converge a cero si bien
ahora puede presentar cuatro aspectos distintos en función de los signos de φ1 y φ2, como puede
apreciarse en la figura 3.6.
φ1>0, φ2>0
φ1<0, φ2>0
φ1>0, φ2<0
φ1<0, φ2<0
Figura 3.6. Función de autocorrelación simple para un AR(2)
3.4.2.3. Modelos autorregresivos de orden p, AR(p)
A partir de los resultados obtenidos para los procesos AR(1) y AR(2), podemos generalizar las
expresiones obtenidas para un proceso de orden p.
Sea el proceso autorregresivo de orden p:
86
Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt
Si el proceso es estacionario en media y varianza entonces E(Yt) = E(Yt-1) = ... = E(Yt-p) y
Var(Yt) = Var(Yt-1) =...= Var(Yt-p), ∀t, y por tanto:
pφφφδµ
−−−−=
...1 21
Por lo que para que la media sea finita, deberá verificarse que 1...21 ≠+++ pφφφ
Del mismo modo, generalizando los resultados obtenidos para los coeficientes de la función de
autocorrelación simple se tiene que:
...
............................................
...
...
02211
202112
112011
γφγφγφγ
γφγφγφγγφγφγφγ
pkkk
pp
pp
+++=
+++=
+++=
−−
−
−
El sistema de ecuaciones obtenido se conoce como ecuaciones de Yule-Walker y relaciona las p
primeras autocovarianzas con los parámetros del proceso.
Dichas ecuaciones también se pueden expresar en términos de los coeficientes de
autocorrelación dividiendo por γ0 ambos miembros tal que:
...
............................................
...
...
02211
202112
112011
ρφρφρφρ
ρφρφρφρρφρφρφρ
pppk
pp
pp
+++=
+++=
+++=
−−
−
−
Si se resuelve sucesivamente el sistema de ecuaciones de Yule-Walker bajo la hipótesis de que
la serie es un AR(1), AR(2), AR(3), etc., y se toma el último coeficiente de cada uno de los
procesos se obtiene lo que se conoce como función de autocorrelación parcial (fap); dicha
función mide el coeficiente de correlación entre observaciones separadas k períodos, eliminando
el efecto de los valores intermedios.
87
Dado que p es el orden del proceso autorregresivo, resulta evidente que los coeficientes de
autocorrelación parcial serán distintos de cero para retardos iguales o inferiores a p. Así, para un
proceso AR(1) tendríamos una función de autocorrelación parcial como la que se muestra en la
figura 3.7.
φ1 >0
φ1 <0
Figura 3.7. Función de autocorrelación parcial para un AR(1)
Del mismo modo, la función de autocorrelación parcial para un proceso AR(2) tendrá la
siguiente forma (fig. 3.8.):
φ1>0, φ2>0
φ1<0, φ2>0
φ1>0, φ2<0
φ1<0, φ2<0
Figura 3.8. Función de autocorrelación parcial para un AR(2)
88
Finalmente, y de forma análoga a los resultados obtenidos en los procesos AR(1) y AR(2), para
que un proceso autorregresivo de orden p sea estacionario, las raíces del polinomio de retardos
del proceso, 0...1 221 =+++− p
pBBB φφφ , deberán ser menores a la unidad en valor absoluto.
3.4.3. Procesos de Media Móvil (MA(q)) En los procesos de media móvil de orden q, cada observación Yt es generada por una media
ponderada de perturbaciones aleatorias, con un retardo de q períodos tal que:
Yt = δ + εt – θ1εt-1 – θ2εt-2 – ... – θqεt-q
donde εt es un ruido blanco.
Pasamos a ver a continuación las características particulares de dos procesos de medias móviles
básicos, el de orden 1 ó MA(1), y el de orden 2 ó MA(2). Posteriormente, los resultados
obtenidos se generalizarán, como ya hicimos en el caso de los procesos autorregresivos, al caso
de un proceso de medias móviles de orden q, MA(q).
3.4.3.1. Modelos de medias móviles de primer orden MA(1)
Veamos el caso particular de un proceso de media móvil de orden 1 ó MA(1). Formalmente su
expresión sería:
Yt = δ + εt – θ1εt-1
siendo su media E(Yt) = δ, y su varianza Var (Yt) = Var(εt) + 21θ Var(εt-1) = 2
εσ (1+ 21θ ) = γ0
En el caso de las covarianzas tenemos que:
[ ] [ ][ ] [ ]
1 ,0
0))(())((
))(())((
1131222
21121111
>∀=
=−−=−−=−=−−=−−=
−−−−
−−−−
k
EYYE
EYYE
k
tttttt
tttttt
γ
εθεεθεδδγθσεθεεθεδδγ ε
L
89
El resultado obtenido pone de manifiesto que los procesos de media móvil poseen memoria de
sólo un período, ya que cualquier valor de Yt está correlacionado con Yt-1 e Yt+1 pero con ningún
otro valor de la serie.
A partir de las expresiones anteriores, y de modo análogo a como procedíamos en el caso de los
modelos AR, podemos obtener los coeficientes de la función de autocorrelación simple:
1 ,0
1
1
0
21
1
0
11
0
>∀==
+−
==
=
kkk γ
γρ
θθ
γγρ
ρ
De todos estos resultados se desprende que un proceso MA(1) siempre es estacionario con
independencia del valor de θ1.
La representación gráfica de la función de autocorrelación simple viene determinada por el
signo de θ1, tal y como puede apreciarse en la figura 3.9.
θ1 > 0
θ1 < 0
Figura 3.9. Función de autocorrelación simple para un MA(1)
90
3.4.3.2. Modelos de medias móviles de segundo orden MA(2)
Veamos ahora el caso de un proceso MA(2). Dicho proceso viene definido por la siguiente
ecuación:
Yt = δ + εt – θ1εt-1 – θ2εt-2
con media E(Yt)=δ y varianza Var(Yt)=Var(εt)+ 21θ Var(εt-1)+ 2
2θ Var(εt-2)= 2εσ (1+ 2
1θ + 22θ )=γ0
Las covarianzas del proceso son:
[ ] [ ][ ] [ ]
2 ,0
))(())((
)())(())((2
222114231222
221122113221111
>∀=
−=−−−−=−−=
+−=−−−−=−−=
−−−−−−
−−−−−−
k
EYYE
EYYE
k
tttttttt
tttttttt
γ
σθεθεθεεθεθεδδγ
σθθθεθεθεεθεθεδδγ
ε
ε
L
Expresión de la que podemos obtener los coeficientes de la función de autocorrelación simple:
2 ,0
1
1
1
0
22
21
2
0
22
22
21
211
0
11
0
>∀==
++−
==
+++−
==
=
kkk γ
γρ
θθθ
γγρ
θθθθθ
γγρ
ρ
L
De los resultados obtenidos para el modelo MA(2) también se desprende que siempre es
estacionario con independencia del valor de sus parámetros, siendo su memoria en este caso de
dos períodos.
91
La representación gráfica de la función de autocorrelación simple, la cual depende del signo de
θ1 y θ2, es la que se muestra en la figura 3.10.
θ1 >0, θ2 >0
θ1 <0, θ2 >0
θ1 >0, θ2 <0
θ1 <0, θ2 <0
Figura 3.10. Función de autocorrelación simple para un MA(2)
92
3.4.3.3. Modelos de medias móviles de orden q, MA(q)
Una vez analizados los resultados obtenidos para los procesos de media móvil de orden 1 y 2,
ya podemos obtener una generalización de las expresiones anteriores para un proceso de media
móvil de orden q cualquiera.
Sea el proceso MA(q):
Yt = δ + εt – θ1εt-1 – θ2εt-2 – ... – θqεt-q
con media E(Yt)=δ y varianza Var(Yt)=Var(εt)+ 21θ Var(εt-1)+ 2
2θ Var(εt-2)+…+ 2qθ Var(εt-q)=
2εσ (1+ 2
1θ + 22θ +…+ 2
qθ ) = γ0
Por su parte, las covarianzas de un proceso MA(q) son:
[ ][ ]
qk
YYE
YYE
k
qqtt
qqtt
>∀=
−=
++++−=−−=
++++−=−−=
−−
−−
,0
)...())((
)...())((
2
224231222
213221111
γ
σθγ
σθθθθθθθδδγ
σθθθθθθθδδγ
ε
ε
ε
L
L
Los coeficientes de la función de autocorrelación simple pueden ser obtenidos a partir de las
expresiones anteriores de autocovarianzas, no siguiendo los mismos una expresión regular. En
cualquier caso, cualquier proceso MA de orden finito es estacionario.
93
3.4.3.4. Relación entre procesos AR y MA
Cualquier proceso MA(q) puede expresarse como un AR de orden infinito. Así, por ejemplo, si
consideramos un modelo MA(1) cuya expresión es, como sabemos:
Yt = δ + εt – θ1εt-1 (3.4)
Por analogía, podemos escribir:
Yt-1 = δ + εt-1 – θ1εt-2
Yt-2 = δ + εt-2 – θ1εt-3
…………………………
Despejando en (3.4) el valor de εt y sustituyendo de forma recursiva los valores de εt-1 y εt-2,
tenemos que:
( ) ttttt
tttt
ttttttt
tttttt
YYY
YYY
YYYYY
YYY
εεθθθθθδ
εθδθθδθθδ
εθδθδθθδεθδθθδ
εθδθδεθδε
+−−−++=⇒
+−+−+−
=+−+−+−=+−+−
=+−+−=+−=
−−−
−−−
−−−−−
−−−
3312
2111
211
331
212
21111
312211112
21111
211111
1
)(
)(
Si continuamos sustituyendo εt-3 y siguientes, el procedimiento continuará hasta el infinito, lo
que permite expresar a Yt como función de todos sus valores pasados más una constante y un
término de error.
El resultado anterior tendrá sentido sólo si |θ1|< 1 (o su equivalente en términos de raíces de
polinomio de retardos, 101 1 >⇒=− BBθ ) ya que, de otro modo, el efecto del pasado sería más
importante para explicar el comportamiento actual.
Del mismo modo, puede comprobarse que en el caso de un modelo MA(2), la condición que
debe verificarse es |θ1+θ2|< 1 ó, en términos de raíces del polinomio de retardos, 1–θ1B–θ2B2=0
⇒ B >1, y en general, para cualquier modelo MA(q), la condición es 1–θ1B–θ2B2–...–θqB
q = 0
⇒ B >1
94
Si se verifica esta condición, denominada condición de invertibilidad, entonces es posible
expresar un proceso MA(q) como un proceso AR de orden infinito, lo que implica que un
proceso de media móvil consta de infinitos coeficientes de autocorrelación parcial distintos de
cero, si bien a partir de q comenzarán a decaer rápidamente. Así, la función de autocorrelación
parcial de un proceso de media móvil se comportará de manera análoga a como lo hace la
función de autocorrelación simple de un proceso autorregresivo, como puede apreciarse en la
figura 3.11. para un proceso MA(1) y en la figura 3.12. para un proceso MA(2).
θ1 >0
θ1 <0
Figura 3.11. Función de autocorrelación parcial para un MA(1)
θ1 >0, θ2 >0
θ1 <0, θ2 >0
θ1 >0, θ2 <0
θ1 <0, θ2 <0
Figura 3.12. Función de autocorrelación parcial para un MA(2)
95
3.4.4. Procesos ARMA(p, q) Los procesos ARMA (p, q) son, como su nombre indica, un modelo mixto que posee una parte
autorregresiva y otra de media móvil, donde p es el orden de la parte autorregresiva y q, el de la
media móvil. La expresión genérica de este tipo de procesos es:
Yt = δ + φ1Yt-1 + φ2Yt-2 + ... + φpYt-p + εt – θ1εt-1 – θ2εt-2 – ... – θqεt-q
En este tipo de modelos deben verificar las dos condiciones que hemos visto hasta el momento:
por un lado, la condición de estacionariedad, debiéndose cumplir que las raíces del polinomio de
retardos de la parte autorregresiva, φ(Β) = 0, estén fuera del círculo unidad; y por otro, la
condición de invertibilidad, debiéndose verificar que las raíces del polinomio de retardos de la
parte MA, θ(L) = 0, estén fuera del círculo unidad.
3.4.4.1. Modelos ARMA(1, 1)
Veamos las características particulares de un modelo ARMA (1,1). La ecuación que define este
tipo de proceso es:
Yt = δ + φ1Yt-1 + εt – θ1εt-1
el cual presenta las siguientes características:
Media: 1 ,1 1
1
≠∞<−
= φφ
δµ
Varianza: ( ) 21
221
20
21
211110 2 εεε σφσθσγφεθεφδγ −++=−++= −− tttYE
1 con ,1
)21(12
1
21
21
2
0 <−
−+=⇒ φ
φσφθσγ εε
Por su parte, las autocovarianzas del proceso serán:
96
[ ][ ]
[ ] 2 ,11
1122
210111
≥∀==
==−==
−−
−
−
kYYE
YYE
YYE
ktktk
tt
tt
γφγ
γφγσθγφγ ε
L
A continuación se presentan en las figuras 3.13. y 3.14. las funciones de autocorrelación simple
y parcial de un proceso ARMA (p, q).
φ1>0, θ1<0, |φ1| = |θ1|
φ1<0, θ1>0, |φ1| = |θ1|
φ1>0, θ1>0, |φ1| > |θ1|
φ1>0, θ1>0, |φ1| < |θ1|
φ1<0, θ1<0, |φ1| > |θ1|
φ1<0, θ1<0, |φ1| < |θ1|
Figura 3.13. Funciones de autocorrelación simple para un ARMA(1,1)
97
φ1>0, θ1<0, |φ1| = |θ1|
φ1<0, θ1>0, |φ1| = |θ1|
φ1>0, θ1>0, |φ1| > |θ1|
φ1>0, θ1>0, |φ1| < |θ1|
φ1<0, θ1<0, |φ1| > |θ1|
φ1<0, θ1<0, |φ1| < |θ1|
Figura 3.14. Funciones de autocorrelación parcial para un ARMA(1,1)
98
El simple examen de los gráficos anteriores pone de manifiesto que no resulta nada sencillo en
la práctica identificar un proceso ARMA (1, 1) a través de sus funciones de autocorrelación
simple y parcial, ya que es fácil confundir dichas funciones con las de otros procesos
univariantes. Por ello, normalmente el investigador seguramente especifique y estime
inicialmente un modelo más sencillo, como por ejemplo un AR(2); posteriormente el análisis de
los residuos obtenidos en dicha estimación pondrá de manifiesto la presencia de otras
estructuras. Si, por ejemplo, el investigador detecta en las funciones de autocorrelación simple y
parcial de los residuos obtenidos una estructura de MA(1) será necesario incorporar dicha
estructura especificando un modelo ARMA (2, 1), el cual sin duda tendrá una mayor capacidad
explicativa.
3.4.4.2. Modelos ARIMA
Si la serie Yt no fuera estacionaria y tomando d diferencias logramos que lo sea tal que ωt=∆dYt
sí es estacionaria, entonces diremos que Yt sigue un proceso autorregresivo integrado de media
móvil de orden (p, d, q) y se denominará ARIMA (p,d,q) o, lo que es lo mismo, que ωt sigue un
proceso estacionario de tipo ARMA (p, q) tal que:
qtqtttptpttt −−−−−− −−−−+++++= εθεθεθεωφωφωφδω ...... 22112211
O también, expresando el proceso en notación de polinomios de retardos:
tq
qtp
p BBBBBB εθθθδωφφφ )...1()...1( 221
221 −−−−+=−−−−
tt BB εθδωφ )()( +=
El modelo ARIMA(p, d, q) puede ser considerado como el modelo estocástico lineal general,
del cual derivan el resto de procesos que hemos visto. Así, si p = d = 0, estaremos ante un
modelo ARIMA(0, 0, q) equivalente a un modelo MA(q); si q = 0 tendríamos un modelo
ARIMA ( p, d, 0) ó ARI(p,d) (es decir, un modelo autorregresivo en el que se han tomado d
diferencias para hacer estacionaria a la serie analizada).
99
3.4.5. Procesos Estacionales Cuando trabajamos con series temporales cuya frecuencia de medida es inferior al año
(mensuales, trimestral, cuatrimestrales), es frecuente encontrarse con patrones estacionales, es
decir, ciclos u oscilaciones estrictamente periódicos, siendo dicho período igual o inferior al
año. Por ejemplo, si una serie trimestral presenta estacionalidad diremos que su periodo
estacional será igual a cuatro cuando en dicha serie se aprecian similitudes en su
comportamiento cada cuatro trimestres.
La presencia de este componente se explica por la existencia de las estaciones y su impacto
sobre la actividad económica (por ejemplo, en la producción agropecuaria o en el turismo), las
costumbres (fin de año, Semana Santa) o los procesos físicos (temperatura, pluviosidad, etc.).
Otra manera para detectar un comportamiento estacional consiste en analizar las funciones de
autocorrelación simple y parcial de la serie de la que se sospecha que presenta un
comportamiento de tipo estacional. Si al representar dichas funciones se aprecian valores muy
altos, significativamente distintos de cero, para los retardos estacionales podremos concluir que
la serie presenta un componente estacional el cual debe presentar un carácter estacionario, es
decir, debemos exigir que el componente estacional se mantenga constante a lo largo del
tiempo.
Nuevamente, el análisis de las funciones de autocorrelación simple y parcial en los retardos
estacionales nos dirá si el componente estacional de la serie es estacionario o no. Así, si
observamos que la función de autocorrelación simple presenta un lento decaimiento en los
valores correspondientes a los retardos estacionales y el valor del primer retardo estacional es
próximo a uno tanto en la función de autocorrelación simple como parcial, es muy probable que
el comportamiento estacional de la serie no presente un carácter estacionario, por lo que será
necesario tomar diferencias de tipo estacional.
En caso de que la serie Yt presente un comportamiento estacional no estacionario, habrá que
tomar diferencias entre aquellas observaciones separadas por el periodo que presenta el
100
comportamiento estacional, aplicando para ello el operador diferencia estacional, ∆s, que se
define como:
∆sYt = Yt – Yt-s = (1–Bs) Yt
donde s es el periodo estacional de la serie.
La detección del comportamiento estacional de la serie y su carácter estacionario es importante
ya que, tal y como Box y Jenkins plantearon, es posible incorporar a un modelo ARIMA (p, d,
q) las correlaciones existentes entre pares de observaciones separadas por periodos estacionales
suponiendo que el término de error de un modelo ARIMA para la parte estacional está
correlacionado serialmente.
Así, podemos especificar el siguiente modelo para la parte estacional detectada en la serie:
tQs
Qss
tDsPs
Pss uBBBYBBBB )·...1()1)(...1( 2
212
21 Θ−−Θ−Θ−=−Φ−−Φ−Φ− (3.5)
Que se denomina ARIMA(P, D, Q) para la parte estacional de la serie.
A su vez, podemos suponer que el término de error de este modelo, ut, viene generado por un
proceso ARIMA(p, d, q) en lugar de ser ruido blanco tal que:
tq
qtdp
p BBBuBBBB εθθθφφφ )...1()1)(...1( 221
221 −−−−=−−−−− (3.6)
Sustituyendo ahora (3.5) en (3.6) obtendremos la expresión del proceso estacional
multiplicativo general, el cual denotaremos por ARIMA(p, d, q) × ARIMA( P, D, Q)s, y que
podemos escribir como:
tq
qQs
Qss
tdDsp
pPs
Pss
BBBBBB
YBBBBBBBB
εθθθ
φφφ
)·...1)(...1(
)1()1)(...1)(...1(
221
221
221
221
−−−−Θ−−Θ−Θ−
=−−−−−−Φ−−Φ−Φ−
101
O, de forma más abreviada, expresando el modelo en notación de retardos y generalizándolo
incluyendo un término constante:
ts
tdDss BBYBBBB εθδφ )()(])1()1)[(()( Θ=−−−Φ
donde:
)(Bφ es el polinomio de retardos autorregresivo de la parte regular de la serie.
)(Bθ es el polinomio de retardos de medias móviles de la parte regular de la serie.
d es el número de diferencias aplicadas a la parte regular de la serie para hacerla estacionaria.
)( sBΦ es el polinomio de retardos autorregresivo de la parte estacional de la serie.
)( sBΘ es el polinomio de retardos de medias móviles de la parte estacional de la serie.
D es el número de diferencias aplicadas a la parte estacional de la serie para hacerla
estacionaria.
Así, por ejemplo, si deseamos especificar un modelo para una serie con estacionalidad mensual
podemos especificar un ARIMA(1, 1, 1) × ARIMA( 1,1, 1)12, el cual puede escribirse como:
tts BBYBBBB εθδφ )·1)(1(])1)(1)[(1)(1( 1
121
1211 −Θ−=−−−−Φ−
La estructura de las funciones de autocorrelación simple y parcial suele ser generalmente muy
compleja de este tipo de modelos por lo que no vamos a entrar en detalle en sus expresiones,
limitándonos a presentar a continuación la forma de las funciones de autocorrelación simple y
parcial de algunos procesos típicos de muchas series económicas.
102
Funciones de autocorrelación simple y parcial de algunos
procesos ARIMA(p, d, q) ×××× ARIMA(P, D, Q) s
ARIMA(1 , 0, 0) ×××× ARIMA( 1, 0, 0)12
a) φ1>0, Φ1>0, 11 Φ=φ
Función de autocorrelación simple
Función de autocorrelación parcial
b) φ1>0, Φ1<0, 11 Φ=φ
Función de autocorrelación simple
Función de autocorrelación parcial
c) φ1<0, Φ1>0, 11 Φ=φ
Función de autocorrelación simple
Función de autocorrelación parcial
103
d) φ1<0, Φ1<0, 11 Φ=φ
Función de autocorrelación simple
Función de autocorrelación parcial
ARIMA(2 , 0, 0) ×××× ARIMA( 1, 0, 0)12
a) φ1>0, φ2>0, Φ1>0, 112 Φ<< φφ
Función de autocorrelación simple
Función de autocorrelación parcial
b) φ1<0, φ2>0, Φ1>0, 112 Φ<< φφ
Función de autocorrelación simple
Función de autocorrelación parcial
104
c) φ1>0, φ2<0, Φ1>0, 112 Φ<< φφ
Función de autocorrelación simple
Función de autocorrelación parcial
d) φ1<0, φ2<0, Φ1>0, 111212 , , Φ=Φ<< φφφφ
Función de autocorrelación simple
Función de autocorrelación parcial
e) φ1>0, φ2>0, Φ1<0, 112 Φ<< φφ
Función de autocorrelación simple
Función de autocorrelación parcial
105
f) φ1<0, φ2>0, Φ1<0, 112 Φ<< φφ
Función de autocorrelación simple
Función de autocorrelación parcial
g) φ1>0, φ2<0, Φ1<0, 112 Φ<< φφ
Función de autocorrelación simple
Función de autocorrelación parcial
h) φ1<0, φ2<0, Φ1<0, 111212 , , Φ=Φ<< φφφφ
Función de autocorrelación simple
Función de autocorrelación parcial
106
ARIMA( 0, 0, 1) ×××× ARIMA( 0, 0, 1)12
a) θ1>0, Θ1>0, 11 Θ=θ
Función de autocorrelación simple
Función de autocorrelación parcial
b) θ1>0, Θ1<0, 11 Θ=θ
Función de autocorrelación simple
Función de autocorrelación parcial
c) θ1<0, Θ1>0, 11 Θ=θ
Función de autocorrelación simple
Función de autocorrelación parcial
107
d) θ1<0, Θ1<0, 11 Θ=θ
Función de autocorrelación simple
Función de autocorrelación parcial
ARIMA( 0, 0, 2) ×××× ARIMA( 0, 0, 1)12
a) θ1>0, θ2>0, Θ1>0, 112 Θ<< θθ
Función de autocorrelación simple
Función de autocorrelación parcial
b) θ1<0, θ2>0, Θ1>0, 112 Θ<< θθ
Función de autocorrelación simple
Función de autocorrelación parcial
108
c) θ1>0, θ2<0, Θ1>0, 112 Θ<< θθ
Función de autocorrelación simple
Función de autocorrelación parcial
d) θ1<0, θ2<0, Θ1>0, 111212 , , Θ=Θ<< θθθθ
Función de autocorrelación simple
Función de autocorrelación parcial
e) θ1>0, θ2>0, Θ1<0, 112 Θ<< θθ
Función de autocorrelación simple
Función de autocorrelación parcial
109
f) θ1<0, θ2>0, Θ1<0, 112 Θ<< θθ
Función de autocorrelación simple
Función de autocorrelación parcial
g) θ1>0, θ2<0, Θ1<0, 112 Θ<< θθ
Función de autocorrelación simple
Función de autocorrelación parcial
h) θ1<0, θ2<0, Θ1<0, 111212 , , Θ=Θ<< θθθθ
Función de autocorrelación simple
Función de autocorrelación parcial
110
ARIMA( 0, 0, 1) ×××× ARIMA( 2, 0, 0)12
a) θ1>0, Φ1>0, Φ2>0, 112 θ<Φ<Φ
Función de autocorrelación simple
Función de autocorrelación parcial
b) θ1>0, Φ1<0, Φ2<0, 111212 , , Φ=<ΦΦ<Φ θθ
Función de autocorrelación simple
Función de autocorrelación parcial
ARIMA( 0, 0, 1) ×××× ARIMA( 2, 0, 1)12
a) θ1>0, Φ1>0, Φ2<0, Θ1>0, 11211 , Θ<Φ<ΦΘ=θ
Función de autocorrelación simple
Función de autocorrelación parcial
111
b) θ1>0, Φ1<0, Φ2<0, Θ1>0, 12111 , Θ<ΦΘ=Φ=θ
Función de autocorrelación simple
Función de autocorrelación parcial
3.5. FASES PARA LA ELABORACIÓN DE MODELOS
UNIVARIANTES
Aunque las fases que vamos a explicar a continuación son válidas para cualquier tipo de proceso
univariante, vamos a centrarnos fundamentalmente en los procesos de tipo ARIMA.
Básicamente se trata de buscar un proceso ARIMA que de forma verosímil haya podido generar
la serie temporal, es decir, que se adapte mejor a las características de la misma. Para ello
seguiremos las siguientes fases:
− Fase de identificación
− Fase de estimación
− Fase de validación
− Fase de predicción
3.5.1. Fase de identificación Dado que los procesos ARIMA están diseñados para modelizar datos de carácter estacionario, lo
primero que debemos hacer es efectuar un análisis de la estacionariedad de los datos. Con tal fin
se utilizan los siguientes instrumentos:
− Representación gráfica de los datos. Si el gráfico de la serie temporal presenta fluctuaciones
cuya amplitud cambia para distintos intervalos del período muestral, seguramente el proceso
que genera la serie es no estacionario. Lo mismo sucede cuando la tendencia es creciente o
decreciente con el tiempo.
112
− A través del gráfico desviación típica-media. Si en el gráfico realizado observamos que,
conforme crece la media, la desviación típica aumenta, la varianza del proceso será
creciente por lo que diremos que la serie es no estacionaria en varianza.
− Análisis del correlograma. El hecho de que la función de autocorrelación simple o
correlograma de la serie decrezca muy lentamente al aumentar el retardo ha demostrado ser
una señal de tendencia no estacionaria. Puesto que en la práctica se dispone de una
realización de un proceso estocástico, podemos obtener los coeficientes de autocorrelación
muestral y, a partir de ellos, el correlograma muestral. Una vez representado el
correlograma muestral, podrá analizarse si la serie es o no estacionaria. Asimismo, en este
punto también es conveniente examinar la apariencia de la función de autocorrelación
parcial de la serie para ver si existen similitudes con alguno de los patrones estudiados.
Si la serie temporal que estamos analizando no es estacionaria se deberán aplicar las
transformaciones adecuadas con objeto de convertirla en estacionaria. Si la serie no es
estacionaria en varianza, deberemos tomar logaritmos sobre la serie; si además la serie presenta
no estacionariedad en media, se aplicará el proceso de diferenciación que ya hemos comentado
al comienzo del capítulo.
En este punto cabe señalar que es preferible trabajar con series económicas en niveles en lugar
de tasas de variación ya que, en caso de detectarse no estacionariedad en la varianza, no
podremos aplicar logaritmos si existe alguna tasa negativa. Asimismo, debemos tener en cuenta
que normalmente las series originales transformadas aplicando logaritmos y tomando
posteriormente una diferencia constituyen una aproximación a una tasa de variación tal que
∆lnYt ≅ (Yt – Yt-1) / Yt-1
Una vez transformada la serie en estacionaria, se determinará el orden de la parte autorregresiva
(p) y el de la parte de media móvil (q) del proceso ARMA que se considere que haya podido
generar la serie estacionaria. Para tal fin utilizaremos la representación gráfica de las funciones
de autocorrelación simple y parcial de la serie transformada, con objeto de obtener pistas acerca
del proceso univariante del que puede proceder la serie transformada. Las siguientes reglas
pueden resultar útiles a la de inspeccionar los gráficos de la fas y la fap de la serie:
− En los modelos AR(p), la función de autocorrelación parcial presenta los p primeros
coeficientes distintos de cero y el resto nulos. Asimismo, generalmente la función de
autocorrelación simple presenta un decrecimiento rápido de tipo exponencial, sinusoidal o
ambos.
113
− En los modelos MA(q), se da el patrón opuesto: la función de autocorrelación simple se
anula para retardos superiores a q y la función de autocorrelación parcial decrece
exponencial o sinusoidalmente.
− Sin embargo, como ya hemos visto, la especificación de los modelos ARMA no se ajusta a
unas normas tan bien definidas. Por ejemplo, en un modelo AR(1), la función de
autocorrelación parcial es cero para k>1, pero esto no ocurre en un ARMA(1,1), pues a la
componente AR(1) hay que superponer la MA(1) cuya función de autocorrelación parcial
converge exponencialmente a cero.
Lo habitual en estos casos es que el investigador especifique inicialmente un modelo más
simple y, posteriormente, mediante el análisis de los residuos de la estimación de dicho
modelo se detecte un proceso que no ha sido especificado inicialmente y que debe ser
incorporado al modelo.
− En cualquier caso, para que una serie sea fácilmente identificable hay que considerar un
tamaño muestral elevado, superior a 50 observaciones.
En general, la etapa de identificación suele plantear ciertas dificultades y su objetivo es
determinar la especificación tentativa de unos pocos modelos con estructuras sencillas. Las
posteriores etapas de estimación y validación de los resultados confirmarán los indicios o, por el
contrario, servirán de base para reformular el modelo propuesto.
3.5.2. Fase de estimación Una vez identificado el modelo de series temporales apropiado, se procede a la estimación
definitiva de sus parámetros. En este punto, no debemos olvidar que si hemos tomado d
diferencias en la serie se perderán d observaciones, quedando T–d datos disponibles para la
estimación.
Asimismo, debemos tener presente que el proceso estimado debe verificar las siguientes
hipótesis:
a) El término εt posee estructura de ruido blanco y sigue una distribución Normal con
media 0 y varianza 2εσ .
114
b) La parte AR del proceso es estacionaria.
c) La parte MA del proceso es invertible.
Veamos a continuación brevemente cómo se realiza la estimación de los distintos modelos
univariantes que hemos visto en los epígrafes anteriores:
• Estimación de procesos AR. Un proceso autorregresivo no cumple la hipótesis del
modelo clásico de regresión basada en regresores fijos que veíamos en el capítulo 2, ya
que los retardos de Yt son variables aleatorias al serlo la propia Yt. Sin embargo, en
presencia de errores que no presentan autocorrelación, los estimadores mínimo-
cuadráticos son consistentes por lo que en la práctica la estimación de un proceso
autorregresivo se realiza por MCO, siendo los retardos de la variable endógena las
variables explicativas del modelo. Sólo si el término de error presentase algún tipo de
correlación y no fuera ruido blanco, los estimadores obtenidos dejarían de ser
consistentes.
• Estimación de procesos MA y ARMA. La estimación de modelos de medias móviles y
ARMA resulta algo más compleja y se lleva a cabo maximizando el logaritmo de la
función de verosimilitud mediante algoritmos de optimización numérica, similares a los
que veremos en el capítulo 11, debido a que los errores no son función lineal de los
parámetros. Por ello generalmente la estimación de estos procesos se realiza utilizando
algún programa informático especializado, como puede ser Eviews, SPSS o TRAMO.
3.5.3. Fase de validación En esta etapa se comprobará la capacidad de ajuste del modelo propuesto y estimado a los datos.
En caso de que el modelo no supere satisfactoriamente este paso, será necesario reformularlo.
En este sentido, cabe señalar que los resultados de la comprobación de la validez del modelo,
suelen dar pistas para la especificación de un modelo alternativo.
Para la aceptación del modelo, éste debe cumplir los siguientes requisitos:
• Análisis de los residuos. Como sabemos, una de las hipótesis de los modelos
univariantes es que el término de error del modelo es ruido blanco. Por ello, los residuos
obtenidos tras la estimación del modelo deben seguir un proceso puramente aleatorio
con distribución Normal, ya que de lo contrario, contendrían información relevante para
la predicción que se estaría despreciando.
115
Con objeto de estudiar si los residuos se aproximan al comportamiento de un proceso de
ruido blanco, se disponen de las siguientes herramientas:
− Estadístico de Ljung-Box: se trata del siguiente estadístico, propuesto por
Ljung y Box (1979) para contrastar si una serie posee estructura de ruido
blanco:
∑= −
+=k
j
j
jT
rTTkQ
1
2ˆ)2()(
donde T es el número de observaciones y
∑
∑−
=
−
=−
=kT
tt
kT
tktt
kr
1
2
1ˆ
ε
εε es el coeficiente
de autocorrelación de orden k de los residuos.
La elección de k es arbitraria, si bien debe tenerse en cuenta que cuanto
mayor sea el valor de k, el test se extenderá a desfases mayores pero la
precisión en la estimación de los rk será menor y disminuirá la potencia del
contraste, es decir, la probabilidad de rechazar la hipótesis nula cuando ésta
es falsa.
Dicho estadístico, bajo la hipótesis nula de que los residuos del modelo son
ruido blanco sigue una distribución 2χ con k grados de libertad, por lo que
se rechazará la hipótesis nula si el valor del estadístico obtenido es superior
al tabulado en la distribución a un nivel de significación dado.
− Representación de las funciones de autocorrelación simple y parcial de
los residuos. Si los coeficientes de dichas funciones son estadísticamente
iguales a cero, la serie de residuos será considerada aleatoria. Anderson
(1942) demostró que los coeficientes de la función de autocorrelación
procedentes de un ruido blanco siguen asintóticamente la siguiente
distribución:
)/1 ,0(ˆ TNrk ≈
116
En consecuencia, bajo la hipótesis nula de que kr =0, se puede construir un
intervalo de confianza acotado por T
2± . Si algún kr cayera fuera de este
intervalo, entonces se rechazará la hipótesis de no autocorrelación.
Las funciones de autocorrelación simple y parcial de los residuos del
modelo estimado son instrumentos valiosos a la hora de reformular el
modelo en caso de que no se comporten como un proceso ruido blanco, ya
que si se detecta algún tipo de estructura univariante que no se había
especificado inicialmente en el modelo, podremos incorporarla y estimar
de nuevo el modelo.
− Representación gráfica de los residuos. La representación de la evolución
de los residuos a lo largo del tiempo permite observar si su varianza se
mantiene constante en el tiempo y si la media está próxima a cero, así como
detectar la presencia de valores atípicos, esto es, residuos que en valor
absoluto exceden en tres o cuatro veces su desviación típica (suponiendo
que su media es igual a cero).
Asimismo podemos verificar si las frecuencias de los residuos se ajustan a
una distribución Normal mediante el test de Jarque-Bera, cuya expresión es:
−+⋅=24
)3(
6
22 KANJB
Donde A el coeficiente de asimetría muestral, K el coeficiente de curtosis
muestral y N el tamaño muestral4.
4 Recordemos que los coeficientes de asimetría y curtosis se calculan de la siguiente manera:
31
3)(
x
n
i
i
n
xx
Aσ
∑=
−
= ; 3
)(
41
4
−
−
=∑
=
x
n
i
i
n
xx
Kσ
Para el caso de una distribución Normal, se verificará que A = 0 y K = 3, valores que sustituidos en la expresión del estadístico de Jarque-Bera hacen que sea igual a 0.
117
Bajo la hipótesis nula de Normalidad en la distribución de los residuos, el
estadístico JB se distribuye según una χ2 con 2 grados de libertad, por lo
que valores muy elevados del estadístico sugerirán la no normalidad de la
serie de residuos analizada.
− Otros contrastes. También es posible aplicar a los residuos los contrastes
sobre autocorrelación y heteroscedasticidad que vimos en el capítulo 3.
• Análisis de los coeficientes estimados.
− Significatividad de los coeficientes. Lo primero es verificar si los
coeficientes son significativos mediante el estadístico t. Dicho estadístico
está construido bajo la hipótesis nula de que el coeficiente es cero y sigue
una distribución t-Student con T–m grados de libertad, siendo m el número
de parámetros incluidos. Si concluimos que alguno no es significativo
(estadístico t mayor, en valor absoluto, que su valor en tablas) se puede
eliminar del modelo.
− Condiciones de estacionariedad e invertibilidad. El modelo debe
verificar las condiciones ya vistas a lo largo del capítulo; de lo contrario, si
alguna de las raíces del polinomio de retardos del componente
autorregresivo o del componente media móvil fuese inferior a la unidad (o,
alternativamente, alguno de los parámetros estimados fuera mayor de uno),
se rechazaría automáticamente el modelo.
En el límite, si alguna de las raíces del polinomio de retardos (o alguno de
los parámetros) del componente autorregresivo estuviera muy próxima a
uno, es posible que la serie original esté subdiferenciada por lo que puede
que sea necesaria tomar alguna diferencia adicional.
Del mismo modo, si las raíces del polinomio de retardos (o alguno de sus
parámetros) del componente media móvil del modelo estuviera cercana a
uno, posiblemente el modelo esté sobrediferenciado.
• Análisis de la bondad de ajuste. Generalmente en este aspecto se suele utilizar el
coeficiente de determinación, R2, si bien los coeficientes de determinación de diferentes
118
modelos univariantes sólo son comparables en aquellos modelos en los que se hayan tomado
idéntico número de diferencias, debido a que para que éste sea un elemento de comparación
directa, la varianza de la variable debe ser la misma. Para paliar este inconveniente, se han
propuesto medidas alternativas como el estadístico AIC (Akaike Information Criterion),
formulado por Akaike (1974) o el SIC (Schwarz Information Criterion), formulado por
Schwarz (1978)5. Las expresiones de dichos estadísticos son:
2 2
log( )2
l kAIC
T T
l TSIC k
T T
= − +
= − +
Donde l es el valor en el óptimo del logaritmo de la función de verosimilitud con k
parámetros estimados y T observaciones. Siguiendo estos criterios, se seleccionará aquel
modelo para el que se obtenga un AIC o SIC más bajo.
• Análisis de la estabilidad. Finalmente, de cara a la predicción, conviene saber si el modelo
estimado para el período muestral sigue siendo válido para períodos futuros. Para ello,
podemos aplicar el test de estabilidad estructural de Chow, estimando el modelo con toda la
muestra disponible y después con dos submuestras obtenidas a partir de la muestra original.
Seguidamente se calcula el siguiente estadístico:
kT
k
FT
tt
T
tt
T
tt
T
tt
T
tt
2/
/
21
21
1
22
1
21
1
22
1
21
1
2
−
+
+−
=
∑∑
∑∑∑
==
===
εε
εεε
~ Fk, T–2k
donde:
k es el número de parámetros estimados.
T = T1+T2 es el total de datos en la muestra.
εt es el residuo del modelo estimado utilizando todo el período muestral.
5 La mayor parte de paquetes informáticos dedicados al análisis de series temporales calcula de forma automática cuando se realiza la estimación de un modelo.
119
ε1t es el residuo obtenido en la estimación del modelo utilizando los T1 primeros datos.
ε2t es el residuo obtenido en la estimación del modelo utilizando los T2 últimos datos.
Lo que se pretende contrastar con el test de Chow es si el último tramo muestral ha estado
generado por la misma estructura que el resto de las observaciones. En este sentido, algunos
autores recomiendan tomar como segundo tramo muestral el último tercio o cuarto de la
muestra.
En caso de que el estadístico F obtenido sea mayor que su valor tabulado a un determinado
nivel de significación, se rechazará la hipótesis nula de estabilidad estructural.
3.5.4. Fase de predicción Una vez que el modelo ha superado la fase de diagnosis, se convierte en un instrumento útil para
la predicción. La realización de predicciones y el error cometido al realizar dicha predicción
dependerá del tipo de modelo univariante que estemos considerando:
− En el caso de los modelos autorregresivos, bastará con sustituir los retardos de la
ecuación por sus correspondientes realizaciones en la serie. Si tratamos de realizar
predicciones varios periodos hacia delante, veremos que cuanto más adelante en el
tiempo tratamos de predecir el valor de la serie, menor será la ponderación de la última
observación y la esperanza matemática de la variable tiene cada vez más peso. De
hecho, en un régimen de total incertidumbre (o, alternativamente, cuando el horizonte
de predicción tiende a infinito) la predicción óptima para una variable aleatoria es su
esperanza matemática, mientras que si realizamos predicciones a corto plazo para los
valores de la serie, dispondremos de información muestral reciente que nos permitirá
mejorar nuestra predicción, la cual en este caso será más precisa que la esperanza
matemática.
En la siguiente tabla se presenta un resumen de las expresiones para las previsiones a 1
y 2 periodos con modelos autorregresivos sencillos, el error cometido y la varianza de
dicho error:
120
PROCESO AR (1)
Valor Futuro Error de Predicción Varianza del Error
Predicción a 1 periodo YT+1 = δ + φ1YT εT+1 2εσ
Predicción a 2 periodos YT+2 = δ(1+φ1)+ φ12YT εT+2+φ1εT+1 2
εσ (1+φ12)
Y, en general, para k periodos hacia delante se verifica que YT+k = δ(1+φ1+φ12+…+φ1
k)+ φ1kYT
PROCESO AR (2)
Valor Futuro Error de Predicción Varianza del Error
Predicción a 1 periodo YT+1 = δ + φ1YT+φ2YT-1 εT+1 2εσ
Predicción a 2 periodos YT+2 = δ(1+φ1) + (φ12+ φ2)YT+φ1φ2YT-1 εT+2+φ1εT+1 2
εσ (1+φ12)
La previsión con modelos AR(p) con un orden p superior a 1 genera estructuras complejas
en horizontes de predicción superiores a 1.
− Por su parte, la predicción basada en modelos de medias móviles es siempre igual al
término constante (o igual a cero en caso de que éste no hubiera sido especificado en el
modelo) para un número de periodos hacia delante mayor que su orden.
Por tanto, las expresiones para las previsiones a 1 periodo con modelos de medias
móviles sencillos, el error cometido y la varianza de dicho error son:
Proceso Predicción a 1 periodo Error de Predicción Varianza del Error
MA(1) YT+1 = δ – θ1εT εT+1 2εσ
MA(2) YT+1 = δ + θ1εT – θ2εT-1 εT+1 2εσ
Y en general se verifica que YT+k = δ, ∀k > q
− Finalmente, en el caso de los modelos ARMA la superposición de los resultados que
acabamos de comentar lleva a la conclusión de que cuando el horizonte de predicción
tiende a infinito, la predicción convergerá a su esperanza matemática.
121
Por tanto, las expresiones para las previsiones a 1 y 2 periodos con un modelo
ARMA(1,1), el error cometido y la varianza de dicho error son:
Valor Futuro Error de Predicción Varianza del Error
Predicción a 1 periodo YT+1 = δ + φ1YT – θ1εT εT+1 2εσ
Predicción a 2 periodos YT+2 = (1+φ1)δ + φ12YT –φ1θ1εT εT+2+(φ1 – θ1)εT+1 [1+(φ1 – θ1)
2]+ 2εσ
Y en general, la predicción a k periodos para un ARMA estacionario es:
1
lim1T k
kY
δφ+→∞
=−
Es decir, converge a la media del proceso.
Asimismo, debemos recordar que hay que deshacer las transformaciones que hayamos realizado
en la variable original para hacerla estacionaria. Así, si hemos tomado una diferencia, la
predicción para 1ˆ
+TY es TT Yˆ 1 ++ω para la predicción a un periodo y, de forma más genérica,
TTkTkTkTkT YY ˆˆ...ˆˆˆˆ 121 +++++= +−+−+++ ωωωω ; del mismo modo, si hemos tomado dos diferencias
tendremos que 111ˆ2ˆˆ
−++ −+= TTTT YYY ω , y así sucesivamente.
Posteriormente, si también habíamos aplicado logaritmos a la serie original, deberemos elevar a
e el resultado obtenido tras deshacer las diferencias más la mitad de la varianza del error de
predicción tal que:
+
++
=)( ·
2
1ˆ
ˆkeVar
kT
TkT
eYω
Dependiendo del tamaño de la varianza del error de predicción, supondría una diferencia
significativa o no con respecto a la aplicación de antilogaritmos a la predicción de la serie
diferenciada, aunque por lo general en la práctica el término asociado a la varianza del error
suele ser despreciable.
122
3.6. EJEMPLOS PRÁCTICOS
3.6.1. Ejemplo 1: Pasajeros en Lineas Aereas. El siguiente ejemplo utiliza los totales mensuales de pasajeros de líneas aéreas internacionales
para el periodo comprendido entre Enero de 1949 y Diciembre de 1962 incluidos en libro de
Box y Jenkins. Esta base de datos está disponible en R:
> data(AirPassengers) > x<-AirPassengers
En la figura 3.15. se muestra la representación gráfica de la serie en la que puede apreciarse
claramente una fuerte estacionalidad en los datos y una varianza creciente en el tiempo.
> plot(x)
Figura 3.15. Pasajeros de líneas aéreas internacionales
(serie original)
El hecho de que la varianza de la serie no sea constante en el tiempo sugiere que lo primero que
debemos hacer es transformar la serie tomando logaritmos para hacer que sea estacionaria en
varianza.
> x <- log(x) Tras tomar logaritmos, la serie presenta ahora el siguiente aspecto (fig. 3.2.):
123
> plot(x)
Figura 3.16. Pasajeros de líneas aéreas internacionales
(serie en logaritmos)
El análisis de la serie en logaritmos y de sus funciones de autocorrelación simple y parcial
confirman que la serie no es estacionaria en media por lo que debemos tomar una diferencia.
> par(mfcol = c(1, 2)) > acf(x) > pacf(x)
124
Figura 3.17. Funciones de autocorrelación simple y parcial (serie en logaritmos)
Tras tomar una diferencia, el aspecto de la serie es el siguiente (figura. 3.18):
> par(mfcol = c(1, 1)) > x1 <- diff(x) > plot(x1)
125
Figura 3.18. Pasajeros de líneas aéreas internacionales (serie logarítmica en diferencias)
Las funciones de autocorrelación simple y parcial de la serie logarítmica en diferencias se
muestran en la figura 3.19, en las que puede apreciarse el marcado componente estacional en los
meses de Diciembre, lo que nos obliga a tomar una diferencia estacional de 12 meses para hacer
estacionaria la parte estacional de la serie.
> par(mfcol = c(1, 2)) > acf(x1) > pacf(x1)
126
Figura 3.19. Funciones de autocorrelación simple y parcial (serie logarítmica en
diferencias)
El gráfico de la figura 3.20. muestra la serie logarítmica con una diferencia regular y una
diferencia estacional de periodo 12; en ella podemos apreciar la pérdida de las 13 primeras
observaciones al haber aplicado las diferencias indicadas. Tras haber aplicado las
transformaciones que hemos comentado, la serie presenta ahora un claro comportamiento
estacionario, el cual viene confirmado por las funciones de autocorrelación simple y parcial de
la serie (figura 3.21).
> par(mfcol = c(1, 1)) > x1_12 <- diff(x1,12) > plot(x1_12)
127
Figura 3.20. Pasajeros de líneas aéreas internacionales
(serie logarítmica con una diferencia regular y una diferencia estacional)
> par(mfcol = c(1, 2)) > acf(x1_12) > pacf(x1_12)
Figura 3.21. Funciones de autocorrelación simple y parcial
(serie logarítmica con una diferencia regular y una diferencia estacional)
128
De las funciones de autocorrelación simple y parcial podemos extraer algunas conclusiones: por
un lado, en la parte regular podemos comprobar que las funciones de correlación simple y
parcial son muy parecidas, siendo el primer retardo significativo para ambos casos. Esto indica
que quizás el modelo sea un ARIMA(1,1,0), un ARIMA(0,1,1) o un ARIMA(1,1,1), en
cualquier caso un modelo de primer orden.
Por otro lado, en la parte estacional vemos que el retardo 12 es significativo y que en sus
cercanías hay muy poca correlación, lo que sugiere un proceso con muy poca memoria,
posiblemente un ARIMA(0,1,1)12 en la parte estacional.
Las conclusiones anteriores nos llevan a estimar tres modelos: un ARIMA(1,1,0)×(0,1,1)12, un
ARIMA(0,1,1)×(0,1,1)12 y un ARIMA(1,1,1)×(0,1,1)12. Presentamos a continuación, de forma
resumida, los resultados obtenidos para los tres modelos.
Para estimar un modelo ARIMA en R hay que utilizar la función “arima”, cuya estructura es la
siguiente:
arima(x, order = c(0L, 0L, 0L), seasonal = list(order = c(0L, 0L, 0L), period = NA), xreg = NULL, include.mean = TRUE, transform.pars = TRUE, fixed = NULL, init = NULL, method = c("CSS-ML", "ML", "CSS"), n.cond, SSinit = c("Gardner1980", "Rossignol2011"), optim.method = "BFGS", optim.control = list(), kappa = 1e6)
destacar, la opción order, en donde se especifican los elementos (p,d,q) de la parte no estacional
del modelo arima, y seasonal, en donde se especifican los elementos de la parte estacional.
a) Resultados de la estimación
ARIMA(1,1,0)×(0,1,1)12
> mod1 <- arima(x,c(1,1,0),c(0,1,1)) > mod1 Call: arima(x = x, order = c(1, 1, 0), seasonal = c(0, 1, 1)) Coefficients: ar1 sma1 -0.3395 -0.5619 s.e. 0.0822 0.0748 sigma^2 estimated as 0.001367: log likelihood = 243.74, aic = -481.49
129
ARIMA(0,1,1)×(0,1,1)12
> mod2 <- arima(x,c(0,1,1),c(0,1,1)) > mod2 Call: arima(x = x, order = c(0, 1, 1), seasonal = c(0, 1, 1)) Coefficients: ma1 sma1 -0.4018 -0.5569 s.e. 0.0896 0.0731 sigma^2 estimated as 0.001348: log likelihood = 244.7, aic = -483.4
ARIMA(1,1,1)×(0,1,1)12
> mod3 <- arima(x,c(1,1,1),c(0,1,1)) > mod3 Call: arima(x = x, order = c(1, 1, 1), seasonal = c(0, 1, 1)) Coefficients: ar1 ma1 sma1 0.1960 -0.5784 -0.5643 s.e. 0.2475 0.2132 0.0747 sigma^2 estimated as 0.001341: log likelihood = 244.95, aic = -481.9
Como puede observarse, la estimación de este último modelo contiene un parámetro no
significativo, AR1, por lo que podemos excluirlo de nuestro análisis.
130
b) Ajuste del modelo
ARIMA(1,1,0)×(0,1,1)12
> par(mfcol = c(1, 2)) > plot(x) > lines(x-mod1$residuals,col="red") > plot(mod1$residuals)
Figura 3.22. Resultados de la estimación y residuos del modelo
ARIMA(1,1,0)×(0,1,1)12
ARIMA(0,1,1)×(0,1,1)12
> par(mfcol = c(1, 2)) > plot(x) > lines(x-mod2$residuals,col="red") > plot(mod2$residuals)
131
Figura 3.23. Resultados de la estimación y residuos del modelo
ARIMA(0,1,1)×(0,1,1)12
c) Funciones de autocorrelación simple y parcial.
ARIMA(1,1,0)×(0,1,1)12
> par(mfcol = c(1, 2)) > acf(mod1$residuals) > pacf(mod1$residuals)
132
ARIMA(0,1,1)×(0,1,1)12
> par(mfcol = c(1, 2)) > acf(mod2$residuals) > pacf(mod2$residuals)
d) Test de Normalidad en los residuos
ARIMA(1,1,0)×(0,1,1)12
> summary(mod1$residuals) Min. 1st Qu. Median Mean 3rd Qu. -0.1115000 -0.0232700 -0.0004461 0.0004500 0.0238100 Max. 0.1032000 > par(mfcol = c(1, 1)) > hist(mod1$residuals)
133
> library(tseries) > jarque.bera.test(mod1$residuals) Jarque Bera Test data: mod1$residuals X-squared = 3.607, df = 2, p-value = 0.1647
ARIMA(0,1,1)×(0,1,1)12
> summary(mod2$residuals) Min. 1st Qu. Median Mean 3rd Qu. -0.1186000 -0.0191600 -0.0000515 0.0005731 0.0223300 Max. 0.1085000 > hist(mod2$residuals)
134
> jarque.bera.test(mod2$residuals) Jarque Bera Test data: mod2$residuals X-squared = 5.2265, df = 2, p-value = 0.0733
En definitiva los dos primeros modelos que hemos estimado superan las pruebas de diagnosis
perfectamente y realizan un ajuste muy parecido de los datos. La elección del modelo ahora sí
resulta sencilla a la luz de los valores de los estadísticos AIC, pues el segundo modelo presenta
valores para estos estadísticos menores, en términos absolutos, que el primero. Así pues, el
modelo seleccionado para modelizar el número de pasajeros que viaja mensualmente en líneas
aéreas internacionales es un ARIMA(0,1,1)×(0,1,1)12.
3.6.2. Ejemplo 2: Indice de Producción Industrial de Cantabria El siguiente ejemplo utiliza los totales mensuales del índice de producción industrial (IPI) de
Cantabria Base 2010 para el periodo comprendido entre Enero de 2000 y Abril de 2014
incluidos en libro de Box y Jenkins. Esta base de datos está disponible en la librería
“descomponer” de R:
> library(descomponer) > data(ipi) > x<-ts(ipi,c(2000,1),frequency=12)
135
En la figura 3.24. se muestra la representación gráfica de la serie en la que puede apreciarse
claramente una fuerte estacionalidad en los datos y una varianza creciente en el tiempo.
> plot(x)
Figura 3.24. Índice de Producción Industrial de Cantabria
(serie original)
El hecho de que la varianza de la serie no sea constante en el tiempo sugiere que lo primero que
debemos hacer es transformar la serie tomando logaritmos para hacer que sea estacionaria en
varianza.
> x <- log(x)
Tras tomar logaritmos, la serie presenta ahora el siguiente aspecto (figura 3.25.):
> plot(x)
136
Figura 3.25 Índice de Producción Industrial de Cantabria
(serie en logaritmos)
En la librería “forecast” hay una función “auto.arima” que selecciona el mejor modelo ARIMA
atendiendo al AIC. Su estructura es la siguiente:
auto.arima(x, d=NA, D=NA, max.p=5, max.q=5, max.P=2, max.Q=2, max.order=5, max.d=2, max.D=1, start.p=2, start.q=2, start.P=1, start.Q=1, stationary=FALSE, seasonal=TRUE, ic=c("aicc","aic", "bic"), stepwise=TRUE, trace=FALSE, approximation=(length(x)>100 | frequency(x)>12), xreg=NULL, test=c("kpss","adf","pp"), seasonal.test=c("ocsb","ch"), allowdrift=TRUE, lambda=NULL, parallel=FALSE, num.cores=2)
La función permite, establecer el orden de diferenciación regular o estacional, si no se indica
ningún orden, utiliza el test KPSS6 para establecer el orden regular, y el test OCSB7 para el
estacional , en la opción test, se puede cambiar este criterio de diferenciación por el “test Dikey-
Fuller Aumentado”8 (“adf”) ó el test de Phillips-Perron (“pp”)9 y en “sasonal.test” permite elegir el
6 Kwiatkowski, D.; Phillips, P. C. B.; Schmidt, P.; Shin, Y. (1992). "Testing the null hypothesis of stationarity against the alternative of a unit root". Journal of Econometrics 54 (1–3): 159–178 7 Osborn DR, Chui APL, Smith J, and Birchenhall CR (1988) "Seasonality and the order of integration for consumption", Oxford Bulletin of Economics and Statistics 50(4):361-377. 8 Se explica en el apartado siguiente 9 Phillips, P.C.B and P. Perron (1988), "Testing for a Unit Root in Time Series Regression", Biometrika, 75, 335–346
137
test “ch”10. En la función se puede indicar el orden de los coeficientes AR(p) y MA(q) regulares,
y AR(P) y MA(Q) estacionales con que iniciar la selección del mejor modelo (“start”) y con que
acabar la selección del mejor modelo (“max”), si no se le indica nada los valores por defecto son
los que figuran en la estructura de la función, señalar, por último, que en “ic” se puede optar por
el criterio de selección: AICC, AIC y BIC11) .
A continuación, buscamos con los parámetros de los coeficientes establecidos por defecto, y
cambiando el test KPSS por el test Dikey-Fuller Aumentado para testear la existencia de alguna
raiz unitaria, el mejor AIC para un modelo ARIMA en la serie del IPI de Cantabria:
> mod1 <- auto.arima(x,test="adf") > mod1 Series: x ARIMA(3,1,1)(1,0,2)[12] Coefficients: ar1 ar2 ar3 ma1 sar1 sma1 -0.1254 -0.0285 0.0697 -0.5843 0.9835 -0.4231 s.e. 0.3026 0.2221 0.1532 0.2862 0.0107 0.0951 sma2 -0.1829 s.e. 0.0984 sigma^2 estimated as 0.00337: log likelihood=197.53 AIC=-379.06 AICc=-378.02 BIC=-355.14
Estimamos a continuación el modelo ARIMA seleccionado de forma automática:
> mod1 <- arima(x,c(3,1,1),c(1,0,2)) > mod1 Series: x ARIMA(3,1,1)(1,0,2)[12] Coefficients: ar1 ar2 ar3 ma1 sar1 sma1 -0.1254 -0.0285 0.0697 -0.5843 0.9835 -0.4231 s.e. 0.3026 0.2221 0.1532 0.2862 0.0107 0.0951 sma2 -0.1829 s.e. 0.0984 sigma^2 estimated as 0.00337: log likelihood=197.53 AIC=-379.06 AICc=-378.02 BIC=-355.14
Dado que los coeficientes AR(1),AR(2) y AR(3) no son significativos, optamos por el modelo
ARIMA(0,1,1)×(1,0,2)12
10 Canova F and Hansen BE (1995) "Are Seasonal Patterns Constant over Time? A Test for Seasonal Stability", Journal of Business and Economic Statistics 13(3):237-252.
11 1
)1(2
−−++=
kn
kkAICAICC , siendo n el numero de datos y k los parámetros del modelo
seleccionado; el estadístico BIC (Bayesian information criterion) es una denominación alternativa del
138
> mod2 <- arima(x,c(0,1,1),c(1,0,2)) > mod2 Series: x ARIMA(0,1,1)(1,0,2)[12] Coefficients: ma1 sar1 sma1 sma2 -0.6522 0.9841 -0.4145 -0.2237 s.e. 0.0580 0.0110 0.0962 0.0979 sigma^2 estimated as 0.003429: log likelihood=196.67 AIC=-383.34 AICc=-382.91 BIC=-368.38
El AIC es menor pero el modelo no esta sobre parametrizado. Comprobamos sus resultados12:
> par(mfcol = c(1, 2)) > plot(x) > lines(x-mod1$residuals,col="red") > plot(mod1$residuals)
Figura 3.26. Resultados de la estimación y residuos del modelo ARIMA(0,1,1)×(1,0,2)12
> par(mfcol = c(1, 2)) > acf(mod2$residuals) > pacf(mod2$residuals)
SIC (Schwarz Information Criterion), 12 En la librería “forecast” hay creada una funcion R “tsdisplay”, que presenta el gráfico de la serie, y los gráficos acf y acp.
139
> summary(mod2$residuals) Min. 1st Qu. Median Mean 3rd Qu. Max. -0.185500 -0.038210 -0.004946 -0.001943 0.035560 0.138200 > par(mfcol = c(1, 1)) > hist(mod2$residuals)
> library(tseries)
140
> jarque.bera.test(mod2$residuals) Jarque Bera Test data: mod2$residuals X-squared = 1.8029, df = 2, p-value = 0.406
El modelo elegido presenta residuos en apariencia normal, si bien puede que precise de alguna
diferenciación estacional, debido a que algunos de los coeficientes de la función de
autocorrelación parcial están en el límite del intervalo de confianza. En consecuencia podría
probarse el modelo ARIMA(0,1,1)×(1,1,1)12:
> mod3 <- arima(x,c(0,1,1),c(1,1,1)) > mod3 Series: x ARIMA(0,1,1)(1,1,0)[12] Coefficients: ma1 sar1 -0.6141 -0.2768 s.e. 0.0578 0.0846 sigma^2 estimated as 0.004001: log likelihood=180.41 AIC=-354.82 AICc=-354.63 BIC=-346.1 > par(mfcol = c(1, 2)) > acf(mod3$residuals) > pacf(mod3$residuals)
Con el que tampoco se mejora la funcion de autocorrelación parcial de los residuos. En
consecuencia, la mejor opción es ARIMA(0,1,1)×(1,0,2)12
141
3.7. PROBLEMAS
3.1 Considere la siguiente serie temporal univariante:
[y = 2.82, 0.09,−0.97,−1.13,−1.21,−0.81,−0.37, 2.02, 1.52, 2.44]′ .
Suponiendo que la serie y ≡ [y1 , ...,yN ]′ anterior es una realización particular de una
muestra Y ≡ [Y1 , ...,YN ]′ de tamaño N = 10 procedente de un proceso estocástico
estacionario (Yt):
a) Estime la media y la varianza del proceso Yt.
b) Contraste la hipótesis nula H0: µ = 0 frente a la alternativa H0: µ ≠ 0.
c) Estime la acf y la pacf del proceso Yt hasta el retardo 6
3.2 En la librería “forecast” de R, se encuentra una base de datos en formato de serie temporal,
“gas”, que recoge la producción australiana de gas durante mes a mes durante los años de
1956 a 1996. Estudie la estacionariedad de la serie en R a través de us gráfica y de las
funciones de autocorrelación y autocorrelación parcial.
3.3 Compare el modelo estacionario elegido con alguno de los procesos de Funciones de
autocorrelación simple y parcial de procesos ARIMA(p, d, q) ARIMA(P, D, Q)s teóricos
representados en el texto. Elija los modelos que crea más probables y estimelos con R.
3.4 Realice en R una estimación automática del modelo estacionario y discuta los resultados.
3.5 Sea el siguiente proceso autoregresivo:
ttt YY ε++= −15,01
a) Calcule la esperanza matemática de tY .
b) Calcule la varianza de tY , suponiendo que tε es un ruido blaco
gaussiano de media cero y varianza 1.
3.6 Sabiendo que se dispone de 100 observaciones de tY y que 2,199 =Y e 5,1100 =Y realice
una predicción a dos periodos utilizando el modelo tttt YYY ε+−= −− 21 2,05,0
142
SOLUCIONES
3.1.
a) 20.44, 2.284µ σ= =
b) Se acepta la hipótesis nula
c) acf: 0.443 0.137 –0.250 –0.399 –0.434 –0.313 ;
pacf: 0.443 –0.074 –0.353 –0.204 –0.192 –0.150
3.2. A realizar por el alumno
3.3. A realizar por el alumno
3.4. A realizar por el alumno
3.5
a) 2=µ
b) 1905,1)( =tYVar
3.6
51,0101 =Y ; 045,0101 −=Y
143
4. COINTEGRACION
4.1. INTRODUCCIÓN Los análisis econométricos basados en series de tiempo parten de la suposición de que la
serie de tiempo es estacionaria (ver apartado 3.3). Cuando se estudia la autocorrelación en
los problemas de la regresión por mínimos cuadrados ordinarios, se señala que este es un
problema muy habitual en las regresiones con series temporales, y a menudo es la no
estacionariedad de las series de tiempo utilizadas en la regresión lineal es la causa del
problema de la autocorrelación de los residuos. De hecho, al efectuar la regresión de una
variable de serie de tiempo sobre otra variable de serie de tiempo con frecuencia se obtiene
un 2R muy elevado (superior a 0.9) aunque no haya una relación casual entre las dos. Una
regresión de este tipo se conoce en econometría como regresión espuria o regresión sin
sentido, fue descubierta por Yule, quien mostró además que la correlación (espuria) puede
persistir en las series de tiempo no estacionarias aunque la muestra sea muy grande. En una
regresión espuria, además del 2R muy elevado, se obtiene un valor extremadamente bajo de
la d de Durbin-Watson, lo que indicaría una autocorrelación muy fuerte de primer orden.
De acuerdo con Granger y Newbold (1974), obtener un dR >2es una buena regla práctica
para sospechar que la regresión estimada es espuria. Ni que decir tiene que en estas
regresiones el estadístico t es engañoso ya que no está distribuido como una t de Student y,
por tanto, no se pueden probar con ellos hipótesis sobre los parámetros
En el apartado 3.3 se señala también que un proceso estocástico es estacionario en sentido
estricto si todas las variables aleatorias que componen el proceso están idénticamente
distribuidas, independientemente del momento del tiempo en que se estudia el proceso. En
términos más generales, se dice que un proceso estocástico es estacionario si su media y su
varianza son constantes en el tiempo y si el valor de la covarianza entre dos periodos
depende sólo de la distancia o rezago entre estos dos periodos, y no del tiempo en el cual se
calculó la covarianza..
144
Si una serie de tiempo no es estacionaria en el sentido antes definido, se denomina serie de
tiempo no estacionaria. En otras palabras, una serie de tiempo no estacionaria tendrá una
media que varía con el tiempo o una varianza que cambia con el tiempo, o ambas. En dicho
aparatado se señalaba la importancia de este tipo de series, debido a que si una serie de
tiempo no es estacionaria, sólo podemos estudiar su comportamiento durante el periodo de
estudio. Si las características del proceso cambian a lo largo del tiempo, resultará difícil
representar la serie para intervalos de tiempo pasados y futuros mediante un modelo lineal
sencillo, no pudiéndose por tanto realizar previsiones fiables para la variable.
También se menciono un tipo especial de proceso estocástico: el proceso puramente
aleatorio o de ruido blanco. Se dice que un proceso es puramente aleatorio si tiene una
media igual a cero, una varianza constante y no está serialmente correlacionado. De hecho
una prueba sencilla de estacionariedad se basa en el análisis de función de autocorrelación
(FAC) de la serie de tiempo. Dado que en un proceso puramente de ruido blanco, las
autocorrelaciones en los distintos retardos se ubican alrededor del cero, ocurrirá igual en un
correlograma de una serie de tiempo estacionaria. Por tanto, si el correlograma de una serie
de tiempo real (económica) se parece al correlograma de una serie de tiempo de ruido
blanco, podemos decir que dicha serie de tiempo es quizá estacionaria. La elección de la
longitud del retardo al realizar un correlograma es básicamente de un asunto empírico, y
una regla práctica es calcular la FAC hasta un tercio o una cuarta parte de la longitud de la
serie de tiempo
4.2. PASEO ALEATORIO El paseo aleatorio o camino aleatorio (RW) es una formalización matemática de la
trayectoria que resulta de realizar sucesivos pasos aleatorios (la ruta trazada por una
molécula mientras viaja por un líquido o un gas, el camino que sigue un animal en su
búsqueda de comida, ó el precio de una acción fluctuante ), el término fue introducido por
Pearson en 1905 y los resultados de su análisis han sido aplicados a muchos campos como
la computación, la física, la química, la ecología, la biología, la psicología o la economía.
La teoría del paseo aleatorio en economía se debe a Burton G. Malkiel en su obra A
Random Walk Down Wall Street, que viene a indicar que en un mercado eficiente, los
precios del mercado siguen un camino aleatorio y por lo tanto, impredecible.
145
En su formulación matemática se entiende que tY es un paseo aleatorio si :
ttt uYY =− −1 (4.1)
Donde tu es un término de error de ruido blanco, con media 0 y varianza 2σ .
En el modelo de paseop aleatoria, es por tanto, es un proceso AR(1) cuyas características se
estudian en el apartado 10,
Tomando en consideración (4.1), se tiene que:
3210323
210212
101
uuuYuYY
uuYuYY
uYY
+++=+=++=+=
+=
En general:
∑=
+=T
ttt uYY
10
(4.2)
Tomando esperanzas matemáticas en (4.2) , resulta que
( ) ( ) 01
0 YuEYEYET
ttt =
+= ∑=
y
[ ] 2
2
1
2)( σTuEYEYET
tttt =
=− ∑=
Es decir la media de tY es igual a su valor inicial (constante), pero conforme se incrementa
T , su varianza aumenta de manera indefinida, lo que viola una de las condiciones de la
estacionariedad. En resumen, un RW es un proceso estocástico no estacionario.
La expresión (4.1) puede escribirse:
tttt uYYY =∆=− −1 (4.3)
donde ∆ es el operador de primeras diferencias, que también analizamos en el apartado
3.3.1, de manera que tenemos que si bien tY es no estacionaria, sí lo es la serie de sus
primeras diferencias, ya que tu se definió como ruido blanco
146
Si se modifica (4.1) en el sentido siguiente:
ttt uYY ++= −1δ
donde δ se conoce como parámetro de deriva, en el sentido de que tY se deriva o desvía
hacia arriba o hacia abajo, segúnδ sea positiva o negativa.
Estamos ante otro proceso no estacionario ya que al tomar esperanzas resulta :
( ) δTYYE t += 0
y
[ ] 22)( σTYEYE tt =−
Pero sus primeras diferencias, tt uY +=∆ δ , dan lugar a una serie estacionaria de media no
nula.
En definitiva en un RW con deriva, la media, al igual que la varianza, se incrementa con el
tiempo, lo que viola de nuevo las condiciones de la estacionariedad, aunque al igual que el
paseo aleatorio sin deriva, la serie de sus primeras diferencias sigue siendo estacionaria.
El modelo de RW no es más que un caso específico de una clase más general de procesos
estocásticos conocidos como procesos integrados. El paseo aleatorio estudiado se llama
proceso integrado de orden 1 y se denota como I(1). De manera similar, si una serie de
tiempo tiene que diferenciarse dos veces (es decir, se toman primeras diferencias de la serie
de primeras diferencias) para hacerla estacionaria, esa serie de tiempo se denomina
integrada de orden 2. En general, si una serie de tiempo (no estacionaria) debe diferenciarse
d veces para hacerla estacionaria, decimos que la serie es integrada de orden d. Una serie de
tiempo Yt integrada de orden d se denota como I(d).
La mayoría de las series de tiempo económicas son I(1); es decir, por lo general se
convierten en estacionarias sólo después de tomar sus primeras diferencias.
En Gujarati y Porter (2010), señalan las siguientes propiedades de las series de tiempo
integradas.
147
Sea tX , tY y tZ tres series de tiempo:
1. Si ( )0~ IX t y ( )1~ IYt , ( )1~)( IXYZ ttt += ; es decir, una combinación lineal o
suma de series de tiempo estacionaria y no estacionaria es no estacionaria.
2. Si ( )dIX t ~ , ( )dIbXaZ tt ~)( += , donde a y b son constantes. Es decir, una
combinación lineal de una serie I(d) es también I(d).
3. Si ( )1~ dIX t y ( )2~ dIYt , ( )2~)( dIbYaXZ ttt += donde d1 < d2.
4. Si ( )dIX t ~ y ( )dIYt ~ , ( )1~)( dIbYaXZ ttt += ; d1 es por lo general igual a d, pero
en algunos casos d1 < d .
4.3. PRUEBA DE RAÍZ UNITARIA
Partimos de un RW con la siguiente formulación:
ttt uYY += −1φ , 11 <<− φ (4.4)
donde tu es un término de error de ruido blanco.
Este modelo es un modelo autorregresivo de primer orden similar al que se utiliza para
explicar la autocorrelación (Contraste de Durbin-Watson). Si 1=φ , se transforma en un
RW sin deriva, y por tanto en una serie no estacionaria en varianza. La no estacionariedad
de este tipo de modelos también se denomina problema de raíz unitaria.
Sin embargo, si 1<φ , se demuestra que la serie de tiempo tY es estacionaria13.
13 En el apartado 3.4.2.1 en el que se estudia el AR(1) se considera que si el proceso es estacionario en
media y varianza, se verifica queφ−
=1
1)( tYE y
2
2
1)(
φσ−
= utYVar y que la condición a cumplir para
que la media y varianza sean positivas y finitas es que 1<φ
148
En la practica, la manera de averiguar si una serie de tiempo tiene una raíz unitaria, es a
través de un test en el que la hipótesis que se contrasta es el valor unitario del coeficiente
autorregresivo (φ ) a través del análisis de la nulidad de ( )1−φ .
En definitiva se trata de transformar (4.4) restando 1−tY :
ttttttt uYuYYYY +−=+−=− −−−− 1111 )1( φφ
que también se expresa como:
ttt uYY +=∆ −1δ (4.5)
Por tanto, en vez de estimar (4.4), obtenemos (4.5) y probamos la hipótesis (nula) de que δ
= 0, y la hipótesis alternativa es que δ < 0 (nota 25). Si δ = 0, entonces 1=φ ; es decir,
tenemos una raíz unitaria, lo cual significa que la serie de tiempo en consideración es no
estacionaria.
En este contraste de hipótesis el estadístico δσδτ =
no sigue la distribución t ni siquiera en
muestras grandes. Dickey y Fuller calcularon los valores críticos del estadístico τ con base
en simulaciones Monte Carlo. Por este motivo, en el estadístico o prueba tau se conoce
como prueba Dickey-Fuller (DF).
La hipótesis nula, Ho: no estacionariedad, se acepta si τ toma un valor situado a la derecha
del valor crítico correspondiente al nivel de significación establecido (los programas
proporcionan los valores críticos, que son negativos, para niveles de significación del 1%,
5% y 10%, siendo el 5% el más utilizado en la práctica) y se rechaza si toma un valor
menor que el valor crítico.
El modelo (4.5) puede incorporar un término constante y una tendencia, a través de un
índice temporal t (t=1,2,…T):
ttt uYtY +++=∆ −121 δββ
149
De hecho en la mayor parte del software informático sobre el test se permite elegir las
opciones de incorporar término constante sin tendencia, término constante y tendencia ó no
incorporar ninguno de ambos términos.
El test ADF, denominado test “aumentado” de Dickey y Fuller, consiste también en
contrastar la hipótesis de nulidad de pero en una relación “aumentada” con la inclusión de
valores retardados de la variable dependientetY∆ :
t
m
imtitt uYYtY ∑
=−− +∆+++=∆
1121 αδββ
Siendo ( )211 −−− −=∆ ttt YYY , ( )122 −−− −=∆ ttt YYY , etc…
Ejemplo 4.1
En la tabla Cantabria tenemos datos trimestrales del PIB de Cantabria en Índices de
Volumen y de ocupación en miles de ocupados, para el period 2005-2014 procedentes de la
Contabilidad Trimestral de Cantabria y de la EPA.
Vamos a realizar el test de Dikey-Fuller (DF) para ver el grado de integración de la serie del
PIB, para ello grabamos (install) y cargamos la librería “urca”.
En la tabla Cantabria tenemos datos trimestrales del PIB de Cantabria en Índices de
Volumen y de ocupación en miles de ocupados, para el period 2005-2014 procedentes de la
Contabilidad Trimestral de Cantabria y de la EPA.
> cantabria <- read.table(file="cantabria.txt",header=T,dec=",") > str(cantabria) 'data.frame': 38 obs. of 4 variables: $ año : int 2005 2005 2005 2005 2006 2006 2006 2006 2007 2007 ... $ Trimestre: int 1 2 3 4 1 2 3 4 1 2 ... $ PIB : num 92.5 93.3 93.8 93.9 95.3 95.9 96.7 97.5 98.3 98.8 ... $ Ocupados : num 233 238 248 246 248 ...
Se trata de comprobar la estacionariedad de la serie del PIB
> plot(ts(cantabria$PIB,frequency=4,start=2005))
150
Vamos a realizar el test de Dikey-Fuller (DF) para ver el grado de integración de la serie del
PIB, para ello grabamos (install) y cargamos la librería “urca”.
> library(urca)
Para realizar el test, vale esta sentencia (si no se especifican los retardos el test se realiza
con un retardo):
> pib.df <- ur.df(y=cantabria$PIB, type='none') > summary(pib.df) ############################################### ############################################### # Augmented Dickey-Fuller Test Unit Root Test # ############################################### Test regression none Call: lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag) Residuals: Min 1Q Median 3Q Max -1.7575 -0.4745 0.1939 0.5426 1.3763 Coefficients: Estimate Std. Error t value Pr(>|t|) z.lag.1 -0.0001002 0.0013083 -0.077 0.939 z.diff.lag 0.3311003 0.1606497 2.061 0.047 * --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 0.7518 on 34 degrees of freedom Multiple R-squared: 0.1112, Adjusted R-squared: 0.05888 F-statistic: 2.126 on 2 and 34 DF, p-value: 0.1349
151
Value of test-statistic is: -0.0766 Critical values for test statistics: 1pct 5pct 10pct tau1 -2.62 -1.95 -1.61
Se comprueba que la serie no es estacionaria, ya que el valor del estadístico (-0.0766), es
inferior al valor crítico (-1.95), lo que quiere decir que se acepta la hipótesis nula de no
estacionariedad. Repetimos el ejercicio, considerando tres retardos, deriva (drift) y
tendencia (trend):
> pib.df <- ur.df(y=cantabria$PIB, lags=3, type='drift') > summary(pib.df) ############################################### # Augmented Dickey-Fuller Test Unit Root Test # ############################################### Test regression drift Call: lm(formula = z.diff ~ z.lag.1 + 1 + z.diff.lag) Residuals: Min 1Q Median 3Q Max -1.32952 -0.41679 0.05446 0.47788 1.05791 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 9.65519 4.97144 1.942 0.06189 . z.lag.1 -0.10059 0.05183 -1.941 0.06208 . z.diff.lag1 0.28123 0.17392 1.617 0.11670 z.diff.lag2 0.55538 0.16358 3.395 0.00201 ** z.diff.lag3 -0.11551 0.18850 -0.613 0.54480 --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 0.6717 on 29 degrees of freedom Multiple R-squared: 0.3869, Adjusted R-squared: 0.3023 F-statistic: 4.575 on 4 and 29 DF, p-value: 0.005491 Value of test-statistic is: -1.9406 1.8868 Critical values for test statistics: 1pct 5pct 10pct tau2 -3.58 -2.93 -2.60 phi1 7.06 4.86 3.94
> pib.df <- ur.df(y=cantabria$PIB, lags=3, type='trend') > summary(pib.df) ############################################### # Augmented Dickey-Fuller Test Unit Root Test # ############################################### Test regression trend Call: lm(formula = z.diff ~ z.lag.1 + 1 + tt + z.diff.lag) Residuals: Min 1Q Median 3Q Max -1.0315 -0.4394 0.1123 0.3433 1.1701
152
Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 20.81894 5.96966 3.487 0.00163 ** z.lag.1 -0.20734 0.06002 -3.454 0.00178 ** tt -0.04575 0.01624 -2.818 0.00877 ** z.diff.lag1 0.19561 0.15915 1.229 0.22928 z.diff.lag2 0.44990 0.15163 2.967 0.00609 ** z.diff.lag3 -0.14243 0.16959 -0.840 0.40811 --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 0.6034 on 28 degrees of freedom Multiple R-squared: 0.5223, Adjusted R-squared: 0.437 F-statistic: 6.124 on 5 and 28 DF, p-value: 0.0005953 Value of test-statistic is: -3.4543 4.2059 6.3042 Critical values for test statistics: 1pct 5pct 10pct tau3 -4.15 -3.50 -3.18 phi2 7.02 5.13 4.31 phi3 9.31 6.73 5.61
La serie rechaza la hipótesis de estacionariedad en todos los casos.
Diferenciamos la serie, para ello utilizamos la función genérica de R “diff”:
> dPIB <- diff(cantabria$PIB,differences=1) > plot(ts(dPIB,frequency=4,start=2005))
Realizamos el test ADF con la serie diferenciada:
> dPIB.df <- ur.df(y=dPIB, type='none') > summary(dPIB.df)
153
############################################### # Augmented Dickey-Fuller Test Unit Root Test # ############################################### Test regression none Call: lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag) Residuals: Min 1Q Median 3Q Max -1.65584 -0.43986 0.06371 0.50584 1.16911 Coefficients: Estimate Std. Error t value Pr(>|t|) z.lag.1 -0.3896 0.1838 -2.120 0.0416 * z.diff.lag -0.4246 0.1573 -2.699 0.0109 * --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 0.6897 on 33 degrees of freedom Multiple R-squared: 0.4574, Adjusted R-squared: 0.4245 F-statistic: 13.91 on 2 and 33 DF, p-value: 4.162e-05 Value of test-statistic is: -2.1197 Critical values for test statistics: 1pct 5pct 10pct tau1 -2.62 -1.95 -1.61
La serie diferenciada del PIB rechaza la hipótesis nula de no estacionariedad, valor del
estadístico (-2.1197), está por encima del valor crítico (-1.95) incluso cuando incluimos
deriva y tendencia.
4.4. COINTEGRACIÓN
Se dice que dos o más series están cointegradas si las mismas se mueven conjuntamente a lo
largo del tiempo y las diferencias entre ellas son estables (es decir estacionarias), aún
cuando cada serie en particular contenga una tendencia estocástica14 y sea por lo tanto no
14 Una tendencia es determinista cuando:
tt ubtaY ++=
Si ahora se parte de un paseo aleatorio con deriva:
tttt uYYY +=∆=− − δ1
tY mostrará una tendencia positiva ( )1>δ o negativa ( )1<δ . Tal tendencia se llama tendencia
estocástica. El modelo:
ttt uYbtaY +++= −1δ c
ontiene tanto una tendencia estocástica como una tendencia determinista.
154
estacionaria. De aquí que la cointegración refleja la presencia de un equilibrio a largo plazo
hacia el cual converge la relación entre ambas variables a lo largo del tiempo.
Sea tX , tY dos series de tiempo I(1), Dado que las dos series comparten la misma
tendencia común, la regresión de una sobre la otra no será necesariamente espuria:
ttt uXbaY ˆˆˆ ++= (4.6)
Se calcula ttt XbaYu ˆˆˆ +−= y se verifica con la prueba de raíz unitaria que los residuos de
la regresión son I(0) o estacionarios (ver apartado 3.2).
En este caso la metodología tradicional de regresión es aplicable a las series de tiempo (no
estacionarias) y la regresión no es espúrea. En opinión de Granger: “Una prueba para la
cointegración puede considerarse como una pre-prueba para evitar las situaciones de
regresiones espurias”.
En el lenguaje de la teoría de la cointegración, una regresión como la planteada se conoce
como regresión cointegrante, y el parámetro de pendiente b como parámetro cointegrante.
En definitiva probar la cointegración entre dos series I(1) es igual que probar la
estacionariedad de los residuos. Para testar la cointegración sólo hay que estimar los
residuos del modelo de regresión y pasar la prueba de DF o DFA a los residuos estimados
( )tu . Si se cumple Ho entonces tX , tY están cointegradas y b es consistente.
Esta prueba de raíz unitaria DF o DFA sobre los residuos estimados a partir de la regresión
cointegrante se conoce como Prueba de Engle-Granger (EG) o prueba de Engle-Granger
Aumentada (EGA)
Sin embargo, debe tenerse en cuenta que tu se basa en el parámetro de cointegración
estimadob , y los valores críticos de la prueba DF y DFA no son del todo apropiados. Engle
y Granger calcularon estos valores que se incluyen los principales software econométricos.
Ejemplo 4.2
155
Se realiza ahora el test de Dikey-Fuller (DF) para la serie de Ocupados que se representa a
continuación:
> plot(ts(cantabria$Ocupados,frequency=4,start=2005))
> dOcup <- diff(cantabria$Ocupados,differences=1) > Ocup.df <- ur.df(y=cantabria$Ocupados, type='none') > summary(Ocup.df) Call: lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag) Residuals: Min 1Q Median 3Q Max -8.6618 -4.3752 -0.3451 4.9139 12.4019 Coefficients: Estimate Std. Error t value Pr(>|t|) z.lag.1 -0.001476 0.003856 -0.383 0.704 z.diff.lag 0.108089 0.170337 0.635 0.530 Residual standard error: 5.676 on 34 degrees of freedom Multiple R-squared: 0.01658, Adjusted R-squared: -0.04127 F-statistic: 0.2866 on 2 and 34 DF, p-value: 0.7526 Value of test-statistic is: -0.3828 Critical values for test statistics: 1pct 5pct 10pct tau1 -2.62 -1.95 -1.61 > dOcup.df <- ur.df(y=dOcup, type='none') > summary(dOcup.df)
156
############################################### # Augmented Dickey-Fuller Test Unit Root Test # ############################################### Test regression none Call: lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag) Residuals: Min 1Q Median 3Q Max -9.2258 -4.2283 -0.3936 2.9457 7.6578 Coefficients: Estimate Std. Error t value Pr(>|t|) z.lag.1 -1.3406 0.1951 -6.871 7.62e-08 *** z.diff.lag 0.4768 0.1494 3.191 0.0031 ** --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 4.852 on 33 degrees of freedom Multiple R-squared: 0.6036, Adjusted R-squared: 0.5796 F-statistic: 25.13 on 2 and 33 DF, p-value: 2.338e-07 Value of test-statistic is: -6.8709 Critical values for test statistics: 1pct 5pct 10pct tau1 -2.62 -1.95 -1.61
La serie temporal de Ocupados en Cantabria es integrada de orden 1, I(1). En consecuencia
la regresión MCO entre los Ocupados y el PIB de Cantabria, puede realizarse ya que ambas
series tienen el mismo orden de integración.
El test de EG requiere realizar la regresión mínimo cuadrática entre ocupados y PIB y
verificar que los residuos son I(0) es decir estacionarios.
> eq <- lm(cantabria$Ocupados~cantabria$PIB) > dres.df <- ur.df(y=eq$resid, type='none') > summary(dres.df) ############################################### # Augmented Dickey-Fuller Test Unit Root Test # ############################################### Test regression none Call: lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag) Residuals: Min 1Q Median 3Q Max -9.9445 -2.2775 0.0041 2.2536 9.3488
157
Coefficients: Estimate Std. Error t value Pr(>|t|) z.lag.1 -0.5039 0.1498 -3.363 0.00192 ** z.diff.lag 0.2797 0.1694 1.651 0.10786 --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 4.077 on 34 degrees of freedom Multiple R-squared: 0.2497, Adjusted R-squared: 0.2056 F-statistic: 5.658 on 2 and 34 DF, p-value: 0.007567 Value of test-statistic is: -3.3634 Critical values for test statistics: 1pct 5pct 10pct tau1 -2.62 -1.95 -1.61
Se comprueba que los residuos son estacionarios.
4.5. MECANISMO DE CORRECCIÓN DE
ERRORES(MCE)
Si tX , tY estan cointegradas, es decir, hay una relación de equilibrio de largo plazo entre
las dos, dado que en el corto plazo, puede haber desequilibrio, se puede utilizar el término
de error de la relación cointegrada para relacionar el comportamiento de corto plazo de tY
con su valor de largo plazo. El mecanismo de corrección de errores utilizado por primera
vez por Sargan y popularizado más tarde por Engle y Granger, corrige dicho desequilibrio.
Partimos del siguiente modelo:
tttot uXY εβββ ++∆+=∆ −121 ˆˆˆˆ (4.7)
donde tε es un término de error de ruido blanco y 1ˆ −tu es el valor del término de error de la
ecuación cointegrada (4.6) retrasada un periodo.
El modelo relaciona el cambio de tY con el cambio de tX y el “error equilibrador” en el
período anterior. tY∆ , recoge las perturbaciones de corto plazo de tX e 1ˆ −tu recoge el
ajuste hacia el equilibrio de largo plazo.
158
Ejercicio 4.3
Planteamos el siguiente modelo de corrección de error:
tto uPIBGC εβββ ++∆+=∆ −121 ˆ
En donde 1ˆ −tu son los residuos del MCO realizado en el Ejercicio 4.2.
> res_1 <- diff(eq$resid,lag=1) > eq2 <- lm(dOcup~dPIB+res_1) > summary(eq2) Call: lm(formula = dOcup ~ dPIB + res_1) Residuals: Min 1Q Median 3Q Max -3.373e-14 -6.780e-16 1.113e-15 2.549e-15 4.810e-15 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) -1.214e-15 1.036e-15 -1.172e+00 0.249 dPIB 5.047e+00 1.346e-15 3.750e+15 <2e-16 *** res_1 1.000e+00 2.316e-16 4.318e+15 <2e-16 *** --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 6.288e-15 on 34 degrees of freedom Multiple R-squared: 1, Adjusted R-squared: 1 F-statistic: 1.441e+31 on 2 and 34 DF, p-value: < 2.2e-16
4.6. PROBLEMAS
4.1. Genere con R dos paseos aleatorios (RW) utilizando el siguiente código R:
rw <- function(n) x=numeric(n) xdir=c(TRUE, FALSE) step=c(1,-1) for (i in 2:n) if (sample(xdir,1)) x[i]=x[i-1]+sample(step,1) else x[i]=x[i-1] list(x=x)
159
donde rw(n) sería un paseo aleatorio de “n” datos, diferencie las series obtenidas y realice
la regresión de una sobre otra, calcula el coeficiente de determinación y el estadístico de
Durbin-Watson.. Analice los resultados obtenidos.
4.2. Genere con R un nuevo RW y obtenga el estadístico DFA. Diferencie la serie y repita
el proceso. Analice los resultados obtenidos.
4.3. Considere la siguiente regresión :
ttt eXX +−=∆ −18.02
Siendo el error estandar de la constante , 0.5, y el de la pendiente, 0.3, tomando como valor
critico en las en las tablas del estadístico DFA a 5% 95.2−=τ y a 10% 60.2−=τ ,
responda:
a) La serie tX es ¿estacionaria?.
b) Con el 10 % de significación cabe afirmar que el orden de integración de la serie
es I(1).
4.4. La serie del PIB de un pais es I(2) y la del empleo I(1):
a) Plantee una relación de regresión entre el PIB y el Empleo
b) Indique que orden de integración espera que hayan de tener los residuos obtenidos.
4.5. En la librería “forecast” de R, se encuentra una base de datos en formato de serie
temporal, “gas”, que recoge la producción australiana de gas durante mes a mes durante los
años de 1956 a 1996. Estudie la estacionariedad de la serie en R a través del estadistico de
Dikey-Fuller.
SOLUCIONES:
4.1 A realizar por el alumno
4.2 A realizar por el alumno
4.3
a) No estacionaria al 5% y estacionaria al 10%.
b) Falso.
4.4
a) ttt ubEmpleoaPIB ++=∆
b) Los residuos serán I(0)
160
4.5 A realizar por el alumno
161
5. MODELOS VAR
5.1. INTRODUCCIÓN El enfoque estructural aplicado a los modelos de series temporales (modelos de ecuaciones
sumultaneas) utiliza conceptos de teoría económica para representar relaciones entre distintas
variables. Sin embargo, a veces la teoría económica no es capaz de ofrecer una especificación
dinámica que identifique todas estas relaciones. Ello obliga al investigador a especificar a priori,
y en muchas ocasiones de forma subjetiva, cuál o cuáles deben ser las variables exógenas del
modelo y en qué ecuaciones deben aparecer, lo que puede afectar a los resultados de la
identificación del modelo y conducir a estimaciones y relaciones entre variables incorrectas.
Por ello, en 1980, Sims realiza una fuerte crítica hacia la especificación de modelos
estructurales de ecuaciones simultáneas, proponiendo, frente a la arbitrariedad que supone la
especificación de los modelos estructurales, una nueva metodología: la metodología VAR
(Vectores Autorregresivos), en la que no se impone una decisión acerca de qué variables deben
ser tratadas como exógenas. Según Sims, si existe verdadera simultaneidad entre un conjunto de
variables, todas deben ser tratadas del mismo modo; en este sentido, la metodología VAR
rompe con el principio de causalidad, al no existir una distinción previa a la estimación entre
variables exógenas y endógenas.
La metodología VAR se ha utilizado principalmente en el campo de los modelos
macroeconómicos, en el que los modelos estructurales de múltiples ecuaciones desarrollados en
los años 50 y 60 no resultaban todo lo satisfactorios que los investigadores deseaban. La
superior capacidad predictiva de los modelos basados en la metodología de Sims frente a estos
modelos, muchos de ellos compuestos por cientos de ecuaciones lo que suponía un enorme
coste computacional, parecía indicar que existía un problema en la metodología de los modelos
de ecuaciones simultáneas.
El punto álgido en el declive de los modelos de ecuaciones simultáneas se alcanzó en los años
70 con las elevadas tasas de inflación y desempleo registradas en ese periodo y que no pudieron
ser previstas mediante los modelos de tipo keynesiano. En ese momento comenzaron a aparecer
las primeras críticas contra el enfoque de los modelos estructurales con múltiples ecuaciones. La
primera de ellas la realizó Lucas en 1976, argumentando que los parámetros de las reglas de
162
decisión incorporadas en los modelos de ecuaciones estructurales no permanecen estables a lo
largo del tiempo cuando las reglas de política económica varían. Este ataque a los modelos
estructurales condujo a los investigadores a utilizar sistemas de ecuaciones menos estructurados
para realizar previsiones de las variables macroeconómicas y delinear los efectos de los cambios
en la política monetaria y de shocks externos sobre la economía, como son los modelos VAR
que pasamos a ver seguidamente.
5.2. MODELOS VAR
5.2.1. Definición Un modelo de Vectores Autorregresivos (VAR) se define como una descripción estadística de
las interrelaciones existentes entre un conjunto de diferentes variables en la que no se hace uso
de ninguna teoría económica previa acerca de cómo se espera que dichas variables se relacionen
entre sí. Por tanto, los modelos VAR no pueden ser utilizados para validar ninguna teoría, no
pudiendo tampoco utilizarse para interpretar los datos en términos de principios económicos
generales.
El uso de modelos VAR queda así restringido básicamente a dos campos que serán analizados
en detalle más adelante: por un lado, a la predicción de los valores futuros de un conjunto de
variables que aparecen interrelacionadas en el sistema; y por otro, al análisis del efecto a lo
largo del tiempo, sobre cada una de las variables del sistema, de perturbaciones aleatorias o
shocks producidos en el tiempo.
El enfoque VAR elimina por tanto la necesidad de especificar un modelo estructural mediante la
representación de cada variable endógena del sistema como una función de sus propios valores
retardados así como de los retardos de todas las variables endógenas presentes en el sistema.
La representación genérica de un VAR de orden p es la siguiente:
ktpktpkkktkkktkkptpktktkkkt
tpktpkktkktkptpttt
tpktpkktkktkptpttt
yyyyyyy
yyyyyyy
yyyyyyy
εφφφφφφµ
εφφφφφφµεφφφφφφµ
++++++++++=
++++++++++=
++++++++++=
−−−−−−
−−−−−−
−−−−−−
,22,11,1,1212,1111,1
2,222,211,21,21212,21111,2122
1,122,111,11,11212,11111,1111
.........
...
.........
.........
(5.1)
163
Donde:
pij ,φ es el parámetro a estimar, en el que i es el número de ecuación en el que aparece, j
es el número de variable al que está asociado y p representa el retardo de la variable a la
que está asociado el parámetro. El valor máximo de p es lo que se denomina orden del
VAR, el cual también puede ser estimado como veremos más adelante.
yit–p son las variables incluidas en el modelo, donde i y p poseen el mismo significado
que acabamos de señalar.
ktε es el término de error o perturbación de la ecuación k, el cual posee media cero y
matriz de varianzas y covarianzas triangular de la forma:
==Σ
2
22
21
0
00
000
)'·[
k
ktktE
σ
σσ
εεO
El sistema (5.1) se expresa de forma matricial :
tptpttt yyyy εµ +Φ++Φ+Φ+= −−− ...2211 (5.2)
donde yt es un vector compuesto por las variables sin retardar, µ es un vector de términos
constantes, iφ son matrices de coeficientes asociados a las variables retardadas i periodos y εt es
un vector de ruidos que pueden estar correlacionados contemporáneamente pero que están
incorrelacionados con sus retardos y con todas las variables que aparecen a la derecha de la
igualdad.
164
Las matrices yt, µ y εt son vectores de orden k×1, mientras que iΦ es una matriz de orden k×k
tal que:
=
kt
t
t
t
y
y
y
y...2
1
;
=
kµ
µµ
µ...
2
1
;
=Φ
ikkikik
ikii
ikii
i
,,2,1
,2,22,21
,1,12,11
....
............
...
...
φφφ
φφφφφφ
;
=
−
−
−
−
ikt
it
it
it
y
y
y
y...2
1
;
=
kt
t
t
t
ε
εε
ε...2
1
Por tanto, a la hora de estimar los parámetros de un modelo VAR deberemos estimar k
parámetros constantes, más p×k×k parámetros correspondientes a las variables explicativas del
modelo.
En los modelos VAR también cabe la posibilidad de que aparezcan variables explicativas, que
denotaremos por xt, que no sean retardos de las variables dependientes de tal forma que la
expresión (5.2) pasaría a ser:
ttptpttt xyyyy εβµ ++Φ++Φ+Φ+= −−− ...2211
Siendo:
=
ikkikik
ikii
ikii
,,2,1
,2,22,21
,1,12,11
....
............
...
...
βββ
ββββββ
β ; ( )ktttt xxxx ...21=
Donde β es una matriz de orden k×k y xt es un vector fila de orden 1× k.
Veamos a continuación un ejemplo concreto de aplicación de un modelo VAR; supongamos que
la renta, Y, y la oferta de dinero, M, vienen determinados conjuntamente por un modelo VAR
con término constante. Si imponemos que el orden de retardos máximo de los regresores es 2,
tendríamos que:
165
tttttt
tttttt
MMYYM
MMYYY
222,2211,2222,2111,212
122,1211,1222,1111,111
εφφφφµεφφφφµ+++++=
+++++=
−−−−
−−−−
donde pij ,φ son los parámetros a estimar.
Otra forma de expresar un modelo VAR es mediante la notación en retardos que veíamos en el
capítulo 3. Así, el modelo de la expresión 5.2. puede escribirse como:
ttp
p yBBBI εµ +=Φ−−Φ−Φ− )...( 221
ttyB εµ +=Φ )·( (5.3)
Dicho modelo VAR será estacionario si y solo si se verifica que los autovalores del polinomio
de retardos caen fuera del círculo unidad:
1 ,0...221 >∀=Φ−−Φ−Φ− BBBBI p
p (5.4)
Si el modelo VAR verifica la condición de estacionariedad, entonces es posible escribir el
modelo autorregresivo como un Vector de Medias Móviles (VMA) de orden infinito tal que:
...)( ,)·(... 2212211 +Ψ+Ψ+=ΨΨ+=+Ψ+Ψ++= −− BBIBBy ttttt εµεεεµ
Esta representación del modelo (10.2.) será clave para comprender la función de respuesta al
impulso que veremos más adelante.
El cálculo de los parámetros Ψ puede realizarse a partir de la siguiente expresión:
[ ] 1)()( −Φ=Ψ BB
Lo que exige que se verifique:
IBBIBBBI pp =+Ψ+Ψ+Φ−−Φ−Φ− ...))(...( 2
212
21
El desarrollo de esta expresión permite obtener las ecuaciones que relacionan los parámetros Φ
y Ψ del modelo tal que:
166
... ,2 ,1 ,...2211
2112
11
=∀ΨΦ++ΨΦ+ΨΦ=Ψ
Φ+ΨΦ=ΨΦ=Ψ
−−− spspsss
LLLLLLLL
Siendo I=Ψ0 y 0 ,0 <∀=Ψ ss .
Si el modelo no verificara la condición (5.4) será necesario proceder como en el caso de los
modelos univariantes, tomando las diferencias suficientes sobre las variables para hacerlas
estacionarias.
5.2.2. Estimación Dado que los valores retardados de las variables sólo aparecen como regresores y no como
variables dependientes, no existen problemas de simultaneidad en el modelo por lo que las
estimaciones obtenidas para los coeficientes aplicando Mínimos Cuadrados Ordinarios a cada
ecuación serán consistentes; asimismo, la matriz de varianzas y covarianzas de las
perturbaciones puede ser estimada utilizando el sumatorio de cuadrados y productos cruzados de
los residuos mínimo-cuadráticos. Si además las perturbaciones se ajustan a una distribución
Normal, entonces los estimadores obtenidos coincidirán con los obtenidos por el método de
Máxima Verosimilitud.
Sin embargo, previamente a la estimación del modelo, debemos decidir el número óptimo de
retardos, p, esto es, el orden del VAR. Antes de presentar el procedimiento para calcular p cabe
tener en cuenta la siguiente advertencia: la inclusión de muchos retardos en el modelo reduce en
gran medida el número de observaciones disponibles, disminuye el número de grados de
libertad a la hora de realizar contrastes y aumenta el riesgo de aparición de multicolinealidad;
por su parte, la inclusión de pocos retardos en el modelo provocará seguramente errores de
especificación.
Una forma de decidir sobre el orden del modelo es examinar los criterios información. Los más
utilizados en este tipo de modelos son los de Akaike (AIC) , Schwarz (SIC ó SC) y el de
Hannan-Quin (HQ):
T
n
TAIC 2
2 +−= l
T
nT
TSC
)ln(2
2 +−= l
167
T
Tk
THQ
))ln(ln(2
2 +−= l
Siendo Σ+−−= ˆln22
)2log(2
TTkTki πl , d es el número de variables exógenas, p el orden
del VAR, k el número de variables y )( pkdkn += el número deparámetros estimados en el
modelo VAR y Σ el determinante de la matriz de varianzas y covarianzas asociada con el
modelo VAR ( )∑ −−=∑
T
t ttuuT1
'1 ˆˆˆ .
No obstante, existe un contraste más formal para seleccionar el orden del VAR basado en el
contraste de razón de verosimilitudes. Supongamos que estimamos un VAR de orden p1 y
queremos contrastar la hipótesis nula de que el orden del VAR es p0, siendo p1 > p0. Es decir, se
trata de contrastar H0: VAR(p0) frente a H1: VAR(p1). El procedimiento para realizar el contraste
es el siguiente:
− Se estima el modelo VAR bajo cada uno de los supuestos de las hipótesis a contrastar.
− Calculamos el siguiente estadístico de razón de verosimilitudes:
( ) ( ) ( ) ( )[ ] 2101 ~ˆlnˆln2 qoMV ppkT χλ ∑−∑−=−= ll
Siendo )(ˆln22
)2log(2 ii p
TTkTk Σ+−−= πl el máximo del logaritmo de la función
de verosimilitud del VAR, donde k es y )(ˆ ipΣ es el determinante de la matriz de
varianzas y covarianzas asociada con el modelo VAR de orden pi.
El estadístico MVλ sigue una distribución 2χ con q grados de libertad, siendo q el
número de restricciones impuestas en la hipótesis nula. Por ejemplo, si en un VAR con
dos variables pretendemos contrastar la presencia de tres retardos frente a cinco
retardos, estaremos excluyendo cuatro variables en cada una de las ecuaciones del VAR,
si suponemos que la hipótesis nula es cierta, en relación al número de variables que se
considera bajo la hipótesis alternativa por lo que q será igual a 4 · 2 = 8, y en general, q
= k2(p1 – p0).
El contraste de razón de verosimilitudes que acabamos de presentar permite la realización de
pruebas secuenciales que permiten determinar el orden del VAR con bastante exactitud. El
168
investigador puede así, comenzar especificando un orden elevado para el modelo, por ejemplo
p1 = 15, e ir realizando contrastes sucesivos en los que se van reduciendo progresivamente los
órdenes comparados hasta que el valor del estadístico supere por primera vez al valor en tablas
de la distribución 2χ , momento en el que se rechazará la hipótesis nula del contraste y
habremos determinado el orden del VAR, que será el último valor asignado a p1.
5.2.3. Predicción y Función de Respuesta al Impulso Como comentábamos al principio del capítulo, la utilización de modelos VAR se dirige
fundamentalmente a la realización de predicciones, especialmente a corto plazo, así como al
análisis del efecto a lo largo del tiempo, sobre cada una de las variables del sistema, de un shock
inesperado. Pasamos a continuación a examinar estos dos puntos en detalle.
Por un lado, la realización de predicciones es análoga a la que veíamos en el capítulo 3. Así,
supongamos el caso de un VAR(1) mediante el que pretendemos realizar predicciones uno o
varios periodos hacia delante. Así, la predicción óptima para yt+1 será la esperanza condicional
de yt+1 en el periodo t tal que:
yyyyyEy tttt ·),...,,|(ˆ 1111 Φ== −++ (5.5)
Donde para simplificar hemos suprimido el término constante del modelo. Si deseáramos
obtener la predicción óptima para yt+2 bastaría con aplicar de forma recursiva el resultado
obtenido en (5.5) tal que:
yyyyyyEy tttt2
1122 )(),...,,|(ˆ Φ=ΦΦ== +++
Generalizando el resultado anterior tenemos que:
yy sst Φ=+ˆ
169
Con vector de errores de predicción para s periodos hacia delante:
11
1 ...ˆ +−
−++++ Φ++Φ+=−= ts
ststststs yye εεε
De manera análoga podríamos obtener expresiones para modelos VAR de orden superior y
sustituyendo las expresiones que aparecen por sus valores estimados.
En la práctica, la obtención de predicciones en un modelo VAR resulta tan sencilla como
sustituir en el modelo los valores muestrales contemporáneos y retardados de que dispongamos
y obtengamos el valor de las variables en el periodo siguiente.
Por su parte, la obtención de funciones de respuesta al impulso permite conocer el efecto que
tendrá a lo largo del tiempo un shock inesperado sobre las variables del sistema. Recordemos
que si el modelo VAR es estacionario entonces es posible expresarlo como un VMA de orden
infinito tal que:
...)·( 2211 +Ψ+Ψ++=Ψ+= −− ttttt By εεεµεµ
Si reescribimos el modelo considerando como último periodo t+s tenemos que:
...... 112211 +Ψ+Ψ++Ψ+Ψ++= −+−+−+++ tstsststststy εεεεεµ (5.6)
Cada elemento ij de la matriz sΨ de la expresión (5.6) puede interpretarse como el efecto que
tendría un aumento de una unidad en la innovación j sobre el valor de la variable i en el
momento t+s, manteniendo el resto de innovaciones constantes en todos los periodos, tal que:
st
styΨ=
∂∂ +
ε
Es decir, si se produce una variación de δ unidades en alguna de las innovaciones del modelo
tendremos que:
170
δε s
t
styΨ=
∂∂ +
A la representación gráfica del efecto que produce sobre las variables del modelo una variación
en una de las perturbaciones se la conoce como función de respuesta al impulso.
Para calcular la función de respuesta al impulso, suponiendo que especificamos el siguiente
modelo VAR de orden 1 en desviaciones respecto a la media:
tttt
tttt
yyy
yyy
2121,22111,212
1121,12111,111
εφφεφφ
++=++=
−−
−−
Y donde la estimación que se ha obtenido para los parámetros del modelo es:
+
=
−
−
t
t
t
t
t
t
y
y
y
y
2
1
12
11
2
1 ·5.02.0
1.04.0
εε
Supongamos que se produce un shock inesperado en la perturbación asociada a y2t, aumentando
en una unidad; en el instante en que se produce dicho shock no afecta por el momento a y1t. Pero
en el siguiente periodo, el shock que se produjo en el momento t afectará tanto a y1t+1 como a
y2t+1 a través del efecto que se ha producido en y2t. Así, en el momento en que se produce un
efecto inesperado en alguna de las variables se produce una reacción en cadena a lo largo del
tiempo en todas las variables del VAR.
La transmisión del shock a lo largo del tiempo se producirá de la siguiente manera:
171
10
20
11
21
12 11
22 21
13
23
0
1
0.4 0.1 0 0.10·
0.2 0.5 1 0.50
0.4 0.1 0.4 0.1 0.10 0.09· ·
0.2 0.5 0.2 0.5 0.50 0.27
0.4 0.1
0.2 0.5
y
y
y
y
y y
y y
y
y
=
= =
= = =
=
12
22
1314
24 23
15 14
25 24
0.4 0.1 0.09 0.06· ·
0.2 0.5 0.27 0.15
0.4 0.1 0.4 0.1 0.06 0.04· ·
0.2 0.5 0.2 0.5 0.15 0.09
0.4 0.1·
0.2 0.5
y
y
yy
y y
y y
y y
= =
= = =
= =
0.4 0.1 0.04 0.03·
0.2 0.5 0.09 0.05
=
Los resultados obtenidos se resumen en la siguiente tabla:
Periodo y1 y2
0 0 1
1 0.10 0.50
2 0.09 0.27
3 0.06 0.15
4 0.04 0.09
5 0.03 0.05
Finalmente, representamos gráficamente la función de respuesta al impulso:
172
Función de Respuesta al Impulso
0
0.2
0.4
0.6
0.8
1
1.2
0 1 2 3 4 5
Periodo
y1
y2
Figura 5.1.Función respuesta al impulso .
Sin embargo, en la práctica normalmente no se producen shocks de forma aislada en una sola
variable sino que dichos shocks suelen producirse de forma simultánea (por ejemplo, no tendría
sentido pensar que se produce un shock en el consumo y simultáneamente no se produce un
shock en la renta). En este caso la obtención de la función de respuesta al impulso resulta poco
menos que imposible por lo que se suele adoptar como solución la transformación de los
términos de error del modelo en un nuevo conjunto de errores ortogonales, los cuales no están
correlacionados entre sí y poseen varianzas unitarias.
Retomando la expresión del VAR como un VMA de orden infinito tenemos que:
Iyi
itit =ΨΨ+= ∑∞
=− 0
0
,εµ
Sea Σ la matriz de varianzas y covarianzas del término de error del modelo; y sea P una matriz
no singular tal que IPP =Σ ' . Multiplicando el sumatorio de la expresión 10.22 por PP 1− queda
que:
∑∞
=−
−Ψ+=0
1
iitit PPy εµ
Si llamamos 1−Ψ= PM ii y iti Pw −= ε tenemos que:
173
∑∞
=
+=0i
iit wMy µ
Calculando la esperanza matemática del nuevo término de error, wi, se tiene que:
( ) ( ) ( ) IPPPPEPPEwwE tttttt =Σ=== ''' ''' εεεε
Lo que implica que los componentes del término de error transformado, wt, no están
correlacionados y que poseen varianza unitaria.
El resultado anterior implica que la función de respuesta al impulso pasa a ser ahora:
1−+ Ψ==∂∂
PMw
yss
t
st
Sin embargo, la solución al problema que aparece cuando pretendemos calcular la función de
respuesta al impulso con más de shock simultáneo en las perturbaciones presenta consecuencias
indeseables puesto que no existe una matriz P única. Ello provoca que los resultados numéricos
obtenidos no sean interpretables económicamente, debiéndonos limitar a darles una
interpretación de tipo cualitativo.
5.3. VAR ESTRUCTURAL Hasta el momento hemos considerado a los modelos VAR como un modelo completamente
ateórico y sin restricciones. Sin embargo, los modelos VAR pueden ser entendidos como la
expresión de un modelo económico estructural en forma reducida, lo que permite reconciliar la
utilización de modelos VAR con el enfoque de modelos estructurales (modelos de ecuaciones
simultáneas). La utilización de los modelos VAR en estos casos sí posee fundamento teórico
pues el investigador comienza elaborando un modelo basado en la teoría económica, a partir del
cual obtendrá su forma reducida, que tendrá la forma de un VAR.
Sin embargo, ¿es posible recuperar los parámetros de la forma estructural del modelo a partir de
la forma reducida? El siguiente ejemplo responde a esta cuestión: supongamos que el
investigador especifica y estima el siguiente modelo estructural de orden 1:
174
ttttt
ttttt
yyyy
yyyy
2121,22111,2112122
1121,12111,1121211
εφφγµεφφγµ
+++−=+++−=
−−
−− (5.7)
Que consta de 10 parámetros (8 coeficientes más 2 varianzas de los términos de error) que
debemos estimar.
Dado que un modelo VAR es una función de los valores retardados de las variables que lo
componen exclusivamente. Si reordenamos el modelo (5.7) y lo expresamos en forma matricial
tenemos que:
+
+
=
−
−
t
t
t
t
t
t
y
y
y
y
2
1
12
11
1,221,21
1,121,11
2
1
2
1
21
12 ·1
1
εε
φφφφ
µµ
γγ
(5.8)
ttt yy εµ +Φ+=Γ −1
Premultiplicando (5.8) por 1−Γ podemos obtener la expresión de la forma reducida del modelo
VAR tal que:
*1
11
11 ** ttttt yyy εµεµ +Φ+=Γ+ΦΓ+Γ= −−
−−− (5.9)
El modelo (5.9) es la forma reducida del modelo estructural que especificamos en (5.7) y que
puede ser estimado aplicando MCO a cada ecuación del modelo. Sin embargo, la estimación de
los parámetros del modelo (5.9) no nos va a permitir recuperar el valor de los parámetros del
modelo estructural, ya que ahora sólo disponemos de 9 parámetros (coeficientes+varianzas y
covarianza de los errores); es decir, la forma reducida de un modelo VAR estructural siempre
está subidentificada
Sin embargo, si imponemos alguna restricción en los parámetros del VAR estructural, la forma
reducida pasará a estar exactamente identificada. Así, si en el modelo (5.7) hacemos 021 =γ
queda que:
175
+
+
=
−
−
t
t
t
t
t
t
y
y
y
y
2
1
12
11
1,221,21
1,121,11
2
1
2
112 ·10
1
εε
φφφφ
µµγ
Premultiplicando el modelo estructural por la inversa de la matriz
10
1 12γ tenemos que:
+
+
=
−
−
−−−
t
t
t
t
t
t
y
y
y
y
2
11
12
12
11
1,221,21
1,121,111
12
2
11
12
2
1
10
1·
10
1
10
1
εεγ
φφφφγ
µµγ
+
+
=
−
−
*
*·
*
*
2
1
12
11*4
*3
*2
*1
2
1
2
1
t
t
t
t
t
t
y
y
y
y
εε
φφφφ
µµ
A partir de la expresión anterior ahora sí es posible recuperar los parámetros del modelo
estructural tal que:
21221
22
2212
21
1,22*4
1,22121,12*3
1,21*2
1,21121,11*1
22
21211
2
2
21
*)*,(
*)(
*)(
*
*
t
t
tt
tt
t
t
Cov
Var
Var
ε
ε
εε
σγεε
σε
σγσε
φφ
φγφφ
φφ
φγφφ
µµµγµµ
−=
=
+=
=
−=
=
−=
=−=
⇒
*)(*)*,(
*)(*)·*,(
*)(
*)(*)(
*)*,(*)(
*)(
*)*,(
*)(
*)*,(
*
**)(
*)*,(*
*)(
*)*,(
221
221
2
22
2
2
2
211
2
*41,22
*21,21
*4
2
21*31,12
*2
2
21*11,11
22
22
2111
2
2112
2
2
1
ttt
ttt
t
tt
ttt
t
tt
t
tt
t
tt
t
tt
VarCov
VarCov
Var
VarVar
CovVar
Var
Cov
Var
Cov
Var
Cov
Var
Cov
t
t
t
εεε
εεεσ
εσ
εε
εεεσ
φφ
φφ
φε
εεφφ
φε
εεφφ
µµ
µε
εεµµ
εεεγ
ε
ε
ε
==
=
−=
=
=
−=
−=
=
−=
−=
176
5.4. EJEMPLO DE ESTIMACION DE UN MODELO VAR
CON R.
Se va a estimar un modelo VAR con datos relativos al mercado de trabajo de Canadá, tomado
de Breitung, Bruggemann, and Lutkepohl (2004). Se utilizan las siguientes series: productividad
del trabajo, definida como la diferencia entre el logaritmo del PIB y el logaritmo del empleo;
empleo, medido en logaritmo, tasas de desempleo; y salarios reales definido como el logaritmos
del índice de evolución de los salarios reales. En la base de datos se denominan, “prod”, “e”,
“U” y “rw”, respectivamente. Los datos procede de la base de datos de la OCDE y cubren el
periodo comprendido entre el primer trimestre de 1980 y cuarto trimestre de 2004 (Pfaff, 2008).
P realizar el ejercicio hay que cargar el “package” o la librería R : “vars”.
> library("vars")
> data("Canada")
> summary(Canada)
e prod rw Min. :928.6 Min. :401.3 Min. :386.1 1st Qu.:935.4 1st Qu.:404.8 1st Qu.:423.9 Median :946.0 Median :406.5 Median :444.4 Mean :944.3 Mean :407.8 Mean :440.8 3rd Qu.:950.0 3rd Qu.:410.7 3rd Qu.:461.1 Max. :961.8 Max. :418.0 Max. :470.0 U Min. : 6.700 1st Qu.: 7.782 Median : 9.450 Mean : 9.321 3rd Qu.:10.607 Max. :12.770 La representación gráfica de las series realizada en R:
> plot(Canada, nc = 2, xlab = "")
177
Figura 5.2. Productividad, empleo, desempleo y salarios reales en Canada.
En primer lugar se realizó el test ADF a las series para conocer su orden de integración.
> adf1 <- summary(ur.df(Canada[, "prod"], type = "trend", lags = 2)) > adf1 ############################################### # Augmented Dickey-Fuller Test Unit Root Test # ############################################### Test regression trend Call: lm(formula = z.diff ~ z.lag.1 + 1 + tt + z.diff.lag) Residuals: Min 1Q Median 3Q Max -2.19924 -0.38994 0.04294 0.41914 1.71660 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 30.415228 15.309403 1.987 0.0506 . z.lag.1 -0.075791 0.038134 -1.988 0.0505 . tt 0.013896 0.006422 2.164 0.0336 * z.diff.lag1 0.284866 0.114359 2.491 0.0149 * z.diff.lag2 0.080019 0.116090 0.689 0.4927 --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 0.6851 on 76 degrees of freedom Multiple R-squared: 0.1354, Adjusted R-squared: 0.08993 F-statistic: 2.976 on 4 and 76 DF, p-value: 0.02438 Value of test-statistic is: -1.9875 2.3 2.3817
178
Critical values for test statistics: 1pct 5pct 10pct tau3 -4.04 -3.45 -3.15 phi2 6.50 4.88 4.16 phi3 8.73 6.49 5.47 > adf2 <- summary(ur.df(diff(Canada[, "prod"]), type = "drift",lags = 1)) > adf2 ############################################### # Augmented Dickey-Fuller Test Unit Root Test # ############################################### Test regression drift Call: lm(formula = z.diff ~ z.lag.1 + 1 + z.diff.lag) Residuals: Min 1Q Median 3Q Max -2.05124 -0.39530 0.07819 0.41109 1.75129 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 0.11534 0.08029 1.437 0.155 z.lag.1 -0.68893 0.13350 -5.160 1.83e-06 *** z.diff.lag -0.04274 0.11275 -0.379 0.706 --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 0.6971 on 78 degrees of freedom Multiple R-squared: 0.3615, Adjusted R-squared: 0.3451 F-statistic: 22.08 on 2 and 78 DF, p-value: 2.526e-08 Value of test-statistic is: -5.1604 13.3184 Critical values for test statistics: 1pct 5pct 10pct tau2 -3.51 -2.89 -2.58 phi1 6.70 4.71 3.86 Los resultados obtenidos figuran en la Tabla siguente:
Tabla 5.1.- Resultados del test ADF (Package Vars).
179
Se observa que son I(1) las primeras diferencias de “prod”, “e”, “rw” y la serie original “U”.
A continuación con la función “VARselect” buscan el modelo VAR óptimo partiendo de un
número máximo de 8 desfases. La función utiliza los criterios de información AIC, HQ, SC y
FPE15..
> VARselect(Canada, lag.max = 8, type = "both") $selection AIC(n) HQ(n) SC(n) FPE(n) 3 2 1 3 $criteria 1 2 3 4 AIC(n) -6.272579064 -6.636669705 -6.771176872 -6.634609210 HQ(n) -5.978429449 -6.146420347 -6.084827770 -5.752160366 SC(n) -5.536558009 -5.409967947 -5.053794411 -4.426546046 FPE(n) 0.001889842 0.001319462 0.001166019 0.001363175 5 6 7 8 AIC(n) -6.398132246 -6.307704843 -6.070727259 -6.06159685 HQ(n) -5.319583658 -5.033056512 -4.599979185 -4.39474903 SC(n) -3.699388378 -3.118280272 -2.390621985 -1.89081087 FPE(n) 0.001782055 0.002044202 0.002768551 0.00306012 De acuerdo con el AIC y FPE el numero optimo de retardos es 3, el criterio HQ sería 2 y según el SC sería 1. La estimación en R de un VAR con 1=p , se realiza con la siguente sentencia: > Canada <- Canada[, c("prod", "e", "U", "rw")] > p1ct <- VAR(Canada, p = 1, type = "both") > p1ct VAR Estimation Results: ======================= Estimated coefficients for equation prod: ========================================= Call: prod = prod.l1 + e.l1 + U.l1 + rw.l1 + const + trend prod.l1 e.l1 U.l1 rw.l1 const 0.96313671 0.01291155 0.21108918 -0.03909399 16.24340747 trend 0.04613085 Estimated coefficients for equation e: ====================================== Call: e = prod.l1 + e.l1 + U.l1 + rw.l1 + const + trend prod.l1 e.l1 U.l1 rw.l1 0.19465028 1.23892283 0.62301475 -0.06776277 const trend -278.76121138 -0.04066045
15
∑
−+=≤ ˆ)(
*
* K
nT
nTftnFPE
Siendo ∑ −−=∑
T
t ttuuT1
'1 ˆˆˆ , *n el número de parámetros en cada ecuación y nel orden de los retardos.
180
Estimated coefficients for equation U: ====================================== Call: U = prod.l1 + e.l1 + U.l1 + rw.l1 + const + trend prod.l1 e.l1 U.l1 rw.l1 -0.12319201 -0.24844234 0.39158002 0.06580819 const trend 259.98200967 0.03451663 Estimated coefficients for equation rw: ======================================= Call: rw = prod.l1 + e.l1 + U.l1 + rw.l1 + const + trend prod.l1 e.l1 U.l1 rw.l1 -0.22308744 -0.05104397 -0.36863956 0.94890946 const trend 163.02453066 0.07142229 El resultado gráfico para el logaritmo del empleo se obtiene: > plot(p1ct, names = "e")
Figura 5.2. Estimación y residuos del modelo VAR para el empleo de Canada.
181
5.5. PROBLEMAS
5.1. Comente las diferencias existentes entre los tres métodos de predicción económica que se
han visto hasta el momento: modelos de ecuaciones simultáneas, modelos univariantes de series
temporales y modelos VAR.
5.2. ¿En qué sentido es ateórico un modelo VAR?
5.3. Suponga que se ha estimado el siguiente modelo VAR de orden 3:
+
=
−
−
−
t
t
t
t
t
t
t
t
t
y
y
y
y
y
y
3
2
1
13
12
11
3
2
1
·
3.01.04.0
05.03.05.0
2.01.03.0
εεε
Calcule y represente gráficamente la función de respuesta al impulso cuando se produce
un shock de 7 unidades en t2ε .
5.4. Realice predicciones 3 periodos hacia delante con el siguiente VAR de orden 2:
1 1 1 2 1 1
2 1 1 2 2 2
0.5 0.1
0.3 0.5t t t t
t t t t
y y y
y y y
εε
− −
− −
= + += + +
Para ello, utilice la siguiente información muestral:
Periodo y1 y2
1 5 8
2 6 4
3 4 3
4 8 2
5 3 6
182
SOLUCIONES
5.1. A realizar por el lector
5.2. A realizar por el lector
5.3. Los primeros valores de la función de respuesta al impulso se presentan en la siguiente
tabla:
Periodo y1 y2 y3
0 0 7 0
1 0.7 2.1 0.7
2 0.56 1.02 0.7
3 0.41 0.62 0.54
4 0.29 0.42 0.39
5 0.21 0.29 0.27
5.4.
Prev. y1t y2t
T+1
T+2
T+3
4.6
2.5
1.7
1.9
4.4
1.7
183
6. REGRESIÓN EN EL DOMINIO DE LA FRECUENCIA
6.1. INTRODUCCIÓN
Nerlove (1964) y Granger (1969) fueron los primeros investigadores en aplicar el Análisis
espectral a las series de tiempo en economía. El uso del análisis espectral requiere un cambio en
el modo de ver las series económicas, al pasar de la perspectiva del tiempo al dominio de la
frecuencia. El análisis espectral parte de la suposición de que cualquier serie tX , puede ser
transformada en ciclos formados con senos u cósenos:
∑=
+
+=n
jjjt n
ftsenob
n
ftax
1
22cos ππµ (6.1)
donde µ es la media de la serie, ja y jb son su amplitud, f son las frecuencias que del
conjunto de las n observaciones, t es un índice de tiempo que va de 1 a N , siendo N el
numero de periodos para los cuales tenemos observaciones en el conjunto de datos, el cociente
n
ftconvierte cada valor de t en escala de tiempo en proporciones de n2 y rango j desde 1
hasta n siendo 2
Nn = (es decir, 0,5 ciclos por intervalo de tiempo). Las dinámica de las altas
frecuencias (los valores más altos de f ) corresponden a los ciclos cortos en tanto que la
dinámica de la bajas frecuencias (pequeños valores de f ) van a corresponder con los ciclos
largos. Si nosotros hacemos que ω=n
fla ecuación (6.1) quedaría, así:
( ) ( )[ ]∑=
++=n
jjjjjt tsenobtax
1
cos ωωµ (6.2)
El análisis espectral puede utilizarse para identificar y cuantificar en procesos aparentemente a
aperiodicos, sucesiones de ciclos de periodo de corto y largo plazo. Una serie dada tx puede
contener diversos ciclos de diferentes frecuencias y amplitudes, y esa combinación de
frecuencias y amplitudes de carácter cíclico la hace aparecer como una serie no periódica e
irregular. De hecho la ecuación (2), muestra que cada observación t de una serie de tiempo, es
184
el resultado sumar los valores en t que resultan de N ciclos de diferente longitud y amplitud, a
los que habría que añadir si cabe un termino de error.
Realizar un análisis de Fourier a una serie temporal de ndatos, equivale a estudiar la
variabilidad de dicha serie en base a los ciclos de diferentes frecuencias a que da lugar:
πππ,...,
4,
2
nn. La frecuencia
n
pp
×= πω 2 recibe el nombre de armónico ,p . Y los
armónicos 2
np ≠ , pueden expresarse de la siguiente forma:
( ) ( ) ( )ppppppp tRsenoba φωωω +=+ coscos
donde ppp baR += y
= −
p
pp a
b1tanφ
La representación gráfica de ( )π
ω4
2pnR
I = frente ω recibe el nombre de periodograma de las
serie de datos. Una tendencia produce un pico en la representación gráfico del periodograma en
la frecuencia cero, mientras que las variaciones estacionales procuren "picos" en las frecuencias
estacionales y sus múltiplos enteros, de manera que si un peridograma presenta un "pico" en
alguna frecuencia ω , presentará también "picos" en las frecuencias ,...3,2 ωω
6.2. REGRESIÓN BAND SPECTRUM
Hannan (1963) fue quien propuso la regresión en dominio de la frecuencia (regresión band
spectrum). Engle (1974), demostró que dicha regresión no alteraba los supuestos básicos de la
regresión clásica, cuyos estimadores eran Estimadores Lineales Insesgados y Óptimos (ELIO).
En Engel (1974) el periodograma de la explicativa ,x , es definido como:
( ) 2ˆ xwf kkx =θ
siendo kw el vector fila:
( )kkk iTiik eeew θθθ )1(2 ,...,,,1 −=
185
donde Tk
kπθ 2= ; y t=0;1;…;T-1;
Txwk sería el elemento k-ésimo de la transformada finita
de Fourier del vector columna de tx .
El cross-periodograma entre las series tx e ty
( ) ( ) ( )ywxwf kkkxy∗=θˆ
donde * es la compleja conjugada de la transpuesta.
El periodograma es un estimador insesgado del espectro, sin embargo es asintóticamente
insesgado e inconsistente con la varianza de cada estimador espectral a medida que la muestra
tiende a infinito. Esta inconsistencia que obligaría al uso de ventanas en el periodograma con el
fin de obtener estimaciones del espectro, no anula las propiedades de la regresión realizada con
el periodograma.
Haciendo
=
−1
2
1
0
.
tw
w
w
w
W
Se cumple que WWIWW '' == debido a las ortogonalidad de los productos de senos y
cósenos.
Y obteniendo el vector x~ como la transformada de Fourier de xen T periodos, podemos
transformar el modelo de regresión múltiple:
uxy += β (6.3)
En
uxy ~~~ += β
Se trata de una regresión con variables aleatorias complejas pero que no afecta a los supuestos
básicos del modelo de regresión clásico. Las propiedades del error u~ :
'')'()''()'~~()~var( 2 WWWuuWEWWuuEuuEu u Ω==== σ
186
Si I=Ω , entonces Iu u2)~var( σ= .
Asumiendo que xes independiente de u , el teorema de Gauss-Markov implicaría que
( ) yxxx ~'~~'~ˆ 1−=β
es un estimador ELIO con la siguiente matriz de varianza y covarianzas: 12 )~'~()ˆvar( −= xxuσβ
El estimador mínimo-cuadrático β en términos del periodograma se formularía:
( ) ( )∑∑−
=
−−
=
=1
0
11
0
ˆˆˆT
kkxy
T
kkxx ff θθβ
donde ( )kxxf θˆ es la matriz de cross-periodogramas de cada frecuencia e
( )kxyf θˆes el vector del
cross-periodograma de tx e ty .
La transformación de los datos originales del dominio del tiempo al dominio de la frecuencia
utilizando series finitas de senos y cósenos en la regresión band spectrium, se realiza a través de
la matriz ortogonal A, con el elemento (j,t)th (Harvey, 1978) :
( )
( )( )
=∀−
−=∀
−−
−−=∀
−
=∀
=
+ TjT
TTjT
tj
T
TTjT
tj
T
jT
a
t
tj
12
1
2
1
2
1
2
1
,
)1(1
/)1(,...,7,5,311
sin2
)1/()2(,...,6,4,21
cos2
11
π
π
(6.4)
De esta forma los problemas derivados del uso de la transformada compleja de Fourier pueden
ser eludidos. Asimismo afirma que el vector de residuos definido en (6.3) da lugar a un vector
de residuos del modelo transformado a través de A:
( ) uAXyAv ˆˆ =−= β
de forma que :
187
=
==
−=+=
−=+=
= +
+
21
22
212
22
212
22
ˆ22
,ˆ2
2
1,...,1,ˆˆ
12
,...,1,ˆˆ
vp
imparTyT
jvp
imparTsiT
jvvp
parTsiT
jvvp
p
o
jj
jjj
jjj
j
Puede ser utilizado de forma consistente como estimador del periodograma deu .Al ser β un
estimador MCO de β , puede utilizarse el test del periodograma acumulado de Durbin (Durbin,
1969) (ver anexo I).
Hui T and Ashley R (1999), señalan que el procedimiento de elaboración del cross-
periodograma consta de tres etapas:
1.- Transformar los datos originales del dominio del tiempo al dominio de la frecuencia
utilizando series finitas de senos y cósenos. Implicaría premultiplicar los datos originales por
una matriz ortogonal, A, sugerida por Harvey (1978).
2.- Permitir la variación de kβ a través de m bandas de frecuencia usando variables Dummy
)...( 1 mjj DD . Estas variables se elaboran a partir de submuestras de las T observaciones del
dominio de frecuencias, de esta forma jksj xD ~= si la observación j está en la banda de
frecuencias s y 0=sjD , en el resto de los casos. Para obtener las submuestras proponen el
“stabilogram” test (Ashley, 1984).
3.- Re-estimar el resultado del modelo de regresión en el dominio del tiempo con las
estimaciones kββ ...1 y los coeficientes de las m variables Dummy. Implicaría premultiplicar la
ecuación de regresión ampliada por las variables Dummy por la transpuesta de A.
Ejemplo 6.1
En la tabla siguiente se recogen las cifras de Consumo de energía final eléctrica (TEP) y del PIB
en Millones de euros de España en el periodo 1992 y 2007.
188
Consumo de Energía Final Eléctrica (TEP) PIB (Mill euros año 2000)
1992 11244 484580,9
1993 11237 479583,3
1994 11777 491011,6
1995 12116 515405
1996 12655 527862,4
1997 13672 548283,8
1998 14202 572782
1999 15241 599965,8
2000 16205 630263
2001 17279 653255
2002 17759 670920,4
2003 18916 691694,7
2004 19834 714291,2
2005 20827 740108
2006 22052 769850,2
2007 22548 797366,8
2008 22817 804223,1
Fuente: INE
La regresión Mínimo Cuadrática en el dominio del tiempo de ambas series ofrece los siguientes
resultados:
Estadísticas de la regresión
Coeficiente de correlación múltiple 0,99827044 Coeficiente de determinación R^2 0,99654387
R^2 ajustado 0,99629701 Error típico 244,666006
Observaciones 16
Coeficientes Error típico Estadístico t
Intercepción -6648,76729 374,426101 -17,7572217 Variable X 1 0,03679065 0,00057906 63,53565298
La transformación de los datos del dominio del tiempo al dominio de la frecuencia se realiza
premultiplicando los datos originales por la matriz ortogonal A definida en (6.4).
189
aj,t 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
1 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250
2 0,354 0,327 0,250 0,135 0,000 -0,135 -0,250 -0,327 -0,354 -0,327 -0,250 -0,135 0,000 0,135 0,250 0,327
3 0,000 0,135 0,250 0,327 0,354 0,327 0,250 0,135 0,000 -0,135 -0,250 -0,327 -0,354 -0,327 -0,250 -0,135
4 0,354 0,250 0,000 -0,250 -0,354 -0,250 0,000 0,250 0,354 0,250 0,000 -0,250 -0,354 -0,250 0,000 0,250
5 0,000 0,250 0,354 0,250 0,000 -0,250 -0,354 -0,250 0,000 0,250 0,354 0,250 0,000 -0,250 -0,354 -0,250
6 0,354 0,135 -0,250 -0,327 0,000 0,327 0,250 -0,135 -0,354 -0,135 0,250 0,327 0,000 -0,327 -0,250 0,135
7 0,000 0,327 0,250 -0,135 -0,354 -0,135 0,250 0,327 0,000 -0,327 -0,250 0,135 0,354 0,135 -0,250 -0,327
8 0,354 0,000 -0,354 0,000 0,354 0,000 -0,354 0,000 0,354 0,000 -0,354 0,000 0,354 0,000 -0,354 0,000
9 0,000 0,354 0,000 -0,354 0,000 0,354 0,000 -0,354 0,000 0,354 0,000 -0,354 0,000 0,354 0,000 -0,354
10 0,354 -0,135 -0,250 0,327 0,000 -0,327 0,250 0,135 -0,354 0,135 0,250 -0,327 0,000 0,327 -0,250 -0,135
11 0,000 0,327 -0,250 -0,135 0,354 -0,135 -0,250 0,327 0,000 -0,327 0,250 0,135 -0,354 0,135 0,250 -0,327
12 0,354 -0,250 0,000 0,250 -0,354 0,250 0,000 -0,250 0,354 -0,250 0,000 0,250 -0,354 0,250 0,000 -0,250
13 0,000 0,250 -0,354 0,250 0,000 -0,250 0,354 -0,250 0,000 0,250 -0,354 0,250 0,000 -0,250 0,354 -0,250
14 0,354 -0,327 0,250 -0,135 0,000 0,135 -0,250 0,327 -0,354 0,327 -0,250 0,135 0,000 -0,135 0,250 -0,327
15 0,000 0,135 -0,250 0,327 -0,354 0,327 -0,250 0,135 0,000 -0,135 0,250 -0,327 0,354 -0,327 0,250 -0,135
16 0,250 -0,250 0,250 -0,250 0,250 -0,250 0,250 -0,250 0,250 -0,250 0,250 -0,250 0,250 -0,250 0,250 -0,250
i Y X Constante Y ajustado dominio de la frecuencia
1 67284 2551717 4 67284 2 -1713 -56628 0 -2083 3 -12669 -334387 0 -12302 4 -2162 -52088 0 -1916 5 -5702 -160516 0 -5905 6 -2397 -70960 0 -2611 7 -3077 -89304 0 -3286 8 -2053 -64772 0 -2383 9 -2023 -60838 0 -2238
10 -2129 -62400 0 -2296 11 -1083 -38099 0 -1402 12 -2069 -57905 0 -2130 13 -924 -26001 0 -957 14 -2306 -55621 0 -2046 15 -557 -11901 0 -438 16 -1366 -38885 0 -1431
La regresión MCO con los datos en el dominio de la frecuencia es:
Estadísticas de la regresión
Coeficiente de correlación múltiple 0,99991214 Coeficiente de determinación R^2 0,99982429
R^2 ajustado 0,92838317 Error típico 244,666006
Observaciones 16
190
Coeficientes Error típico Estadístico t
Intercepción 0 #N/A #N/A X 0,03679065 0,00057906 63,53565298 Cte -6648,76729 374,426101 -17,7572217
Se crea ahora una variable Dummy para separar altas frecuencias de las bajas frecuencias. Las
variables transformadas al dominio de la frecuencia y las Dummys utilizadas (D1 y D2)
aparecen en la Tabla siguiente:
i Y D1 D2
Cte
Y ajustado dominio frecuencia
1 67,284 2,551,717 0 4 67.284 2 -1,713 -56,628 0 0 -2.101 3 -12,669 -334,387 0 0 -12.405 4 -2,162 -52,088 0 0 -1.932 5 -5,702 -160,516 0 0 -5.955 6 -2,397 -70,960 0 0 -2.632 7 -3,077 -89,304 0 0 -3.313 8 -2,053 0 -64,772 0 -2.242 9 -2,023 0 -60,838 0 -2.105
10 -2,129 0 -62,400 0 -2.159 11 -1,083 0 -38,099 0 -1.318 12 -2,069 0 -57,905 0 -2.004 13 -924 0 -26,001 0 -900 14 -2,306 0 -55,621 0 -1.925 15 -557 0 -11,901 0 -412 16 -1,366 0 -38,885 0 -1.346
Los resultados de la regresión MCO de los valores transformados en el dominio de la
frecuencia son:
Estadísticas de la regresión
Coeficiente de correlación múltiple 0,99992471 Coeficiente de determinación R^2 0,99984942
R^2 ajustado 0,92290317 Error típico 235,050452
Observaciones 16
Coeficientes Error típico Estadístico t
Intercepción 0 #N/A #N/A D1 0,03709794 0,000594141 62,4395755 D2 0,0346064 0,001584053 21,8467372 Cte -6844,79449 383,5483218 -17,8459769
191
La representación gráfica de los resultados obtenidos, requiere transformar los datos ajustados
en el dominio de la frecuencia a datos ajustados en el dominio utilizando la transpuesta de A.
Figura nº6.1. Datos centrados y datos ajustados en el dominio del tiempo.
6.3. REGRESIÓN EN EL DOMINIO DE LA FRECUENCIA
CON PARAMETROS DEPENDIENTES DEL TIEMPO.
El objetivo es estimar un modelo de tipo
tttt uXY += β (6.5)
Donde tX es un vector de T x 1 observaciones de la variable independiente, tβ , es un vector
de T x 1 parámetros , e tY es un vector de T x 1 observaciones de la variable independiente y
tu es un vector de T x 1 errores de media cero y varianza constante, asumiendo que las series
tX , tβ e tY son transformadas en series de Fourier:
192
( ) ( )[ ]∑=
++=N
jj
yjj
yj
yt baY
1
sincos ωωη
( ) ( )[ ]∑=
++=N
jjjjjt ba
1
sincos ωωηβ βββ
( ) ( )[ ]∑=
++=N
jj
ujj
uj
ut bau
1
sincos ωωη (6.6)
Pre-multiplicado cada observación de (6.6) por TW se obtiene:
β&&& XY = (6.7)
donde tTYAY =& , t
T XAX =& , y tTA ββ =& .
El sistema (6.7) puede reescribirse como:
uAAIAIAXY TN
TNt &&& += β (6.8)
Si denominamos, uAAIe TN && = , se buscaría una solución que minimizara la suma cuadrática
de los errores: eAet &=ˆ .
Una vez encontrada la solución a dicha optimización se transformarían las variables y
parámetros al dominio del tiempo para obtener el sistema (6.5).
Para obtener una solución a la minimización de los errores e& que ofrezca el mismo resultado
que la regresión lineal por mínimos cuadrados ordinarios, requiere utilizar una matriz de
regresores X cuya primera columna sería el vector de tamaño T (1,0,0,...), la segunda columna
sería la primera fila de la matriz TNt AIAX y las columnas, corresponderían las filas de
TNt AIAX correspondientes a las frecuencias de senos o cósenos que queremos regresar.
Denominando a nueva esta matriz de tamaño pN × , X , donde jp += 2 , siendo la j
frecuencias de seno y coseno elegidas como explicativas, los coeficientes de la solución MCO
serían:
( ) yXXX && '' 1−=β
donde 1,oβ& sería el parámetro asociado a la constante, 1,1β& el asociado a la pendiente, y j,1β& los
asociados a las frecuencias de senos y cósenos elegidas.
193
Ejemplo 1.2
Utilizando los datos del ejemplo 1 vamos a plantear la regresión en el dominio de la frecuencia
con parámetros dependientes del tiempo. Para ello se ha obtenido la matriz XjjXθ = TNt AIAX :
Xjjθ
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
1 637929 -14157 -83597 -13022 -40129 -17740 -22326 -16193 -15209 -15600 -9525 -14476 -6500 -13905 -2975 -9721
2 -14157 628721 -28375 -22555 -74899 -20658 -39130 -23575 -22522 -21686 -15351 -20863 -8839 -19958 -4596 -13905
3 -83597 -28375 647137 43325 2534 17621 2242 9052 -1513 6158 -1214 4631 -1198 4596 -515 2975
4 -13022 -22555 43325 626479 -10755 -21041 -65847 -19444 -32972 -22377 -17891 -21171 -10755 -20863 -4631 -14476
5 -40129 -74899 2534 -10755 649379 52377 1020 23779 1028 13683 -2712 10755 -1729 8839 -1198 6500
6 -17740 -20658 17621 -21041 52377 627693 -4596 -19843 -61216 -18929 -28375 -22377 -13683 -21686 -6158 -15600
7 -22326 -39130 2242 -65847 1020 -4596 648165 57008 -178 28375 513 17891 -2712 15351 -1214 9525
8 -16193 -23575 9052 -19444 23779 -19843 57008 628208 0 -19843 -57008 -19444 -23779 -23575 -9052 -16193
9 -15209 -22522 -1513 -32972 1028 -61216 -178 0 647650 61216 -178 32972 1028 22522 -1513 15209
10 -15600 -21686 6158 -22377 13683 -18929 28375 -19843 61216 627693 4596 -21041 -52377 -20658 -17621 -17740
11 -9525 -15351 -1214 -17891 -2712 -28375 513 -57008 -178 4596 648165 65847 1020 39130 2242 22326
12 -14476 -20863 4631 -21171 10755 -22377 17891 -19444 32972 -21041 65847 626479 10755 -22555 -43325 -13022
13 -6500 -8839 -1198 -10755 -1729 -13683 -2712 -23779 1028 -52377 1020 10755 649379 74899 2534 40129
14 -13905 -19958 4596 -20863 8839 -21686 15351 -23575 22522 -20658 39130 -22555 74899 628721 28375 -14157
15 -2975 -4596 -515 -4631 -1198 -6158 -1214 -9052 -1513 -17621 2242 -43325 2534 28375 647137 83597
16 -9721 -13905 2975 -14476 6500 -15600 9525 -16193 15209 -17740 22326 -13022 40129 -14157 83597 637929
La matriz de regresores 'X para obtener la solución lineal sería:
1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
637929 -14157 -83597 -13022 -40129 -17740 -22326 -16193 -15209 -15600 -9525 -14476 -6500 -13905 -2975 -9721
El sistema (6.7) daría lugar a los siguientes coeficientes:
1,oβ& -26595,06915
1,1β& 0,147162612
El desarrollo de dichos coeficientes en el dominio de la frecuencia y el tiempo es el siguiente:
194
oiβ& oit Aββ &=0ˆ i1β&
it A 11ˆ ββ &=
-26595,0691 -6648,76729 0,14716261 0,03679065 0 -6648,76729 0 0,03679065 0 -6648,76729 0 0,03679065 0 -6648,76729 0 0,03679065 0 -6648,76729 0 0,03679065 0 -6648,76729 0 0,03679065 0 -6648,76729 0 0,03679065 0 -6648,76729 0 0,03679065 0 -6648,76729 0 0,03679065 0 -6648,76729 0 0,03679065 0 -6648,76729 0 0,03679065 0 -6648,76729 0 0,03679065 0 -6648,76729 0 0,03679065 0 -6648,76729 0 0,03679065 0 -6648,76729 0 0,03679065 0 -6648,76729 0 0,03679065
La matriz de regresores 'X considerando los dos ciclos de bajas frecuencias sería:
1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
637929 -14157 -83597 -13022 -40129 -17740 -22326 -16193 -15209 -15600 -9525 -14476 -6500 -13905 -2975 -9721
-14157 628721 -28375 -22555 -74899 -20658 -39130 -23575 -22522 -21686 -15351 -20863 -8839 -19958 -4596 -13905
-83597 -28375 647137 43325 2534 17621 2242 9052 -1513 6158 -1214 4631 -1198 4596 -515 2975
-13022 -22555 43325 626479 -10755 -21041 -65847 -19444 -32972 -22377 -17891 -21171 -10755 -20863 -4631 -14476
-40129 -74899 2534 -10755 649379 52377 1020 23779 1028 13683 -2712 10755 -1729 8839 -1198 6500
Los coeficientes de la solución mínimo cuadrática quedarían:
1,oβ& -20721,14907
1,1β& 0,137708056
2,1β& 0,000254003
3,1β& -0,001743429
4,1β& -0,00046199
5,1β& -0,000230558 En la tabla siguiente se recogen los resultados en términos de dominio de frecuencia y de tiempo
195
j/t Y& tY i,0β t,0β i,1β t,1β e& te
1 67284 11295 -20721 -5180,29 0,137708056 0,03435348 0,00 -58,07
2 -1713 11564 0 -5180,29 0,000254003 0,03410096 0,17 213,32
3 -12668 12330 0 -5180,29 -0,00174343 0,03397314 1,49 -213,64
4 -2161 12741 0 -5180,29 -0,00046199 0,03394976 0,10 -85,52
5 -5694 13447 0 -5180,29 0 0,03397396 7,44 224,92
6 -2481 14292 0 -5180,29 0 0,03399631 -84,41 -90,19
7 -3058 15224 0 -5180,29 0 0,03400917 19,25 16,95
8 -2248 16280 0 -5180,29 0 0,0340503 -195,44 -75,36
9 -2083 17144 0 -5180,29 0 0,03417387 -59,87 135,03
10 -2157 17904 0 -5180,29 0 0,03440679 -28,32 -144,93
11 -1305 18834 0 -5180,29 0 0,03471786 -221,29 82,13
12 -2000 19834 0 -5180,29 0 0,03501998 69,51 -0,18
13 -890 20877 0 -5180,29 0 0,03520675 33,88 -49,51
14 -1920 21922 0 -5180,29 0 0,03520399 385,65 130,49
15 -408 22734 0 -5180,29 0 0,03500789 149,04 -185,84
16 -1342 22717 0 -5180,29 0 0,03468801 24,01 100,39
Con objeto de comprobar los resultados de la estimación, se calcula el periodograma de
eAe XXt &
&&
'ˆ θ= y su representación gráfica figura a continuación:
Frecuencia Periodo ap bp Periodograma sj c0+j/m -c0+j/m
1 16 0,17 1,49 2,849786802 0,0000081 0,5583700 -0,3083700
2 8 0,10 7,44 70,54491094 0,0002080 0,6833700 -0,1833700
3 5 -84,41 19,25 9544,292064 0,0272526 0,8083700 -0,0583700
4 4 -195,44 -59,87 53196,21836 0,1779889 0,9333700 0,0666300
5 3 -28,32 -221,29 63368,80313 0,3575501 1,0583700 0,1916300
6 3 69,51 33,88 7612,459849 0,3791207 1,1833700 0,3166300
7 2 385,65 149,04 217645,6808 0,9958394 1,3083700 0,4416300
8 2 24,01 0,00 1468,320911 1,0000000 1,4333700 0,5666300
Figura 6.2 Periodograma de te
196
Figura 6.3.- Periodograma acumulado de te y bandas del test de Durbin.
Finalmente se representan las estimaciones del Consumo de consumo de energía final eléctrica,
en MCO y en el dominio de la frecuencia con coeficientes dependientes del tiempo:
Figura nº5. Estimaciones del Consumo de consumo de energía final eléctrica .
197
6.4. DESESTACIONALIZACIÓN A TRAVÉS DE LA
REGRESIÓN DEPENDIENTE DE LA FRECUENCIA
La regresión en el dominio de la frecuencia puede utilizarse para descomponer unas serie
temporal en sus componentes de tendencia, estacionalidad e irregular, de una serie temporal ty
de frecuencia b , o con b datos por intervalo de tiempo. Por ejemplo, una serie de frecuencia 7
sería una serie de datos diarios, y el intervalo temporal la semana, las frecuencias 4 y 12
indicarían series trimestrales y mensuales, en el periodo de tiempo de un año equivales.
Si la observación se toma a intervalos de tiempo t∆ , entonces la frecuencia angular es t∆
= πω .
La frecuencia equivalente expresada en ciclos por unidad de tiempo es tf ∆==2
1
2πω
.
Cuando solo hay una observación por año, πω = radianes por año o 2
1=f ciclos por año (un
ciclo por cada dos años), variaciones con una oscilación de un año tienen una frecuencia de
πω 2= radianes por año o 1=f ciclos por año.
Por ejemplo en una serie mensual de 100=n datos, el ciclo estacional o las oscilaciones que
ocurren al cabo del año, tienen una frecuencia de 33,812
100 ==f ciclos por cada 100 datos.
Una serie mensual que completa 8 ciclos, al ser su menor frecuencia estacional 1 ciclo por año,
tendrá un total de 96 observaciones (8 ciclos), y los múltiplos enteros que también destacaran en
su periodograma corresponderán a las frecuencias ,...12
3,
12
2,
12
nnnf = ; las oscilaciones de
tendencia o de baja frecuencia, las que ocurren con un ciclo inferior al año corresponderán a las
frecuencias 12
nf < .
Puede utilizarse (6.8) para estimar los coeficientes de Fourier de la serie temporal ty :
uAAIAAIY TN
Tn &&& += β (6.9)
o
uAAIAAtIY TN
Tn &&& += β (6.10)
En (6.9)
198
==
1...000
.......
0...100
0...010
0...001
Tnt AIAW
Si queremos regresar sobre los cuatro primeros coeficientes, entonces:
==
0...00000
.........
0...00000
0...01000
0...00100
0...00010
0...00001
* Tnt AIAW
Las 112
2 −n primeras filas de la matriz A son utilizadas para estimar los coeficientes de Fourier
que corresponden a los ciclos de bajas frecuencias, los ciclos de tendencia, y las filas 12
2n y
112
2 +n permiten regresar sobre los coeficientes de Fourier que dan lugar a oscilaciones de un
ciclo en cada año, los múltiplos enteros de dicha frecuencia 12
6n y 1
12
6 +n, el
12
8n...deben de ser
utilizados para obtener la frecuencia estacional.
Ejemplo 1.2
Se realiza un ejercicio de descomponer en tendencia, estacionalidad e irregularidad por
regresión en dominio de frecuencia con coeficientes dependientes del tiempo el IPI base 2009
de Cantabria en R. Este procedimiento requiere cargar la librería “descomponer”.
> library (descomponer)
El índice de precios industriales de Cantabria se representa en la figura siguiente.
>data(ipi)
199
La función descomponer, requiere indicar la serie, la frecuencia de la serie temporal, el tipo de
ajustes , 1, si se quiere realizar un ajuste utilizando (6.9) o 2 si se desea realizar un ajuste
utilizando (6.10), y el numero de datos a proyectar.
La serie de tendencia y estacionalidad se denomina TDST y se obtiene realizando un regresión
en el dominio de la frecuencia, entre la serie ty y el índice temporal t ,en el que se filtran las
bajas frecuencias y las frecuencias estaciones y sus múltiplos absolutos. TD se calcula
realizando una regresión en el dominio de la frecuencia entre la serie ty y el índice temporal t
pero dejando pasar solo las bajas frecuencias. La serie estacional ST es TD menos TDST, y la
serie irregular IR resulta de restar TDST de ty (figure 8). El índice temporal t se obtiene a
través de un MCO entre el IPI y la línea de tendencia ( )',....,3,2,1 n .
>desc1 <- descomponer(ipi,12,1)
> summary(desc1$datos) y TDST TD ST Min. : 58.6 Min. : 66.32 Min. : 91.09 Min. :-25.881690 1st Qu.: 94.5 1st Qu.: 95.54 1st Qu.: 97.05 1st Qu.: -1.387620 Median :101.7 Median :103.01 Median :100.21 Median : 2.212479 Mean :101.8 Mean :101.77 Mean :101.77 Mean : 0.002389 3rd Qu.:110.0 3rd Qu.:109.24 3rd Qu.:105.60 3rd Qu.: 7.265860 Max. :129.7 Max. :124.73 Max. :115.87 Max. : 9.078986 IR Min. :-13.06011 1st Qu.: -3.03401 Median : -0.05061 Mean : 0.00030 3rd Qu.: 2.64917 Max. : 13.55541
La representación gráfica se realize con la función “gdescomponer”, que requiere además
indicar el año y el mes ó trimestre de inicio de la serie.
>gdescomponer(ipi,12,1,2002,1)
200
Para realizar una representación gráfica del periodograma de los residuos se invoca la función
“gperiodograma”.
> gperiodograma(desc1$datos$IR)
201
Para realizar un test sobre la aleatoriedad de la serie irregular (IR) basado en el periodograma
acumulados puede utilizarse la función “cpgram”.
> cpgram(ts(desc1$datos$IR,frequency=12))
202
6.1. PROBLEMAS
6.1 Partiendo de los siguentes datos
t y x
1 15,25 12
2 12,65 7
3 16,55 15
4 20,45 23
5 22,05 25
6 14,85 11
Se pide:
a) Transformar x e y en el dominio de la frecuencia.
b) Realizar una regresión band-spectrum de y frente a x
c) Realizar una regresión band-spectrum utilizando dummies para las frecuencias
altas (i=3) y las frecuencias bajas.
6.2 Utilizando los datos de la tabla anterior hacer una regresión en el dominio de la frecuencia
con parámetros dependientes del tiempo, dejando pasar la frecuencia correspondiente al primer
coseno.
6.3.- Estimar un modelo lineal en el dominio de la frecuencia con parámetros dependientes del
tiempo del tipo t
ezxy &&&&&&&& +++= βββ 10 . Siendo z:
t z
1 5
2 2
3 2
4 4
5 1
6 1
6.4.- Descomponer utilizando la función R descomponer la serie co2.
203
SOLUCIONES
6.1
a)
i y x
1 41,559676 37,96709101
2 -6,20651539 -12,70170592
3 -3,85 -7
4 1,52997821 3,464101615
5 1,65 3
6 2,40866491 4,490731195
b)
texy &&& ++= 5044,01489,9
c)
teDDy && +++= 25117,015029,01712,9
6.2.
i,0β t,0β i,1β t,1β
21,322274 8,70478192 1,31850568 0,560483
0 8,70478192 0,03846073 0,54938035
0 8,70478192 0 0,52717504
0 8,70478192 0 0,51607238
0 8,70478192 0 0,52717504
0 8,70478192 0 0,54938035
6.3.
tezxy &&&& +−+= 123,2235,1782,24
6.4. A realizar por el alumno
204
7. FILTROS LINEALES
7.1. INTRODUCCIÓN
Un filtro lineal se define como:
∑∞
−∞=
=j
jj LaLa )(
donde los ponderadores son números reales, i. e.ℜ∈ja ; no dependen del tiempo y satisfacen
∑∞
−∞=
∞<j
ja2 . Aplicando el filtro lineal )(La a un proceso estocástico estacionario,tx , da como
resultado un nuevo proceso estocástico:
∑∞
−∞=−==
jjtjtt xaxLay )( (7.1)
donde las propiedades de tx se transmiten a ty por medio del filtro lineal )(La . Para
examinar el efecto que tiene un filtro lineal hay que analizarlo en el dominio de la frecuencia.
Utilizando la transformada de Fourier, se obtiene el espectro del filtro lineal aplicado a tx :
)()()(2
ωω ωx
iy SeaS −=
donde: ( ) ∑∞
−∞=
−− =j
ji
ji eaea
ωω .
es conocido como la respuesta de frecuencia del filtro lineal o función de transferencia. Esta
función describe como el espectro de la serie tx es afectado por la aplicación del filtro )(La .
Dado que la respuesta de frecuencia puede resultar en valores complejos resulta conveniente
expresarla como:
( ) ( ) )(ωω ω iFi eGea −− =
Donde ( ) ( )ωω ieaG −= , y
−=
∑
∑∞
−∞=
∞
−∞=−
jj
jj
ja
ja
F)cos(
)sin(
tan)( 1
ϖ
ϖω , son respectivamente el módulo
y el argumento de la respuesta de frecuencia.
205
En este contexto el módulo, )(ωG , es conocido como la ganancia del filtro; el cual determina la
medida en la que la amplitud de los movimientos observados en cierta frecuencia en el espectro
de tx son transferidos al espectro de ty . Por ejemplo una ganancia de cero alrededor de la
frecuencia [ ]1
,01 πω ∈ significa que el proceso filtrado no mostrará movimientos alrededor de
dicha frecuencia.
Por su parte el argumento, )(ωF , es conocido como el desplazamiento de fase del filtro, el
cual esta asociado a desplazamientos de la serie en el dominio del tiempo16. Es importante notar
que cuando jj aa −= para toda j , es decir cuando se trata de un filtro simétrico; el
desplazamiento de fase del filtro es igual a cero 17, i. e 0)( =ωF .
7.2. FILTROS ELEMENTALES
Los filtros más utilizados en el análisis de series temporales son las tasas de variación y las
medias móviles.
Las tasas de variación son operadores lineales invariantes en el tiempo pero no lineales. Dado
que la teoría elemental de los filtros se refiere a operadores lineales invariantes, hay que
aproximar las tasas a operadores de diferencia. Así la primera diferencia de un logaritmo es una
buena aproximación de una tasa de variación mensual.
Sea t
ttx
xxT )( 1−−= , utilizando operadores de diferencia obtenemos el filtro lineal
invariante más elemental:
)()1()()( tt xLnLxLnLa −=
16 A veces el desplazamiento de fase se expresa como ωω)(F
, lo cual permite expresar el desfase en
unidades de tiempo. 17 Para entender esta propiedad de los filtros lineales, se utilizan los siguientes resultados trigonométricos:
0)sin()sin( =+− ωω 0)0sin( =
Esto implica que cuando jj hh −= , el producto en ∑∞
−∞=jj jh )sin(ω (1) es igual a cero, lo cual a su vez
implica que 0)( =ωF dado que 0)0(tan 1 =− .
206
Las aproximaciones lineales de las tasas más utilizadas y los filtros lineales equivalentes
aparecen en el tabla 7.1.
Una media móvil simple es la media aritmética de los n datos anteriores Mientras más grande
sea n, mayor será la influencia de los datos antiguos.
Las medias móviles centradas se caracterizan porque el número de observaciones que entran
en su cálculo es impar, asignándose cada media móvil a la observación central. Así, una media
móvil centrada en t de longitud 2n + 1 viene dada por la siguiente expresión:
12
......
12
1)12( 11
+++++++
=+
=+ +−++−−
−=+∑
n
xxxxxx
nnMM ntnttntnt
n
niitt
Como puede observarse, el subíndice asignado a la media móvil, t, es el mismo que el de la
observación central, Yt. Obsérvese también que, por construcción, no se pueden calcular las
medias móviles correspondientes a las n primeras y a las n últimas observaciones.
En las medias móviles asimétricas se asigna cada media móvil al período correspondiente a la
observación más adelantada de todas las que intervienen en su cálculo. Así la media móvil
asimétrica de n puntos asociada a la observación t tendrá la siguiente expresión:
n
xxxxY
nnMMA ttntnt
t
ntiitt
++++== −+−+−
+−=+∑ 121
1
...1)(
Los filtros lineales asociados a las medias móviles se denotan de la siguiente forma:
∑=
=n
jt
jt xL
nxLa
0
1)(
207
Expresión Filtro lineal Equivalente
100112
1
11 ⋅
−
−t
tx
xT )1( L−
10012
6
16 ⋅
−
−t
tx
xT )1( 6L−
100112
112 ⋅
−
−t
tx
xT )1( 12L−
100112
1
31 ⋅
−
−t
tz
zT ( )
321 −− ++= ttt
txxxz )1()1)(1( 32 LLLL −=++−
10014
1
33 ⋅
−
−t
tz
zT ( )
321 −− ++= ttt
txxxz
2323 )1)(1()1)(1( LLLLLL ++−=++−
100112
1
61 ⋅
−
−t
tz
zT ( )
6... 51 −− +++= ttt
txxxz )1()...1)(1( 652 LLLLL −=++++−
100112
1
121 ⋅
−
−t
tz
zT ( )
12... 111 −− +++= ttt
txxxz )1()...1)(1( 12112 LLLLL −=++++−
100112
12
1212 ⋅
−
−t
tz
zT ( )
12... 111 −− +++= ttt
txxxz
)1()1()...1)(1(
21211212
LLLLLL −
−=++++−
Fuente: Melis (1991)
Tabla 7.1.- Tasas de Variación y Filtros Lineales equivalentes
El método idóneo de análisis de filtros es el estudio de las correspondientes funciones de
respuesta frecuencial, que se obtienen al sustituir en la función de transferencia el operador de
retraso por la exponencial compleja tieϖ , de manera que obtenemos como salida la misma
función multiplicada por una expresión que ya no depende de t , que se denomina función de
respuesta frecuencial.
Si aplicamos una primera diferencia, por poner el ejemplo más simple, a la función
característica, obtenemos como salida:
titiititi eaeeeLeLa ϖϖϖϖϖ ϖ )()1()1()( =−=−= −
208
La función de respuesta ( )ϖa es una función compleja de la frecuencia cuyo módulo se conoce
como función de ganancia del filtro y cuyo argumento se denomina función de fase del filtro.
A partir de la función de respuesta de frecuencia de este filtro:
( ) ( ) ( ) ( )
=
=
−=−== −−−−−−
2sin2
2sin21 222222 ϖϖϖ
ϖπϖϖϖϖϖϖ iiiiiii eieeeeeeaa
donde se ha hecho uso de la igualdad 12 =πi
e y del Teorema de Moivre18, se obtienen su
función de ganancia y de fase:
=2
sin2)(ϖωG
22)(
ϖπω −=F
El desfase temporal de este filtro 4
222)( −=
−= TF
ϖ
ϖπ
ϖϖ
, si se considera Tπϖ 2= .
El operador de medias móviles ∑=
=n
jt
jt xL
nxLa
0
1)( tiene la función de respuesta frecuencial
siguiente:
( ) ( )ωϖϖ iii eeea 213
1 −−− ++=
A partir de la respuesta de frecuencia del filtro:
( ) ( ) ( ))cos(213
11
3
11
3
1 2 ωωωωωωω +=++=++ −−−−− iiiiii eeeeee
se obtienen su ganancia19 y desplazamiento de fase:
( ))cos(213
1)( ωω +=G
ωω −=)(F
1)( −=−=ωωωφ
18 )sin()cos( ωωω ie i −=− y )sin()cos( ωωω iei += 19 ya que 1=− ωω ii ee , ( ) ( ))cos(2 ωωω =+ −ii ee ,aplicando el teorema de De Moivre y las
igualdades )sin()sin( ωω −=− y )cos()cos( ωω −=−
209
Ejemplo 7.1
Partimos de la serie ( )3sin txt⋅= π y aplicamos el filtro lineal LLa −= 1)( . El resultado se
ilustra en la siguiente figura:
-1
-0,5
0
0,5
1
1 3 5 7 9 11 13 15 17 19 21 23 25 27
Serie original Serie filtrada
La función de ganancia del filtro LLa −= 1)( es:
0
0,2
0,4
0,6
0,8
1
1,2
1,4
1,6
1,8
2
-0,36 0,14 0,64 1,14 1,64 2,14 2,64 3,14
Cuando aplicamos el filtro lineal ∑=
=2
03
1)(
j
jLLa , el resultado obtenido es:
210
-1
-0,5
0
0,5
1
1 3 5 7 9 11 13 15 17 19 21 23 25 27
Serie original Serie filtrada
En el gráfico se observa que las oscilaciones de la serie filtrada son de amplitud menor a las de
la serie original, y que hay un desplazamiento de la serie filtrada con respecto a la original.
La función de ganancia del filtro ∑=
=2
03
1)(
j
jLLa es:
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1
-0,36 0,14 0,64 1,14 1,64 2,14 2,64 3,14
Se aprecia que la ganancia del filtro es igual a cero en la frecuencia 32πω = . Esto significa
que el filtro anula el efecto de cualquier componente de la serie que tenga fluctuaciones con
periodo 3. Por ejemplo, si se trata de una serie de tiempo mensual el filtro eliminará cualquier
efecto trimestral presente en la serie.
211
Normalizando el desplazamiento de fase se obtiene que 1)( −=ωωF . Esto significa que el
filtro introduce un desfase temporal de un periodo en la serie filtrada.
Las funciones de ganancia (modulo) fase y desfase de los principales filtros lineales figuran en
la Tabla 7.2.
Filtro Modulo Periodo de
máxima ganancia
Fase Desfase
temporal
para un
periodo
p
)1( L− ( )2sin2 ω 2
22
ωπ − 4
2−p
)1( 3L− ( )23sin2 ω 6,2
23
2
ωπ − 4
6−p
)1( 6L− ( )26sin2 ω 12,4,24
26
2
ωπ − 4
12−p
)1( 12L− ( )212sin2 ω 24,8,4.8,3.43,2.7,2.8
212
2
ωπ − 4
24−p
2323 )1)(1()1)(1( LLLLLL ++−=++− ( )( )2sin3
23sin2 2
ω
ω
8
25
2
ωπ − 4
10−p
)1()1()...1)(1(
21211212
LLLLLL −
−=++++− ( )( )2sin12
212sin2 2
ω
ω
32
223
2
ωπ − 4
46−p
Fuente: Melis (1991)
Tabla 7.2. Modulo, fase y desfase temporal de los filtros de la Tabla 7.1
7.3. FILTROS FIR Las tasas y las medias móviles forman parte de lo que en señales digitales se denominan filtros
de respuesta impulsional finita (FIR), ya que se basan en obtener las salidas a partir,
exclusivamente, de las entradas actuales y anteriores. Generalizando, para un filtro lineal de
longitud N:
∑−
=−+−−− =+++=
1
01111 ...
N
jjtjNtNttot xaxaxaxay
donde ja son los coeficientes del filtro.
212
Una media móvil de orden tres, sería entonces el siguiente filtro FIR:
21 3
1
3
1
3
1−− ++= tttt xxxy
Y una tasa de crecimiento:
1−−= ttt xxy
Los filtros FIR se clasifican según los siguientes tipos:
Tipo Número de términos Simetría
I Impar Simétrico jNj aa −−= 1
II Par Simétrico jNj aa −−= 1
III Impar Antisimétrico jNj aa −−−= 1
IV Par Antisimétrico jNj aa −−−= 1
La media móvil de orden tres es por tanto un filtro FIR tipo I, es decir simétrico de orden impar,
y la tasa de crecimiento sería un filtro FIR tipo IV, es decir antisimétrico de orden par.
La función de respuesta frecuencial de un filtro tipo I es20
( )
+
−−= ∑−
−
=
−
−−
12
1
0 2
12
1
2
1.cos2
N
jNj
Ni
iw ajN
aeea ϖϖ
Con lo que:
∑−
−
=
−+
−−==1
2
1
0 2
12
1.cos2)(
N
jNj aj
NaG ϖω
( )2
1−−= NF ϖϖ
20
( ) ( )
+++++=
=+++++=
−−
−−
−−
−−−−
−
−−−−−
..
...
42
1
4
32
1
3
22
1
2
12
1
12
1
2
1
44
33
221
Niw
Niw
Niw
NiwN
iw
o
Niw
iwiwiwiwo
iw
eaeaeaeaeae
eaeaeaeaaea
ya que 102
1
2
1
2
1
2
1
===−
−−−−
−eeee
Niw
Niw
Ni
Niw ω
y iw
Ni
Niw
iwN
iN
iweeeee
−−−
−−−
−= 2
1
2
1
2
1
2
1 ωω
213
Un filtro media movil de 3 términos (N=3), donde 3
10 =a y
3
12
2
1 ==
− aa N , tendrá entonces
las siguientes funciones de ganancia y fase:
( )3
1cos
3
12)( += ϖωG y ( ) ϖϖ −=F
Un filtro tipo II tiene la siguiente función de ganancia y fase:
∑−
=
−−=1
2
0 2
1.cos2)(
N
jj j
NaG ϖω
( )2
1−−= NF ϖϖ
Un promedio móvil anual, es una tasa Tipo II, con doce coeficientes N=12 de valor 12
1=ja .
Con lo que:
+
+
+
+
+
=
=
−−+
−−+
−−+
−−+
−−+
−=
=
−−= ∑−
=
2
1cos
2
3cos
2
5cos
2
7cos
2
9cos
2
11cos
6
1
52
112cos4
2
112cos3
2
112cos2
2
112cos1
2
112cos
2
112cos
6
1
2
112.cos
12
12)(
12
12
0
ϖϖϖϖϖϖ
ϖϖϖϖϖϖ
ϖωj
jG
( )2
11ϖϖ −=F .
Ejemplo 7.2
Partimos de la serie ( ) ( )12sin3sin ttxt⋅+⋅= ππ y aplicamos el filtro lineal
∑=
=11
012
1)(
j
jLLa .
El resultado se ilustra en la figura siguiente:
214
-2,5-2
-1,5-1
-0,50
0,51
1,52
2,5
1 3 5 7 9 111315171921232527293133353739414345474951
Serie original Serie filtrada
El promedio movil de 12 términos produce una salida en donde se promedian las oscilaciones
de periodo inferior a 12 “t”, si se tratara de datos mensuales, la función representada incluye
como se ve un ciclo de 6 meses que es el que generalmos con la función ( )3sin t⋅π y otro de 2
años (24 meses) que es el que generamos con la función ( )12sin t⋅π , la serie filtrada elimina
las oscilaciones de 6 meses, que son las más frecuentes (en un conjunto de 50 datos dan lugar a
8 ciclos), las que más se dan, y nos presenta las de dos años, que son menos frecuentes que las
anteriores (dos ciclos en el conjunto de datos representado). El promedio móvil de 12 términos
es por tanto un filtro desestacionalizador, en el sentido de que anula las oscilaciones
estacionales, es decir la que tienen lugar al cabo de un año.
La función de ganancia del filtro ∑=
=11
012
1)(
j
jLLa es:
215
0
0,2
0,4
0,6
0,8
1
1,2
-0,86 0,14 1,14 2,14 3,14
La ganancia del filtro es igual a cero en la frecuencia 32,4
2,62,12
2 ππππω = . Esto
significa que el filtro anula el efecto de cualquier componente de la serie que tenga
fluctuaciones con periodo 12, 6, 4 ó 3. Por ejemplo, si se trata de una serie de tiempo mensual el
filtro eliminará cualquier oscilación cuatrimestral, semestral o anual presente en la serie.
Normalizando el desplazamiento de fase se obtiene que 5,5)( −=ωωF . Esto significa que el
filtro introduce un desfase temporal de 5,5 meses en la serie filtrada.
Un filtro tipo III tiene a su vez la siguiente función de ganancia y fase:
∑−
−
=
−−=1
2
1
0 2
1.sin2)(
N
jj j
NaG ϖω
( )2
1
2
−−= NF ϖπϖ
Y un filtro tipo IV tiene la siguiente función de ganancia y fase:
∑−
=
−−==1
2
0 2
1.sin2)(
N
jj j
NaG ϖω
( )2
1
2
−−= NF ϖπϖ
216
La tasa de crecimiento trimestral 31)( LLa −= sería un filtro tipo IV, de 4 coeficientes (N=4),
con los siguientes valores 10 =a , 01 =a , 02 =a y 13 −=a . Su función de ganancia se
calcularía:
==
−−+
−==
−−= ∑−
= 2
3sin21
2
14cos.0
2
14sin12
2
14.sin2)(
12
4
0
ϖϖϖϖωj
j jaG
Su función de desfase será ( ) ϖπϖ −=2
F
La tasa de crecimiento interanual 121)( LLa −= sería un filtro tipo III, de 13 coeficientes
(N=13), con los siguientes valores 10 =a , 0... 111 =aa y 112 −=a . Su función de ganancia se
calcularía:
=
=
−−+
−−+
−−+
−−+
−−+
−=
=
−−= ∑−
−
=
2
12sin2
52
113sin04
2
113sin03
2
113sin02
2
113sin01
2
113cos.0
2
113sin12
2
113.sin2)(
12
113
0
ϖ
ϖϖϖϖϖϖ
ϖωj
j jaG
y su función de desfase ( )2
12
2ϖπϖ −=F
7.4. EL FILTRO COMO PRODUCTO DE CONVOLUCIÓN
Sean y y z dos vectores de dimensión N. Se define su producto de convolución zy∗ ; como
el vector:
++++++++++
++++++++++
+++++
=∗
−−−−−
−−−−−−
−−
−−−
−−−−
0112322110
1102423120
3142021120
2132120110
1122221100
...
...
.
...
...
...
yzyzyzyzyz
yzyzyzyzyz
yzyzyzyzyz
yzyzyzyzyz
yzyzyzyzyz
zy
NNNNN
NNNNNN
NN
NNN
NNNN
217
El producto de convolución se puede expresar de forma matricial:
⋅
=∗
−
−
−−−
−−−−
−
−−
1
2
3
1
01321
10432
3412
2211
1221
.
.
.
......
.
.
.
N
N
o
NNN
NNNN
o
No
NNo
z
z
z
z
z
yyyyy
yyyyy
yyyyy
yyyyy
yyyyy
zy
La matriz cuadrada del producto de convulsión recibe el nombre de matriz circulante ya que los
elementos de la primera columna van rotando su posición en las columnas sucesivas.
La transformada discreta de Fourier del producto de convolución de zy∗ es el producto de
Hadamard de las correspondientes transformadas de y y de z :
( ) )()( zDFTyDFTzyDFT ⋅=∗
Una forma de calcular zy∗ es a traves de la multiplicación coordenada a coordenada de las
transformadas de y y de z ; obteniendo la transformada inversa de este vector ( ( )zyDFT ∗ ).
Filtrar una serie puede entenderse como el producto de una convolución; así por ejemplo al
emplear el filtro lineal )1( L− se realizaría el siguiente producto de convolución:
⋅
−−
−−
−
=∗
−
−
1
2
3
1
.
10.001
11.000
......
00.100
00.110
00.011
N
N
o
z
z
z
z
z
zy
donde el vector y sería
218
−
=
1
0
0
0
0
1
y
Una media móvil centrada de tres términos se expresaría por el siguiente producto de
convolución:
⋅
=∗
−
−
1
2
3
1
.
310.03
13
13
13
1.0031
......
00.3100
00.31
310
00.31
31
31
N
N
o
z
z
z
z
z
zy
donde el vector y sería:
=
313
1.
0
03
1
y
Para obtener los gráficos de las funciones de ganancia y desfase utilizando la transformada
discreta de Fourier, se emplean las siguientes expresiones:
)()()( ϖϖ IRwG +=
−= −
)(
)(tan)( 1
ϖϖω
R
IF
Centrar el filtro equivale a realizar la siguiente multiplicación matricial
219
( )[ ] ( )[ ] [ ]1212
.
31
31.000
031.000
......
00.3100
00.31
310
00.31
31
31
1
2
3
1
×××−=×−
⋅
=∗
−
−
NNNN
z
z
z
z
z
zy
N
N
o
Es decir habría que eliminar las dos últimas filas de la matriz que desarrolla el filtro lineal.
Ejemplo 7.3
Utilizando R vamos a filtrar la serie.
> t <- seq(0, 49, by=1) > Z <- sin(pi*t/3)+sin(pi*t/12) Representamos la serie temporal creada
> plot.ts (Z, type="l")
Obtenesmos la transformada de Fourier:
> z <- fft(Z)
220
Aplicamos un filtro de media móvil de 12 términos a la serie z y la representamos :
> Y <- c(1/12, rep(0, 38), rep(1/12,11)) > Y [1] 0.08333333 0.00000000 0.00000000 0.00000000 [5] 0.00000000 0.00000000 0.00000000 0.00000000 [9] 0.00000000 0.00000000 0.00000000 0.00000000 [13] 0.00000000 0.00000000 0.00000000 0.00000000 [17] 0.00000000 0.00000000 0.00000000 0.00000000 [21] 0.00000000 0.00000000 0.00000000 0.00000000 [25] 0.00000000 0.00000000 0.00000000 0.00000000 [29] 0.00000000 0.00000000 0.00000000 0.00000000 [33] 0.00000000 0.00000000 0.00000000 0.00000000 [37] 0.00000000 0.00000000 0.00000000 0.08333333 [41] 0.08333333 0.08333333 0.08333333 0.08333333 [45] 0.08333333 0.08333333 0.08333333 0.08333333 [49] 0.08333333 0.08333333 > >y <- fft(Y) >X <- fft(y*z,inverse=TRUE)/50 > plot.ts (X[1 :39], type="l")
Time
MV
Z[1
:39]
0 10 20 30 40
-0.6
-0.2
0.2
0.4
0.6
Obtenemos la función de ganancia del filtro y la representamos:
>GW = abs(y) >P = GW[1:25] >f = (0:24)*pi/25 >plot(f, P, type="l")
221
0.0 0.5 1.0 1.5 2.0 2.5 3.0
0.0
0.2
0.4
0.6
0.8
1.0
f
P
La instrucción en R para filtrar series es:
> convolve(x, y, conj = TRUE, type = c("circular", "open", "filter")) De tal manera que el filtrado de una serie por una media móvil de 12 términos centrada con R se
realizaría de la siguiente manera:
>Y <- c(rep(1,12))/12 >X <- convolve(Z,Y,type="filter") >plot (t [6:44], Z[6:44], main="Filtro MM12 utilizando convolve(.)" ) >lines(t[6:44], X, col="red")
222
10 20 30 40
-10
1
Filtro MM12 utilizando convolve(.)
t[6:44]
Z[6
:44]
Los filtros pueden ser aplicados en serie, por ejemplo la tasa media de crecimiento trimestral
)1)(1( 23 LLL ++− , sería la multiplicación matricial de
×
−
−−
=
×
−−
−−
−
×
=××=××
−
−
−
−
1
2
3
1
1
2
3
1
.
31.03
100
0.00310
0.00031
0.....
0.00310
0.31003
1
.
10.001
11.000
......
00.100
00.110
00.011
310.03
13
13
13
1.0031
......
00.3100
00.31
310
310.03
13
1
)()(
N
N
o
N
N
o
z
z
z
z
z
z
z
z
z
z
zyxzyx
Utilizando la transformada discreta de Fourier, el filtro se desarrollaría:
( ) )()()( zDFTyDFTxDFTzyxDFT ××=××
223
siendo
−
=
1
0
0
0
0
1
y
=
313
1.
0
03
1
x
O bien, ( ) )()( zDFTyxDFTzyxDFT ××=×× .
siendo
−
=
0
03
1.
03
1
x
Ejemplo 7.3
Aplicamos un filtro de diferencia regular para la serie Z del ejemplo 7.2:
> Y <- c(-1, rep(0, 48), 1) > Y [1] -1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 [18] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 [35] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 > y <- fft(Y) > MVZ <- fft(y*z,inverse=TRUE)/50
224
A continuación diseñamos un filtro de media movil de 3 términos, para obtene un filtro
multiplicativo en el que uno de sus múltiplos es el filtro z antes construido.
>X <- c(1/3, rep(0, 47), rep(1/3,2)) > X [1] 0.3333333 0.0000000 0.0000000 0.0000000 0.0000000 [6] 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 [11] 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 [16] 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 [21] 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 [26] 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 [31] 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 [36] 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 [41] 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 [46] 0.0000000 0.0000000 0.0000000 0.3333333 0.3333333 >x <- fft(Y) >MVZ <- fft(x*y*z,inverse=TRUE)/50 >plot.ts (MVZ[1 :39], type="l")
225
Time
MV
Z[1
:39]
0 10 20 30 40
-1.0
-0.5
0.0
0.5
1.0
7.5. DESCOMPOSICIÓN DE SERIES DE TIEMPO
MEDIANTE FILTROS LINEALES.
Dada una serie temporal expresada en forma de serie de fourier, el modelo básico de tendencia
sería:
ototott atbtaT =⋅+⋅= )0sin()0cos(
donde las componentes cíclica y estacional es, )sin()cos( tbtas jjtjjtj
t ⋅+⋅= ωωω , y la
componente irregular, te .
El modelo completo de dicha serie temporal tiene la siguiente representación:
[ ] t
R
jjjtjjtt etbtaY +⋅+⋅=∑
=0
)sin()cos( ωω
Vista así una serie temporal utilizar la teoría de filtros lineales para describir los componentes
de una serie temporal.
226
Ejemplo 7.4
Generamos la serie temporal tt ett
Y +
⋅+
⋅+=12
cos50,03
cos25,02ππ
donde te es una
distribución normal de números aleatorios con media cero y varianza 0,25 )25,0;0(Net → .
La representación gráfica de esta serie sería:
0
0,5
1
1,5
2
2,5
3
3,5
4
4,5
1 3 5 7 9 1113151719212325272931333537394143454749
-0,8
-0,6
-0,4
-0,2
0
0,2
0,4
0,6
0,8
1
Serie temporal Ciclo
Se aprecia que la serie temporal sigue el perfil del ciclo creado, si bien difiere de este en el
mayor nivel que introduce la tendencia (de valor constante igual a 2), y la mayor irregularidad
que le incorpora de la serie aleatoria. El ciclo como se aprecia es un ciclo largo de 24 datos
(periodo 24) (de máximo a máximo), que tiene lugar dos veces al cabo de los 50 datos, y un
ciclo corto o más frecuente ya que se repite unas 8 veces a los largo del conjunto de datos, y que
tiene lugar cada 6 datos (periodo 6).
Pretendemos ahora extraer las señales relevantes de la serie, en este caso serían los dos ciclos a
través de filtros lineales, si queremos representar el ciclo largo tenemos varias posibilidades de
filtros la media móvil de 12 términos que anulan las siguientes frecuencias
32,4
2,62,12
2 ππππω = , ó una media móvil de 6 datos, ∑=
=5
06
1)(
j
jLLa que anularía las
frecuencias 32,6
2 ππω = , y cuya función de ganancia sería:
227
+
+
=
=
−−+
−−+
−=
=
−−= ∑−
=
2
1cos
2
3cos
2
5cos
3
1
22
16cos1
2
16cos
2
16cos
3
1
2
16.cos
6
12)(
12
6
0
ϖϖϖ
ϖϖϖ
ϖωj
jG
0
0,2
0,4
0,6
0,8
1
1,2
-0,36 0,14 0,64 1,14 1,64 2,14 2,64 3,14
El desfase de la media móvil de 12 datos sabemos que es de -5,5 y la de 6 términos:
( )5,22
16
−=
−−=
ww
Fϖϖ
. En los resultados gráficos se aprecia que una y otra nos representan
el ciclo largo pero la media móvil de 12 términos con un coste informativo menor:
228
0
0,5
1
1,5
2
2,5
3
3,5
4
4,5
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49
Serie temporal MV(12)
0
0,5
1
1,5
2
2,5
3
3,5
4
4,5
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49
Serie temporal MV(6)
El menor coste informativo de la media móvil de 6 términos la hace más deseable para extraer
en este caso el ciclo de periodo 24 que la media móvil de 12 datos.
La media móvil de 3 datos, cuya función de ganancia también hemos representado
anteriormente iguala a cero la frecuencia 32πω = , es decir las que tienen lugar cada 3 datos
(periodo 3), que nosotros no tenemos y atenúa sin anularlas completamente las de menor
periodo, es decir el efecto de esta media móvil a nuestro conjunto de datos es anular las
frecuencias más altas, es decir las oscilaciones que más veces se dan, que en este caso las que
induce la serie aleatoria irregular y dejar pasar las de periodo superior a tres. El resultado
gráfico de utilizar esta media móvil es el siguiente:
229
0
0,5
1
1,5
2
2,5
3
3,5
4
4,5
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49
Serie temporal MV(3)
Como vemos ahora el filtro deja pasar la tendencia y los dos ciclos que forman la serie, el de 24
datos y el de 6 datos.
Todos los filtros que hemos utilizado tienen en la función de ganancia un uno en las muy bajas
frecuencias, esto quiere decir que dejan pasar los ciclos de muy largo plazo, esto es las
tendencias, y por el contrario atenúan cuando no anulan las mas altas frecuencias, por ello en su
salida las tres medias móviles ha suavizado las oscilaciones irregulares, que persisten en la serie
pero muy atenuadas.
El filtro, tttt xLxxy )1( 33 −=−= − , tiene el efecto contrario, ya que su función de ganancia
es, ( )23sin2)( ωϖ =G .
0
0,5
1
1,5
2
2,5
-0,36 0,14 0,64 1,14 1,64 2,14 2,64 3,14
230
En la representación gráfica vemos que el filtro anula las oscilaciones de baja frecuencia, es
decir, las tendencias, y anula únicamente oscilaciones las que tienen lugar cada tres datos,
dejando pasar las de mayor frecuencia. El efecto de este filtro sobre nuestro conjunto de datos
sería el siguiente:
-3
-2
-1
0
1
2
3
4
5
1 8
15
22
29
36
43
50
Serie temporal T(3,1)
Como se aprecia el filtro ha eliminado la tendencia de la serie, ya que la ha centrando la serie en
cero y ha dejado pasar su perfil más irregular. En consecuencia a partir de la función de
ganancia se podría construir un filtro lineal a nuestros datos que dejara pasar ó anulara la
componente deseada.
7.6. TIPOS DE FILTROS
En la literatura de proceso de señales digitales, los filtros como la media movíl de orden 2
+= )1(2
1)( 2LLa se conocen como filtros de corte (notch filter), son aquellos que
contienen uno o más profundos cortes o muescas en su función de ganancia. Este en concreto
anula las frecuencias de periodo 4 ( )42πω = , siendo su función de ganancia la que se
representa en el gráfico siguiente:
231
( )ϖϖϖω cos02
13cos0
2
13.cos
2
12)(
12
13
0
=
−−=+
−−= ∑−
−
=j
jG , ya que 2
10 =a y 0
2
13 =
−a ,
y 2
12 =a
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1
-0,36 0,14 0,64 1,14 1,64 2,14 2,64 3,14
Si el filtro introduce ceros uniformemente espaciados en el eje de frecuencias, como el sumador
estacional se denominan filtros en peine (comb filters). Los filtros ∑=
=5
06
1)(
j
jLLa y
∑=
=11
012
1)(
j
jLLa , son filtros de peine, en los que se introduce un cero en el período p
(frecuencia 2π/p).
El operador autoregresivo )1(
1)(
LLa
−= , equivale a una media móvil de ∞ términos; cuyo
desarrollo sería : ∞+++= LLLLa ...1)( 2 . La función de ganancia del filtro )1(
1)(
LLa
−= ,
sería
=
2sin2
1)(
ϖωG , (ver Tabla nºIV.2). Un operador autoregresivo de la forma
)1(
1)(
2LLa
+= , se desarrolla en el siguiente proceso de medias móviles
∞−+−= LLLLLa ...1)( 642 , y tendría una función de ganancia del tipo : ( )ϖ
ωcos2
1)( =G .
Este filtro se comporta de forma opuesta a 21)( LLa += , acentuando las oscilaciones de cuatro
232
meses. La ganancia del filtro es muy pequeña salvo en las proximidades del cero estacional, en
donde crece muy rápidamente, como puede verse en el Gráfico siguiente.
0
10
20
30
40
50
60
70
80
90
100
0 0,5 1 1,5 2 2,5 3 3,5
Los filtros pueden estar constituidos por un operador autoregresivo y una media media móvil,
)1(
)1()(
4
L
LLa
−−= , es un ejemplo de este tipo de filtros, y cuando lo desarrollamos, obtenemos
el siguiente filtro lineal:
)1(
)...()...1()...1)(1()1(
)1()(
32
6542244
LLL
LLLLLLLLLLLL
LLa
+++=
=++++−++++=++++−=−−= ∞∞∞
Cuya función de ganancia es
+
=
−−= ∑−
= 2cos2
2
3cos2
2
14.cos2)(
12
4
0
ϖϖϖωj
jG , otra
forma alternativa de obtener esta función de ganancia es
=
2sin
2
4sin
)(ϖ
ϖ
ωG , que se obtendría
dividiendo las funciones de ganancia de ambos filtros
⋅2
4sin2
ϖ y
⋅2
sin2ϖ .
233
0
0,5
1
1,5
2
2,5
3
3,5
4
-0,36 0,14 0,64 1,14 1,64 2,14 2,64 3,14
Si el operador autorregresivos es de la forma )1(
1)(
aLLa
−= , el filtro lineal que lo desarrolla
es ∞∞+++= LaLaaLLa ...1)( 22 , si 1<a ,la potencia ∞a llegará un punto en que acercara a
cero y el filtro podrá desarrollarse en términos finitos, expresado en su forma más general un
filtro autoregresivo toma la forma de
∑−
=
=1
0
1)(
M
j
jj L
Lα
α ;de igual manera el operador de medias
móviles se expresa en la forma mas general como ∑−
=
=1
0
)(N
j
jj LL ββ , y en consecuencia un filtro
ARMA(M,N) daría lugar a la siguiente expresión:
∑
∑−
=
−
==1
0
1
0)(M
j
jj
N
j
jj
L
L
Laα
β.
Ejemplo 7.5.
El modelo ARMA(1,1), ( ) tt eYL )8,01(5,01 −=− da lugar al siguiente filtro
teL
LLa
5,01
8,01)(
−−= , su linearización sería
234
( )
t
tt
eLLLLL
eLLLY
...).1005,300078125,00125,005,01,02,0(
...)8,01(5,0)8,01(5,0)8,01(5,0)8,01(46432
3322
+⋅+++++=
=⋅+−+−+−+−=−
Haciendo N=4, el filtro quedaría
⋅
=∗
−
−
1
2
3
1
.
.
.
2,0.0000078125,00125,005,01,0
1,0.00000078125,00125,005,0
05,0.000000078125,00125,0
0125,0.0000000078125,0
........
.0.0125,005,01,02,00.0
0.00078125,00125,005,01,02,00
0.000078125,00125,005,01,02,0
N
N
o
z
z
z
z
z
zy
En donde el vector y sería
=
1,0
05,0
0125,0
00078125,0.
02,0
y
Utilizando R, construimos el filtro, representamos su función de ganancia.
> Y <- c(0.2, rep(0, 45), 0.00078125, 0.0125,0.05, 0.1) > y <- fft(Y) > GW = abs(y) > P = GW[1:25] > f = (0:24)*pi/25 > plot(f, P, type="l")
235
0.0 0.5 1.0 1.5 2.0 2.5 3.0
0.15
0.20
0.25
0.30
0.35
f
P
El filtro diseñado atenúa las altas frecuencias y deja pasar las bajas frecuencias. Este tipo de
filtros se denominan de paso bajo.
7.7. DISEÑO DE FILTROS
Los filtros digitales se aplican usualmente en el dominio del tiempo convolucionando el dato
con los coeficientes del filtro, pero también pueden diseñarse en el dominio de las
frecuencias.
Existen varias estrategias para el diseño de filtros. En general se busca reproducir, de la manera
más precisa posible con un número predeterminado de coeficientes, la respuesta en frecuencia
(espectro) deseada del filtro. Una vez diseñado el espectro del filtro a través del cálculo de la
Transformada de Fourier Inversa se obtendrían los coeficientes. Dado que no es posible obtener
un filtro de longitud finita que se ajuste en forma exacta al espectro deseado, es en este punto
donde entran en juego diversas estrategias que buscan obtener un filtro lo más aproximado al
efecto que de el se desea. La longitud del filtro es, entonces, uno de los elementos más
importantes a tener en cuenta. Por razones prácticas, cuanto más corta es la respuesta impulsiva
del filtro, mejor, pero un filtro muy corto puede producir efectos indeseados en las frecuencias
cercanas a la que pretendemos atenuar, en tanto que un filtro muy largo, si bien se aproxima
236
más a la respuesta en frecuencias deseada, presenta como desventaja los desfases o su tiempo de
respuesta. El uso de ventanas apropiadas para truncar la respuesta impulsiva convenientemente
es una técnica muy usual. Otra técnica consiste en modificar iterativamente los coeficientes del
filtro obtenidos hasta satisfacer el espectro de frecuencia deseado. Y en el dominio de las
frecuencias existen métodos basados en digitalizar funciones racionales de la frecuencia (filtros
de Chebyshev, Butterworth, elípticos, etc.).
El uso de ventanas (“window carpentry”), surgió hace ya tres décadas y consiste en toda una
batería de métodos y ventanas especialmente diseñadas para obtener un filtro “ideal”. Cada
ventana tiene sus propias características en el sentido que producen filtros con determinadas
propiedades en la banda de paso, de rechazo y/o de transición. Entre las ventanas más conocidas
podemos mencionar: triangular (Bartlet), Hamming, Hanning, Parzen, Daniell, etc., siendo la de
Hamming una de las más utilizadas.
Consideremos la ventana mas sencilla; la ventana rectangular. La ventana se define como:
≥−≤≤
Nn
Nnn
0
101)(ϖ
su expresión en el dominio ϖie− es:
( ) ϖ
ϖϖϖϖϖ
i
NiNiNiii
e
eeeeea −
−−−−−
−−=++++=
1
1...1 )2(
237
con lo que su respuesta en frecuencia resulta,
( )
=
−−
2sin
2sin
2
1
ϖ
ϖϖ
ϖ
N
eeaN
ii
Su función de ganancia sería
=
2sin
2sin
)(ϖ
ϖN
WG y su desfase
−−2
1N
Una ventana rectangular o boxcar, tiene el efecto de una media móvil, por ejemplo una media
móvil de 6 términos es igual a cero las frecuencia 32πω =
y 62πω =
y deja pasar la
oscilaciones o ciclo de frecuencia más baja y atenúa relativamene las de frecuencia más alta, y
las intermedias entre 32π
y 62π
.
La ventana de Hanning por ejemplo, para N=6 da lugar a los siguientes coeficientes :
( )( )
06
12cos1
2
1)6(
5,06
10cos1
2
1)5(
5,15
8cos1
2
1)4(
25
6cos1
2
1)3(
5,15
4cos1
2
1)2(
5,05
2cos1
2
1)1(
00cos12
1)0(
1
2cos1
2
1)(
=
−=
=
−=
=
−=
=
−=
=
−=
=
−=
=−=
−⋅−=
πϖ
πϖ
πϖ
πϖ
πϖ
πϖ
ϖ
πϖN
nn
238
su expresión en el dominio ϖie− es:
( ) ϖϖϖϖϖϖ iiiiwiii eeeeeeea 54432 05,05,125,15,00 −−−−−− ++++++=
Se trata de un filtro FIR simétrico impar (tipo I), que daría lugar a la siguiente respuesta en
frecuencia:
( )
+
−−= ∑−
−
=
−
−−1
2
1
0 2
12
1
2
1.cos2
N
jNj
Ni
i ajN
waeeaϖϖ
( ) ( ) ( )( )2cos32cos3 +⋅+= − ϖϖϖϖ ii eea
Es decir tendría un desfase de -2 periodos y una función de ganancia de ( )( )12cos)( += ϖϖG
y un desfase de 32
1 −=
−− N
La representación de la función de ganancia es:
0
0,2
0,4
0,6
0,8
1
1,2
0 0,5 1 1,5 2 2,5 3 3,5
Se comprueba que el filtro atenúa considerablemente las altas frecuencias, las que superan los
32π
.
El método de las ventanas se basa en truncar la respuesta impulsional infinita de un filtro ideal.
Como el producto en el dominio del tiempo equivale a una convolución en el dominio de la
frecuencia, podemos estudiar el efecto que este enventanado tiene sobre la respuesta frecuencial
del filtro:
239
La convolución de una ventana boxcar y una ventana de Hanning ambas con N=6, da lugar a
una función de ganancia que se obtendría multiplicando punto a punto las funciones de ganancia
calculadas para la media móvil de 6 términos y la ventana de Hanning (6):
Da lugar a un filtro en el que ahora están considerablemente atenuadas las oscilaciones de
periodo superior a 6 datos, o las frecuencias más altas a 62π .
El desarrollo lineal del filtro lo resolvemos con el operador de retardos:
( )( )6543265432 05,05,125,15,001)( LLLLLLLLLLLLa +++++++++++=
240
Que una vez operado da lugar al siguiente filtro FIR tipo II:
( )101098765432 05,0245,5665,5425,00)( LLLLLLLLLLLLa +++++++++++=
Cuya función de ganancia también puede calcularse como:
⋅+
⋅+
⋅+
⋅+
= wwwwwwG2
1cos12
2
3cos11
2
5cos8
2
7cos4
2
9cos)(
Ejemplo 7.6
Generamos la serie temporal tt ett
Y +
⋅+
⋅=12
sin3
sinππ
donde te es una distribución
normal de números aleatorios con media cero y varianza 0,25 )25,0;0(Net → . Esta serie
genera como vemos en la gráfica ciclos de periodo 24 y de periodo 6, y la irregularidad que
introduce el error aleatorio incorporado.
En la representación gráfica de la serie se puede comprobar los efectos de las ventanas boxcar21,
la ventana Hanning, y la convolución de ambas, en la convolución se puede apreciar como se ha
eliminado las pequeñas oscilaciones que presentaba la media móvil de 6 términos, quedando
prácticamente aisladas las oscilaciones de periodo 24:
21 Para reducir la amplitud de las ventanas hay que dividir por 6 la boxcar y la ventan Hanning, y consecuentemente por 36 la convolución de las dos ventanas.
241
Los filtros de Butterworth, de Chebyshev (tipo I y tipo II) y de Jacobi (elípticos), son filtros RC
analógicos cuya respuesta en frecuencia es bien conocida y ajustable de acuerdo a la selección
apropiada de sus componentes. Su características es que los espectros de potencia de estos
filtros se pueden expresar como funciones racionales de ω, lo que permite, en principio, su
factorización.
No obstante diseñar filtros es una tarea compleja que requiere el uso de software matemático y
un buen conocimiento de la teoría de filtros digitales. En general requiere tres pasos:
• Establecer las especificaciones del filtro para unas determinadas prestaciones
(frecuencias de paso, atenuaciones, ganancias, etc…)
• Determinar la función de transferencia que cumpla dichas especificaciones
• Realizar la función de transferencia con el software estadístico utilizado
Ejemplo 7.7
El paquete Signal de R, ofrece diversas utilidades para el diseño de filtros, está disponible en
CRAN-R / http://cran.r-project.org/web/packages/signal/index.html), su manual se descarga en
: http://cran.r-project.org/web/packages/signal/signal.pdf
En primer lugar vamos a realizar una representación gráfica de las ventanas más usuales:
>n <- 51 >op <- par(mfrow = c(3,3)) >plot(bartlett(n), type = "l", ylim = c(0,1)) >plot(blackman(n), type = "l", ylim = c(0,1)) >plot(boxcar(n), type = "l", ylim = c(0,1)) >plot(flattopwin(n), type = "l", ylim = c(0,1)) >plot(gausswin(n, 5), type = "l", ylim = c(0,1)) >plot(hanning(n), type = "l", ylim = c(0,1)) >plot(hamming(n), type = "l", ylim = c(0,1)) >plot(triang(n), type = "l", ylim = c(0,1)) >par(op)
242
0 20 40
0.0
Index
bart
lett(
n)
0 20 40
0.0
Index
blac
kman
(n)
0 20 40
0.0
Index
boxc
ar(n
)
0 20 40
0.0
Index
flatto
pwin
(n)
0 20 40
0.0
Index
gaus
swin
(n, 5
)
0 20 40
0.0
Index
hann
ing(
n)
0 20 40
0.0
Index
ham
min
g(n)
0 20 40
0.0
Index
tria
ng(n
)
Ahora, vamos a desarrolla un ejercicio similar al ejercicio 7.3 utilizando la técnica de ventanas:
> n <- length(x <- -20:24) > y <- sin(pi*x/6) +sin(pi*x/12) + rnorm(x)/8 > n <- length(x <- -20:24) > Filtro <- function(y) convolve(y, hanning(6)/6, type = "filter") > plot(x,y, main="Using Hanning(.) for filters") > lines(x[-c(1:3 , (n-1):n) ], Filtro(y), col="red")
243
-20 -10 0 10 20
-2-1
01
Using Hanning(.) for filters
x
y
> Filtro <- function(y) convolve(y, convolve( boxcar(6)/6, hanning(6)/6) , type = "filter") > plot(x,y, main="Using convolve(.) for filters") > lines(x[-c(1:3 , (n-1):n) ], Filtro(y), col="red")
-20 -10 0 10 20
-2-1
01
Using convolve(.) for filters
x
y
244
ANEXO I. SERIES DE FOURIER
SERIE DE FOURIER
Una serie de Fourier es una serie infinita que converge puntualmente a una función continua y
periódica.
∑∞
=⋅+⋅+=
100 )sin()cos(2
1)(n
onn tnbtnaatf ωω
Donde T
πω 20 = se denomina frecuencia fundamental; na y nb se denominan
COEFICIENTES DE FOURIER. Los coeficientes de una serie de fourier pueden calcularse gracias a la ortogonalidad de las
funciones seno y coseno.
Una manera alternativa de presentar una la serie de Fourier es:
∑∞
=
−+=1
00 )cos()(n
nn tnCCtf θω
Siendo;
20aCo = ; 22
nnn baC += y
=
n
nn a
barctanθ
Ya que cada par de términos:
)()cos( 0 tnsenbtna onn ωω +
se pueden expresar como:
++
++ )()cos( 022022
22 tnsenba
btn
ba
aba
nn
n
nn
nnn ωω
haciendo
=+
=+
n
nn
n
n
nn
n
senba
b
ba
a
θ
θ
22
22cos
y
=
n
nn a
barctanθ
245
la suma puede expresarse solo en función del coseno:
[ ] )cos()()cos(cos 000 nnnnn tnCtnsensentnC θωωθωθ −=+
ORTOGONALIDAD Se dice que las funciones del conjunto )(tf k son ortogonales en el intervalo bta << si
dos funciones cualesquiera )(tfm ; )(tfn de dicho conjunto cumplen:
=≠
=∫ nmparar
nmparadt(t)(t)ff
n
b
a
nm
0
Las funciones sen t y cos t son ortogonales en el intervalo ptp <<− ; ya que:
02
cos2
==−−
∫π
ππ
π
tsentdtsent
Las funciones del conjunto:
),...3sin(),2sin(),sin(),...,3cos(),2cos(),cos(,1 tttttt oooooo ωωωωωω ;
donde T
πω 20 = son ortogonales en el intervalo
22
Tt
T <<− ;
Se verifica probándolo a pares:
a) 1)( =tfn y . )cos()( 0tmtfm ω= :
0)222
cos1
00
0
2
2
0
02
2
0
===
==−−
∫
mω
sen(mπ
mω
)T/sen(mω
mω
t)sen(mωt)dt(mω
T/
T/T/
T/
b) 1)( =tfn y . )()( 0tmsentfm ω= :
02cos2cos1
cos1
000
2
2
0
02
2
0
=−=
=−=−−
∫
)]T/(mω)-T/(mω[mω
mω
t)(mωt)dtsen(mω
T/
T/T/
T/
c) )cos()( 0tntfn ω= y )cos()( 0tmtfm ω= :
≠=≠
=∫− 02/
0t)dtt)cos(ncos(m
2/
2/
00 nmparaT
nmparaT
T
ωω
utilizando las identidades trigonométricas
246
[ ])cos()cos(21coscos BABABA +++= y ( )θθ 2cos12
1cos2 += .
d) )()( 0tnsentfn ω= y )()( 0tmsentfm ω= :
≠=≠
=∫− 02
02
2
00 nmparaT/
nmparat)dtt)sen(nωsen(mω
T/
T/
utilizando las identidades trigonométricas
[ ])cos()cos(21 BABAsenAsenB −++−= y ( )θθ 2cos12
12 −=sen .
d) )()( 0tnsentfn ω= y )cos()( 0tmtfm ω= :
m,ncualquierparat)dt(nωt)sen(mωT/
T/
0cos2
2
00 =∫−
utilizando la identidades trigonométricas
[ ])()(21cos bAsenBAsenBsenA −++=
CÁLCULO DE LOS COEFICIENTES FOURIER Los coeficientes de fourier se calculan multiplicando )(tf por )ºcos( 0tmω e integrando de –
T/2 a T/2:
∑ ∫
∑ ∫∫∫∞
= −
∞
= −−−
++=
1
2/
2/
00
1
2/
2/
00
2/
2/
0021
2/
2/
0
cos
coscoscos)cos()(
n
T
T
n
n
T
T
n
T
T
T
T
t)dt(mωt)sen(nωb
t)dt(mωt)(nωat)dt(mωadttmtf ω
que dada la ortogonalidad de las funciones de seno y coseno implica que:
∫−
=2/
2/
0 )(2 T
T
dttfT
a
,...3,2,1)cos()(2/
2/
02 == ∫
−
mdttmtfaT
T
Tm ω
,...3,2,1)()(2/
2/
02 == ∫
−
mdttmsentfbT
T
Tm ω
FORMA COMPLEJA DE LA SERIE DE FOURIER
Consideremos la serie de Fourier para una función periódica )(tf ; con periodo 0
2
ωπ=T :
247
∑∞
=
⋅+⋅+=1
00 )sin()cos(21)(
nonn tnbtnaatf ωω
Es posible obtener una forma alternativa usando las fórmulas de Euler:
sustituyendo:
dado que ii −=1
definiendo:
quedaría como:
expresión que se conoce como forma compleja de fourier.
Y sus coeficientes nc pueden obtenerse a partir de los coeficientes na ; nb como ya se dijo; o
bien:
TRANSFORMADA DE FOURIER. La Transformada de Fourier; )(ωF ; se define para una función continua de variable real; )(tf ;
mediante la siguiente formula:
∫+∞
∞−
−= dtf(t)eF(ti2 ωπω )
siendo i = − 1 ; )isen(2)cos(2e i2 ttt πωπωωπ += y u una variable que representa las
distintas frecuencias.
La Transformada de Fourier es una función compleja con una parte real y otra parte imaginaria;
es decir:
)()()( ωωω IRF +=
donde )(ωR es la parte real y )(ωI es la parte imaginaria.
La representación gráfica de la función de magnitud )(ωF se le denomina Espectro de Fourier
y se expresa en términos del modulo del número complejo:
)()()( 22 ωωω IRF +=
)()(
)()cos(00
00
21
0
21
0
tintini
tintin
eetnsen
eetnωω
ωω
ωω
−
−
−=
+=
])()([)(1
21
21
021 0000∑
∞
=
−− −+++=n
tintinin
tintinn eebeeaatf ωωωω
])()([)(1
21
21
021 00∑
∞
=
−++−+=n
tinnn
tinnn eibaeibaatf ωω
)(),(, 21
21
021
0 nnnnnn ibacibacac +≡−≡≡ −
∑∞
−∞=
=n
tinn ectf 0)( ω
∫−=
Ttin
Tn dtetfc0
1 0)( ω
248
y al cuadrado de dicha función 2
)(ωF se le denomina Espectro de potencias.
El gráfico de los módulos al cuadrado frente a la frecuencia es el periodograma o espectro
empírico de la sucesión )(xf .
El periodograma recoge la contribución que tiene cada armónico a la hora de explicar la
varianza de cada serie; y cada armónico esta caracterizado por la frecuencia en que tienen lugar
los ciclos. Los ciclos que tienen un elevado periodo (desde que tiene lugar un máximo al
siguiente máximo) tendrán una baja frecuencia y viceversa.
CÁLCULO DEL PERIODOGRAMA. Consideremos la serie temporal tX de la que disponemos de un conjunto discreto y finito de
observaciones T observaciones; generadas por un proceso aleatorio )(tx como el descrito en el
tema 1. Dado que se busca una representación de tX que se ajuste a T observaciones; ajustamos
los datos a un polígono trigonométrico que se asemeje a una serie de fourier; escogiendo iω
como:
T
ii
⋅= πω 2
es decir:
( ) ( )∑=
⋅⋅+⋅⋅+=k
iiiot T
tibTtiaaX
1
2sin2cos21 ππ
( ) ( ) ( )∑=
⋅⋅+⋅⋅=−=k
iiitt T
tibTtiaXx
1
2sin2cosˆ ππµ 22
La forma habitual de obtener el periodograma; es estimar por mínimos cuadrados los
coeficientes ia y ib para cada 2Tk = armónico si el número de observaciones es par T o
( )2
1−= Tk si es impar; en un modelo especificado de la siguiente forma:
tt vtbtax +⋅+⋅= ωω sincos
En la que tx sería la serie armónica; Tp
p⋅== πωω 2 ; T es el tamaño de la serie y coincide
con el periodo de mayor ciclo que es posible estimar con el tamaño de la serie; p indica el
orden del armónico de los 2
Tciclos; tv
es un residuo no explicado al que se puede considerar
22 nótese que T
Xa
T
it∑
== 102
1 , lo que implica que ∑=
=T
itX
Ta
10
2
249
irrelevante (caso deterministico) o que verifica las propiedades clásicas de la perturbación de los
modelos econométricos.
El periodograma o estimador del espectro se obtendría entonces a partir de la representación de
( ) ( )π
ω4
22pp
i
baTI
+= frente a los p armónicos; en tanto que la contribución de la varianza por
cada armónico; sería ( )
2
22pp ba +
.
Si una serie temporal de ciclos empíricos presenta en su periodograma unos pocos ciclos que
explican un porcentaje significativo de su varianza; se puede obtener el ciclo teórico de dicha
serie temporal a partir de los iω y de los armónicos correspondientes a dichos ciclos.
CALCULO DEL PERIODOGRAMA A TRAVÉS DE LA TRANSFORMADA DISCRETA DE FOURIER Tomando N muestras de una señal periodica )( kk tfy = de periodo T en instantes separados
por intervalos regulares:
N
TNt
T
kTt
N
Tt
N
Ttt Nk
)1(,...,,...,
2,,0 1210
−===== −
Cabe aproximarla mediante una combinación )(tg de funciones T-periódicas conocidas que
tome en dichos puntos el mismo valor que f. Este procedimiento se conoce como interpolación
trigonométrica.
Las funciones T-periódicas que se utilizan son los armónicos complejos jnwte con T
wπ2= y
puesto que hay N puntos; si queremos que el problema tenga solución única debemos combinar
un total de N armónicos.
La función )(tg utilizada en la aproximación; toma entonces la forma general:
( ) ∑−
=
−− =++++=
1
0
)1(1
2210
1...
1)(
N
n
inwtn
wtNjN
wtjjwt eN
eeeN
tg βββββ
Tal que )( kk tgy = para cada k=0;1;…;N-1.
Entonces:
∑ ∑∑−
=
−
=
−
=
===1
0
1
0
21 111 N
n
N
n
nkN
NinkN
on
jnwtk w
Ne
Ne
Ny k
η
π
ηη βββ ; 1,...,1,0 −= Nk
Siendo
= N
jwNπ2exp la raíz primitiva N-ésima de la unidad.
En forma matricial se expresa:
250
( )
( )
( ) ( ) ( )( )
=
−−−−−−
−
−
−
− 1
2
1
0
111121
12
12242
12
1
2
1
0
,
.
..1
.......
..1
.......
..1
..1
1.1.111
1
,
.
N
k
NNNNN
kNkkk
N
N
N
k
wwww
wwww
wwww
wwww
N
y
y
y
y
y
β
β
βββ
η
η
η
η
donde [ ] 1
0,
−==
N
knnk
N wF la matriz de Fourier de orden N.
Al vector β se le denomina transformada discreta de Fourier del vector y ; denotándose como
: )(yDFT=β .
Una forma de obtener la DFT es a través del algoritmo FFT (Fast Fourier Transform);
desarrollado por diseñado por J.W. Cooley y John Tukey en 1965.
Si la función que interpolamos es una función real de periodo T; kk ytg =)( ;
donde 1,...,1,0 −= Nk ; que utiliza la forma general:
( )∑ +=n nn nwtbnwtatg )sin()cos()(
con Tw π2= ; suponiendo que MN 2= ; si )(yDFT=β ; entonces:
Nao
0β= ;
Na n
n
)Re(2 β= ;
Nb n
n
)Im(2 β−= ; ( )1,...,2,1 −= Mn ;
Na M
M
β= ;
y el polinomio trigonométrico:
( )∑−
=
+++=1
00 )cos()()cos()(
M
nMnn Mwtanwtbnwtaatg
251
Ejemplo
Utilizamos los datos del ejemplo 2; serie tX ; sin tendencia; que se cargan en R:
>y <- c(0.323027827 ; -0.738124684; -0.281638647; 1.202761696;
2.604736789; 4.537192839; 2.548626219; 2.505164067; 3.786603757;
2.882018343; 2.369627491; 0.852706545; -0.824994893; -1.637716864; -
2.25061832; -4.212245866; -4.628168995; -4.884516748; -4.606265808; -
4.832662799, -5.024859396 , -5.264607805; -3.795776075; -
3.75917228; -3.827743607; -4.227666609; -2.146472166; -1.176118654;
1.299914689; 0.741084701; 2.494315284; 0.969390431; 1.591509703;
2.572570135; 4.566052768; 4.551800817; 4.093968956 ; 4.8307686;
4.506804092; 5.317472861; 3.922041704; 3.119257741; 1.637838373;
1.310811053; 1.30987963; 1.365242501; 1.065470411; 3.278613974;
1.550471324; 0.824032479; -1.747812061; -0.298707783; -1.581339071; -
2.24208859;-1.495846423; -1.044908103; -0.190374706; 0.380989772; -
1.01953942; -2.168259106; -1.511547698; -1.230496273; -2.216220919; -
2.507357658; -2.430312769; -1.93130783; -1.855687473; -2.8340453; -
1.020897877; -0.609700176; -0.617763633; 0.127473247; 0.900574754;
0.170835155; -0.849866595; 0.159510213; -1.147782448; -2.817090398; -
2.220483265; -1.701096798; 0.381269939; 1.697401014; 2 .869379435;
2.846112408; 2.707533939; 3.016404109; 2.841756183; 1.633645998; -
0.298897198; 0.367395225; 0.645278822; 1.092542147; 1.131070577; -
0.075107037; 0.979539535; 0.480475826; -0.551598408; -1.569180997; -
2.198930053; -2.85734981)
Se calcula la transformada de Fourier
>z <- fft(y)
A través de la inversa se obtiene de nuevo la serie y:
>y2 <- fft(z;inverse=TRUE)/100
Para representar el periodograma solo se necesitan los (n/2)+1 valores de la FFT:
>CF = abs(fft(y)/sqrt(100))^2
>P = (4/100)*CF[1:51]
Obtenemos las frecuencias armónicas de 1/100 en pasos de 0 a 0.5;
> f=(0:50)/16
y realizamos la representación gràfica del periodograma:
> plot(f; P; type="l")
252
0.0 0.5 1.0 1.5 2.0 2.5 3.0
01
23
4
f
P
Se puede calcular directamente el espectro con:
> spec.pgram(y)
253
0.0 0.1 0.2 0.3 0.4 0.5
1e-0
31e
-01
1e+0
1
frequency
spec
trum
Series: yRaw Periodogram
bandwidth = 0.00289
TEST SOBRE EL PERIODOGRAMA Una forma de contrastar la existencia de algún ciclo en el periodograma de una serie temporal es
el test de Fisher; estadístico g (Fisher; 1929) o relación entre la mayor varianza asociada a una
determinada frecuencia (iω ); y la varianza total de la serie.
∑=
=2
1
2
2
2
maxn
Pp
p
wn
wg
Para probar la significación del periodo p se contrasta el estadístico g contra la z de una
distribución normal (0;1); siendo la regla de decisión rechazar la hipótesis nula sobre un
componente periódico en tY si la g calculada excede de la z en un nivel de significación del
100α%.
La manera habitual de contrastar la existencia de algún ciclo en el periodograma de una serie
temporal a través del estadístico es calculando:
254
2
2
2
max
S
SG =
El ciclo es significativo si el valor G de esta relación es igual al valor crítico calculado según la
siguiente fórmula:
1)ln()ln(
1 −−
−= mmp
eGc
Siendo ln(p) el logaritmo neperiano del nivel de probabilidad elegido y m el número total de
datos de la serie (en series de más de 30 datos).
Una prueba para estudiar la dependencia serial (Durbin; 1969) en series de observaciones
estacionarias Tyy ,...,1 se realiza sobre la grafica del periodograma acumulado:
∑∑=
=
=j
rm
rr
rj
p
ps1
1
donde mr ,...,1= es el periodograma ordinario:
( )2
1
22∑
=
=T
t
Tirttr ey
Tp π
El periodograma jp calculado para series Tyy ,...,1 de variables independientes ),( 2σµN ; se
calcula:
∑=
=T
tij T
jty
Ta
1
2cos
2 π; ∑
=
=T
tij T
jty
Tb
1
2sin
2 π; ,
2
1,...,1,22
=+= Tjbap jjj
donde TT2
1
2
1 =
para T y
2
1
2
1 −T para el extremo de T; por simplicidad asumimos que el
extremo de T es 12 += mT .
Y su representación gráfica de jp contra j presenta una alta apariencia de irregularidad en su
inspección visual. Por ello; una mejor manera de presentar la información de los sp j ' es
hacerlo a través del gráfico del periodograma acumulado; js .
Se presupone que cuando Tyy ,...,1 esta independientemente y normalmente distribuida;
11,..., −mss se distribuye igual que el orden estadístico de 1−m muestras independientes de la
distribución uniforme (0;1). Bartlett’s (1954;1966; p 361) sugiere para probar la independencia
serial; probar la máxima discrepancia entre js y su expectativa; ie. mj / . Para una probar un
exceso de bajas frecuencias relativas frente a altas frecuencias; que equivaldría a la expectativa
de presencia de correlación serial positiva este enfoque conduce al estadístico:
−=+
m
jsc j
jmax
255
Por el contrario un test contra excesos de variaciones de alta frecuencia el estadístico apropiado
es:
−=−j
js
m
jc max
El estadístico que corresponde a las dos partes de la prueba sería:
( )−+=−= ccm
jsc j
j,maxmax
Este estadístico esta estrechamente relacionado con el de Kolmogoroiv-Smirnov nnn DDD ,, −+ y
su forma modificada nnn CCC ,, −+ considerado por Pyke (1959) y Brunk (1962). Por ejemplo;
)1()1(max −−−=− mjsD jj
n y +− = cCn .
Los valores críticos para estos estadísticos están dado en la Tabla nºI.1; y el procedimiento para
utilizar estos valores es como sigue. Si deseamos probar el test de un exceso de bajas
frecuencias frente a las altas frecuencias; entonces el valor obtenido en la tabla, 0c es el valor
crítico apropiado al valor de +c ;se dibujaría en el gráfico la línea; mjcy o += y la
trayectoria que muestra js ; obteniendo los valores que sobrepasan la línea ( )jsmj , . Si js
cruza la línea; se rechaza la hipótesis de independencia serial. De igual manera; un test sobre al
exceso de altas frecuencias frente a las bajas frecuencias se rechaza si el trayectoria de js cruza
la línea mjcy o +−= .
256
Ejemplo
Partimos de una serie temporal generada a partir de un paseo aleatorio o random walk:
ttt uYY ++= −15,0 .
La serie tY presenta una tendencia estocástica; y vamos a descomponerla utilizando un modelo
armónico; partiendo de una representación de la tendencia ó movimiento relevante de la serie
257
temporal obtenida a partir de una tendencia cuadrática; 2T ciclos armónicos (k ) y un residuo
aleatorio tv :
( ) t
k
poppt vtpbtpactbtaY +++++= ∑ ωω sincos 0
2
de manera que
( ) t
k
popptt vtpbtpaXctbtaY ++==−−− ∑ ωω sincos 0
2
En las figuras siguientes se representa la serie de tendencia y la serie de ciclo en la que se va a
estimar un modelo de regresión armónica:
-10
0
10
20
30
40
50
60
1 8 15 22 29 36 43 50 57 64 71 78 85 92 99
serie
tendencia
El armónico de periodo 100 se elabora a partir de ( )1002cos t⋅π y ( )100
2sin t⋅π para
t=1;….;100. La representación gráfica de ambas series aparece en la figura siguiente:
258
La regresión minimo cuadrática entre ambas series y la serie libre de tendencia (tX ); ofrece el
siguiente resultado:
( ) ( ) tt vttX +⋅+⋅= 1002sin1982775,0100
2cos9645989,1 ππ
El armónico de periodo 100 tendrá la apariencia de la figura siguiente:
Este proceso repetido para los 50 periodos permite obtener los coeficientes con los que elaborar
el peridograma y obtener la contribución de cada armónico a la varianza de la serie:
259
Frecuencia
Periodo
pa
pb ( ) ( )π
ω4
22pp
i
baTI
+=
( )2
22pp ba +
1
100;0 1;9645989 0;1982775 31;0269598 1;94948138
2 50;0 -4;5393342 -1;2467640 176;3434804 11;0799877
3 33;3 -0;8601427 0;9799692 13;5296423 0;8500925
4 25;0 0;0835776 0;8487047 5;7875496 0;36364247
5 20;0 0;4166653 -0;3232265 2;2129323 0;13904264
6 16;7 -0;2059344 -0;3631882 1;3871519 0;08715732
7 14;3 0;4043324 -0;6204093 4;3639683 0;27419622
8 12;5 0;9442994 0;2493234 7;5906052 0;47693179
9 11;1 0;3926785 -0;0310192 1;2347129 0;0775793
10 10;0 0;1283672 -0;0894678 0;1948265 0;01224131
11 9;1 0;5348622 -0;1026948 2;3604572 0;1483119
12 8;3 0;4157705 -0;6015541 4;2552659 0;26736624
13 7;7 -0;0913588 -0;1203558 0;1816908 0;01141597
14 7;1 -0;3283259 -0;6568280 4;2909838 0;26961046
15 6;7 0;2314942 -0;3688880 1;5093294 0;09483396
16 6;3 0;0228915 -0;5384152 2;3110490 0;14520749
17 5;9 0;6861954 0;2823306 4;3813344 0;27528736
18 5;6 -0;0680460 0;2345241 0;4745347 0;02981589
19 5;3 0;3848785 -0;1703442 1;4097036 0;08857429
20 5;0 0;0347357 0;6665654 3;5453033 0;22275798
21 4;8 0;1779031 -0;4472488 1;8436590 0;11584051
22 4;5 -0;4350383 0;1164205 1;6139270 0;10140602
23 4;3 0;1130713 -0;3521380 1;0885109 0;06839315
24 4;2 0;1497142 -0;0947065 0;2497433 0;01569184
25 4;0 -0;0408499 -0;2790311 0;6328565 0;03976354
26 3;8 0;4000049 -0;0587758 1;3007618 0;08172927
27 3;7 -0;1788847 0;1668144 0;4760862 0;02991338
28 3;6 0;0722675 -0;0849189 0;0989451 0;0062169
29 3;4 0;3224180 -0;0273876 0;8332036 0;05235173
30 3;3 -0;2087289 0;0631024 0;3783880 0;02377482
31 3;2 0;1048227 -0;2653191 0;6476174 0;040691
32 3;1 0;1786666 -0;3176133 1;0567885 0;06639998
33 3;0 -0;1230019 -0;1984293 0;4337265 0;02725184
34 2;9 -0;0622384 0;0264338 0;0363857 0;00228618
35 2;9 -0;1590939 -0;1623496 0;4111630 0;02583413
36 2;8 0;1014609 -0;1111765 0;1802790 0;01132727
37 2;7 0;2002842 -0;1353838 0;4650711 0;02922128
38 2;6 0;0203165 -0;3006128 0;7224110 0;04539042
260
Frecuencia
Periodo
pa
pb ( ) ( )π
ω4
22pp
i
baTI
+=
( )2
22pp ba +
39 2;6 -0;1624371 -0;1121361 0;3100362 0;01948015
40 2;5 0;0803258 -0;0195769 0;0543950 0;00341774
41 2;4 0;2538179 -0;0592717 0;5406229 0;03396834
42 2;4 0;1153917 0;0975809 0;1817332 0;01141864
43 2;3 0;0424267 -0;0466046 0;0316083 0;00198601
44 2;3 -0;1812651 0;0086732 0;2620665 0;01646612
45 2;2 0;1713397 -0;1175139 0;3435104 0;0215834
46 2;2 0;1209881 0;0456828 0;1330937 0;00836253
47 2;1 0;2881007 -0;3457646 1;6118830 0;1012776
48 2;1 0;0070527 0;0817615 0;0535929 0;00336734
49 2;0 0;0804486 -0;1183934 0;1630461 0;01024449
50 2;0 0;0000000 -0;0938575 0;0701016 0;00440461
Como vemos es el segundo armónico; el ciclo de periodo 50; el que más contribuye a la
varianza de la serie.
La representación gráfica del periodograma de la serie de ciclo sería entonces el siguiente:
Para comprobar la significación estadística del ciclo de o periodo 50; calculamos es
estadístico 37605,00681,182
07999,11
2
max2
2
=×
==S
SG
El ciclo es significativo para un nivel de probabilidad del 95% ya que el valor G de esta relación
superior al valor crítico calculado 1315,01 49)50ln()05,0ln(
=−=−
eGc .
La representación gráfica del test sobre el periodograma acumulado:
261
-0,2000000
0,0000000
0,2000000
0,4000000
0,6000000
0,8000000
1,0000000
1,2000000
1,4000000
0,02
0,08
0,14 0,2
0,26
0,32
0,38
0,44 0,5
0,56
0,62
0,68
0,74 0,8
0,86
0,92
0,98
Contrastar la presencia de ciclos de baja frecuencia frente a los ciclos de alta frecuencia; al
cruzar la trayectoria de js ; la banda superior de los valores críticos del test.
ENVENTANADO Hasta ahora hemos supuesto que las frecuencias eran frecuencias de Fourier y por tanto
Tp
p⋅== πωω 2 ; donde p indica el orden del armónico de los
2
Tciclos si T es par o
2
1−Tsi T es impar; y se interpreta como el número de veces que un sinusoide (un armónico) de
frecuencia pω ejecuta un ciclo completo en la muestra considerada; es decir si 4=p ; la
frecuencia asociada T42
4⋅= πω al armónico determina que este ejecute 4 ciclos completos a
lo largo de T. A este tipo de frecuencias se denominan frecuencias de Fourier;
Si suponemos que existe un armónico que se repite cuatro veces y media; dicha frecuencia no
producirá ciclos enteros en la muestra y nos encontramos con una frecuencia que no es de
Fourier.
Estas frecuencias originan un problema que se denomina “leakage” o distorsión; que determina
que los pesos significativos del periodograma se repartan entre frecuencias contiguas.
Una de las maneras de solucionar el “leakage” consiste en aplicar transformar la serie original
multiplicándola por una expresión que se denominan “Data Windows” o “taper”; y obtener el
periodograma a partir de la serie transformada.
Así es estimador de la función de densidad espectral puede considerarse como:
Iwf ⋅=)(ˆ ω
262
Donde w es la función de pesos o ventana espectral y I es el periodograma.
Dado de que lo que se trata es de promediar algunos valores contiguos del periodograma; podría
utilizarse una media móvil de amplitud n :
−±±±±==casootroen
nt
nwt
;02
1...210;
1
Han sido propuestas gran número de ventanas; las más utilizadas son:
Ventana de Tuckey
+−=T
taawt πcos221 ; Tt ,....,2,1=
Cuando 41=a ; tenemos la ventana de Tuckey-Hamming.
• Ventana de Parzen
=
−
=
+
−
=T
Tt
M
t
Tt
T
t
T
t
wt
,...,2
,12
2,...,2,1,661
3
32
• “Boxcar”;
( )
( )
+−=
+−
−++=
=
+−
=
TmTtT
tmTmmt
mtm
t
wt
,...,1,212
cos12
1
,...2,1,1
,...,2,1,21
cos12
1
π
π
donde m es arbitrario; si bien suele elegirse un valor de mm tal que Tm2 se sitúe entre 0;1 y
0;2.
RELACIÓN DEL PERIODOGRAMA Y LA FUNCIÓN DE AUTOCOVARIANZA En un sentido amplio; para que un proceso sea estacionario es suficiente que su esperanza y su
función de autocovarianza sea independiente de t.
Es decir;
263
kxExE ktt ∀= + );()( .
Si un proceso es estacionario en media; entonces ∑=
=n
iix
n 1
1µ es un estimador insesgado y
consistente de )( txE .
Si un proceso es estacionario en covarianza; se cumple la siguiente igualdad [ ] [ ] ( ) )()()()()(),( τγτττγ =+−+⋅−= txEtxtxEtxEt ; lo que significa que la función
de autocovarianza no depende de t; )()( τγτγ −= ; y el estimador de )(τγ viene dado por
∑−
=+ −−=
kn
tktt xx
nKC
1
)ˆ)(ˆ(1
)( µµ .
La varianza; )0(γ ; se estimaría a partir de ∑=
−−=n
ttt xx
nC
1
)ˆ)(ˆ(1
)0( µµ .
La idea básica del análisis espectral es que todo proceso estocástico estacionario admite una
descomposición única de su varianza; en la aportación que a la misma realizan armónicos de
diferentes frecuencias. Un armónico de frecuencia ω es una función de la forma:
)sin()cos( tbta ⋅+⋅ ωω ωω23
En el análisis armónico; las series temporales no son consideradas funciones continuas como
tal; sino que se obtienen a partir de una suma de n ciclos con una amplitud y un periodo
determinado; o lo que es lo mismo n de diferentes armónicos:
πωωωωω ≤<<<<⋅+⋅=∑=
n
n
iiiii tbtatx ...0;)sin()cos()( 21
1
Siendo ia y ib variables aleatorias con24
jibaE
jisi
jisibbEaaE
bEaE
ji
jiji
ii
,0)(
;0
;)()(
0)()(2
∀=
≠=
==
==
σ
En este tipo de procesos la función de autocovarianza )(τγ se obtiene:
)cos()(1
2 τωστγ ⋅=∑=
i
n
ii
23 La expresión )sin()cos( tbta ⋅+⋅ ωω ωω da lugar a una función periódica de periodo ω
π2 24 La estacionariedad de este proceso aleatorio puede seguirse en Contreras, D y Escolano J (1984): EI análisis espectral como instrumento para detectar la estacionalidad. ESTADISTICA ESPAÑOLA Núm. 104, i 984, págs. 101 a 144 http://www.ine.es/revistas/estaespa/104_6.pdf
264
En donde iσ es la varianza del armónico i-esimo; de manera que en ∑=
=n
ii
1
2)0( σγ se muestra
que la varianza total del proceso es la suma de las varianzas de cada armónico.
TEOREMA DE PASERVAL Sea f una función continua en el intervalo [ ]ππ ,− de periodo π2 ; con desarrollo de Fourier
de f :
∑∞
−∞=
=x
inxnecxf )(
donde los coeficientes nc han sido obtenidos a partir de los coeficientes na , nb .
Entonces se verifica que:
( ) dxxfan
n ∫∑ −
∞
−∞=
=π
ππ22
2
1
Particularizando a la serie función periódica )(tf , con periodo 0
2
ωπ=T :
∑∞
=
⋅+⋅+=1
00 )sin()cos(21)(
nonn tnbtnaatf ωω
La identidad de Paaserval quedaría:
[ ] ∑∫∞
=
−++=
1
2222
2
1)(
1
nnno baatf
π
ππ
Las series temporales no son consideradas funciones continuas como tal; sino muestras de
señales continuas tomadas a una misma distancia temporal a partir de un valor inicial oY y
siendo T el tamaño de la serie. De acuerdo a lo anterior; en la función periódica )(tf la
potencia promedio está dada por:
[ ] ( )∑∫=
−++=
2
1
2222
2
2
2
1
4
1)(
1T
nnno
T
Tbaatf
T
que muestra así que el periodograma estudia de hecho la distribución de la varianza o potencia
de la serie en función de los diversos armónicos:
( ) 2,2
1 2
2
1
1
222 Tqaba T
q
nnn =++= ∑
−
=
σ
CROSS-ESPECTRO DE UN PROCESO BIVARIANTE
265
Un proceso bivariante )(tz es un par formado por dos procesos univariantes; )(tx y )(ty ;
donde [ ] )()( ttxE xµ= y [ ] )()( ttyE yµ= .
La función de autocovarianza de )(tx será:
( )( ) )()()()(),( τµτµτγ +−+−= ttxttxEt xxx
en tanto que la función de autocovarianza de )(ty será:
( )( ) )()()()(),( τµτµτγ +−+−= ttyttyEt yyy
Se denomina función de cross-varianza o covarianza cruzada a:
( )( ) )()()()(),( τµτµτγ +−+−= ttyttxEt yxxy
Hay que señalar que ),( τγ txy no es igual a ),( τγ tyx ; pero existe una relación entre las dos
funciones; ya que
),(),( ττγτγ −+= tt yxxy
Señalar; por último; que la covarianza entre )(tx y )(ty sería )0,(tyxγ .
Si se asume la estacionariedad de )(tx y )(ty ; entonces [ ] xtxE µ=)( y [ ] ytyE µ=)( ; y la
función de cross-varianza no dependerá más que del retardo τ .
Suponiendo que 0== yx µµ ; se comprueba que ),( τγ txy ; no depende más que del retardo τ ;
es decir ).(),( τγτγ xyxy t =
( )( ) ( )( ) tsstystxEtytxEtxy ,,)()()()(),( ∀+++=+= τττγ
La función de correlación cruzada se define como:
)0()0(
)()(
yx
xyxy γγ
τγτρ =
Cuando 0=τ ; )0(xyγ es la covarianza habitual y
)0()0(
)0()0(
yx
xyxy γγ
γρ =
el coeficiente de correlación de Pearson entre )(tx y )(ty .
Los estimadores de )(τγ xy y )(τρ xy se calculan así:
( )( )
( )( )
−−−−=−+−
−=−+−=
∑
∑−
=
−
=
)1(,...,2,1;)()(1
1,...,1,0;)()(1
)(
1
1
TkyktyxtxT
TkyktyxtxTkC kT
t
kT
txy
266
)0()0(
)()(
yx
xyxy
CC
kCkr
⋅=
La función de autocovarianza que obtenemos en el dominio temporal; tiene también su
correspondiente representación en el dominio frecuencial; esta es el cross-espectro o espectro
cruzado. Así; si partimos de dos procesos estacionarios )(tx y )(ty ; con la siguiente
representación espectral:
∫∫ ⋅+⋅=ππ
ωωωω00
)()(cos)( xx dVtsendUttx
∫∫ ⋅+⋅=ππ
ωωωω00
)()(cos)( yy dVtsendUtty
Donde )(ωiU e )(ωiV ; yxi ,= son procesos estocásticos con dominio definido en ),0( π ; con
media 0 y de incrementos incorrelacionados. Dado que dichos procesos son conjuntamente
estacionarios en covarianza; se demuestra que:
[ ] [ ] [ ] [ ] 0)'()()'()()'()()'()( =⋅=⋅=⋅=⋅ ωωωωωωωω yxyxyxyx dUdVEdVdUEdVdVEdUdUE
si 'ωω ≠
[ ] [ ] ωωωωωω dCdVdVEdUdUE yxyx )()()()()( =⋅=⋅
[ ] [ ] ωωωωωω dqdUdVEdVdUE yxyx )()()()()( =⋅−=⋅
Funciones que permiten expresar la cross-varianza como:
∫∫ ⋅+⋅=ππ
ωωωωωωτγ00
)()(cos)( dqtsendCtxy
Que implica que la covarianza entre )(tx e )(ty sea:
∫=π
ωωγ0
)()0( dCxy
El cross-espectro se formula como:
∑∞
−∞=
−⋅=τ
ωττγπ
ω ixyxy ef )(
1)( ; πω ≤≤0
Dado que en general el cross-espectro es complejo; se define el cross-espectro (C) como la parte
real de cross-espectro y el espectro de cuadratura (Q) como la parte imaginaria; que además
coinciden con )(ωC y )(ωq :
)()()( ωωω iqCf xy −=
267
Entonces se deduce que:
∑∞
−∞=
⋅=τ
ωττγπ
ω cos)(1
)( xyC
∑∞
−∞=
⋅=τ
ωττγπ
ω senq xy )(1
)(
Otra forma de presentar las funciones )(ωC y )(ωq ; sería la siguiente:
∑∞
−∞=
⋅=τ
ωττγπ
ω cos)(2
1)( xyC
∑∞
−∞=
⋅=τ
ωττγπ
ω cos)(2
1)( xyC ; πωπ ≤≤−
La representación trigonométrica del cross-espectro será:
)()()( ωφωαω xyixyxy ef ⋅=
Donde
)()()( 22 ωωωα qCxy +=
Se conoce como espectro de cross-amplitud.
Y
−=)(
)()(
ωωωφ
C
qarctgxy
Llamado espectro de fase.
Del cross-espectro y de la función de densidad espectral individual de las dos series )(tx e )(ty
se obtiene la función de coherencia:
)()(
)()()(
22
ωωωωω
yx ff
qCR
⋅+= .
El cross-espectro representa la aportación a la covarianza entre )(tx y )(ty de sus diversos
componentes armónicos. Como su interpretación no es simple; se utilizan las funciones de
espectro de fase y coherencia; ya que el espectro de fase revela el desfase o retardo que en el
comportamiento cíclico sigue una serie respecto a la otra; y el análisis de la función de
coherencia permite identificar si la correlación que se da entre las dos series se debe a que
ambas siguen un comportamiento cíclico en determinados periodos; permitiendo identificar la
duración o periodo de los armónicos que dominan en ambas series a la vez y que producen una
alta correlación.
268
La construcción del cross-espectro cuando 0=τ ; y )0(xyγ es la covarianza habitual; da lugar a
las siguientes funciones )(ωC y )(ωq :
πγ
ω2
)0()( xyC =
0)( =ωq
Ya que el coseno de 0=ωτ ; es uno; y su seno es cero.
Si [ ] 0)( == xtxE µ y [ ] 0)( == ytyE µ ; es decir ambas series tienen un valor medio igual a
cero; la covarianza entre tx e ty ; sería ∑=
=T
tttxy yx
1
)0(γ ;y la parte real del cross-espectro se
obtendría a partir de:
∑=
=T
ttt yxC
12
1)(
πω
TEOREMA DE PLANCHAREL Sean )(xA y )(xB dos funciones continuas de periodo π2 cuyos desarrollos de Fourier son
∑∞
−∞=
=x
inxneaxA )(
y
∑∞
−∞=
=x
inxnebxB )(
Entonces se verifica la relación de Plancharel entre los correspondientes productos escalares:
( ) ( )dxxBxAban
nn ∫∑ −
∞
−∞=
=π
ππ2
1
Si )()( xBxA = se obtiene la identidad de Parseval
( ) dxxAan
n ∫∑ −
∞
−∞=
=π
ππ22
2
1
De igual manera que la identidad de Parseval estudia la distribución de la varianza de una serie
desarrollada en sus armónicos, la de Plancharel estudia la covarianza entre dos series
desarrolladas en sus armónicos.
269
Partiendo de una serie armónica ( )∑=
+=k
poppt tpbtpax
10 sincos ωϖ y otra definida como
( )∑=
+=k
poppt tpbtpay
1
*0
* sincos ωϖ , en donde 2Tk = armónicos si el número de
observaciones es par T o ( )2
1−= Tk si es impar, la expresión de la igualdad de Plancharel
sería:
( )∑∫=
−+=
2
1
**2
2 2
11T
nnnnnt
T
T t bbaaxyT
El producto escalar de tx por ty
( )( )∑ ∑∑= ==
++=⋅
T
t
k
poppopp
T
ttt tpbtpatpbtpayx
1 1
*0
*0
1
sincossincos ϖϖϖϖ
equivale a
( )∑
=
+2
1
**
22
T
t
pppp bbaaT
.
270
BIBLIOGRAFÍA
Albright,R., Lerman,S. y Manski,C. (1977), “Development Of An Estimation Program For The
M. Probit Model”. Federal Highway Administration
Akaike, H. (1974), “A new look at the statistical model identification”, IEEE Transactions on
Automatic Control AC-19, pp. 716–723.
Amemiya, T. (1978), “On A Two-Step Estimation Of A Multivariate Logit Model”, Journal Of
Econometrics 8.
Anderson, R. L. (1942), “Distribution of the Serial Correlation Coefficient”, Annals of
Mathematical Statistics, 1942: 1-13.
Aznar, A. y Trívez, F. J. (1993), Métodos de Predicción en Economía II: Análisis de Series
Temporales, Ed. Ariel.
Balestra, P. y Nerlove, M. (1966), “Pooling Cross Section And Time Series Data In The
Estimation Of Coefficients In A Structural Equation”, Econometrica 34.
Bassmann, R. (1957). “A Generalized Classical Method Of Linear Estimation Of Coefficients
In A Structural Equation.” Econometrica 25, pp. 77-83
Box, G.E.P., Jenkins, G.M. y Reinsel, G.C. (1994), Time Series Analysis - Forecasting and
Control, 3rd Edition, Prentice Hall.
Breitung J, Bruggemann R, L Lutkepohl H (2004). “Structural Vector Autoregressive Modeling
and Impulse Responses”. In H Lutkepohl, M Kratzig (eds.), “Applied Time Series
Econometrics,” chapter 4, pp. 159–196. Cambridge University Press, Cambridge
Burns, A.F. y Mitchell, W.C. (1947), Measuring Business Cycles, New York: Columbia
University Press For The NBER.
Chateld, Cris (2004). The Analysis of Time Series: An Introduction (6th edn.), 2004. CRC Press
271
Chow, G.C. (1983), Econometrics, McGraw-Hill, New York.
Christ (1960). “Simultaneus Equations Estimation: Any Veredict Yet?”. Econometrica 28, pp.
835-845.
Cleveland, R.B. , Cleveland W. S., McRae J. E, y Terpenning I. (1990). “STL: A Seasonal-
Trend Decomposition Procedure Based on Loess”. Journal of Official Statistics, 6, 3–73.
Cochrane, D. y Orcutt, G. H. (1949a), “Application Of Least Squares Regression To
Relationships Containing Autocorrelated Error Terms”, Journal of American Statistical
Association 44, pp. 32-61.
Cochrane, D. y Orcutt, G. H. (1949b), “A Sampling Study Of The Merits Of Autorregressive
And Reduced Form Transformations In Regression Analysis” Journal of American Statistical
Association 44, pp. 356-372.
Contreras, D y Escolano J (1984): “EI análisis espectral como instrumento para detectar la
estacionalidad”. ESTADISTICA ESPAÑOLA Núm. 104, i 984, págs. 101 a 144 .
Dickey, D.A. y W.A. Fuller (1979), “Distribution of the Estimators for Autoregressive Time
Series with a Unit Root,” Journal of the American Statistical Association, 74, p. 427–431.
Durbin, J. y Koopman, S. J. (2001), Time Series Analysis by State Space Models (Oxford
Statistical Science Series, nº 24), Oxford University Press.
Durbin, J. y Watson, G. S. (1950), “Testing for Serial Correlation Least Squares Regressions”,
Biometrika, vol 37. pp. 409-428.
Engle, Robert F. (1974), Band Spectrum Regression,International Economic Review 15,1-11.
Frisch, R. (1933). Pitfalls In The Statistical Construction Of Demand and Supply Analysis,
Hans Buske Verlag. Leipzig.
Frisch, R. (1936). “Note On Term 'Econometrics' “, Econometrica 1, pp. 1-4.
Gallant, A. R.(1981) "On the Bias in Flexible Functional Forms and an Essentially Unbiased Form." J. Econometrics 15(1981):211-45.
272
Gallant, A. R.(1984) "The Fourier Flexible Form." Amer. J. Agr. Econ. 66(1984):204-15
Goldfield, S. M. y Quandt, R. E. (1965), “Some test for Homocedasticy”, Journal of American
Statistical Association. Vol 37. pp 539-547.
Granger, C. W. J. (1969), “Investigating causal relations by econometric models and cross-
spectral methods”, Econometrica 37, p. 424-438.
Granger, C.W.J.(1981), “Some properties of time series data and their use in econometric model
specification”, Journal of Econometrics 16, pp. 121-130.
Granger, C.W.J., y Newbold, P. (1974), “Spurious regressions in econometrics”, Journal of
Econometrics 2, pp. 111-120
Greene, W. H. (2000), Análisis Econométrico, Ed. Prentice Hall
Gujarati, D. (1997), Basic Econometrics, McGraw-Hill
Gujarati, D. (2003), Econometría, Ed. McGraw-Hill
Haavelmo, T. (1943). “The Statistical Implications Of A System Of Simultaneous Equations.”
Econometrica 11, pp. 1-12.
Haavelmo, T. (1944). “The Probability Approach In Econometrics”, Suplemento de
Econometrica 12. pp. 1-118.
Hamilton, J. D. (1994), Time Series Analysis, Princeton University Press.
Hannan, E.J. (1963), Regression for Time Series, in Rosenblatt, M. (ed.), Time Series Analysis,
New York, John Wiley.
Harvey, A.C. (1978), Linear Regression in the Frequency Domain, International Economic
Review, 19, 507-512.
Hausman, J.A. (1974), “Estimation and Inference in Nonlinear Structural Models”, Annals of
Economic and Social Measurement, con Berndt E., Hall R.E. y Hall, B.H. October 1974.
273
Hausman, J.A. (1974): “Full Information Instrumental Variables Estimations of Simultaneas
Equations Systems”, Annals of Economic and Social Measurement, Vol 3. nº 4. pp. 641-652.
Hausman, J.A. (1978), “Specification tests in econometrics”, Econometrica, 46, pp. 1251-71.
Hildreth, C. (1960). “Simultaneus Equations Estimation: Any Veredict Yet?”. Econometrica 28,
pp. 846-854.
Hyndman, R. (2014): Forecasting functions for time series and linear models. R-Package
Version 5.5, URL http://cran.r-project.org/web/packages/forecast/index.html
Hsiao, C. (1986), Analysis of Panel Data. Cambridge University Press.
Johnston, J. (1997), Econometric Methods. McGraw-Hill.
Johnston, J. y Dinardo, J. (2001), Métodos De Econometría, Ed. Vicens-Vives 3ª Ed.
Intriligator, M. D. (1978). Econometrics Models. Techniques And Applications. North-Holland.
New York.
Klein, L. R. (1960). “Single Equation Vs. Equation System Methods Of Estimation In
Econometrics.” Econometrica 28, pp. 866-871.
Klein, L. R. y Goldberger, A. (1955), An Econometric Model Of United States, 1929-1952.
North-Holland, Amsterdam.
Koopmans, T.C., Rubin, H. y Leipnik, R.B. (1950). “Measuring The Equation System Of
Dinamic Economics”, en Statistical Inference In Dinamic Economic Models, Cowles
Commision Monografico nº 10. John Wiley. Nueva York.
Kuh, L.M. (1959), “The Validity Of Cross-Sectionally Estimated Behavior Equations”
Econometrica 27.
Liu, T. (1960), “Underidentification, Structural Estimation, And Forecasting” Econometrica 28,
pp. 855-865.
274
Lucas, R.E. (1972), “Expectations And The Neutrality Of Money” Journal Of Economic Theory
4, pp. 103-124.
Lucas, R.E. (1973), “Some International Evidence On Output-Inflation Tradeoffs”, American
Economic Review 63, pp.326-334.
Lucas, R. E. (1976), “Econometric Policy Evaluation: A critique”, Journal of Monetary
Economics 1, nº 2, Supplementary Series: 19-46.
McFadden, D. (1974), “Conditional Logit Analysis Of Qualitative Choice Behaviour”, en
Frontiers In Econometrics, Ed. P. Zarembka, Academic Press. Nueva York.
McFadden, D. (1976), “Quantal Choice Analysis: A Survey”, Annals Of Economic And Social
Measurement.
Melis F.(1991):La estimación del ritmo de variación de las series económicas. Estadística
Española Vol 22,Num. 126, pgs 7 a 56.
Mitchell, W. C. (1928), Business Cycles: The Problem In Its Setting. National Bureau Of
Economic Research.
Mood, A. M. (1950), Introduction to the Theory of Statistics, McGraw-Hill.
Moore, H. L. (1914), Economic Cycles: Their Law And Causes. Macmillan Press. Nueva York.
Moore, H. L. (1917), Forecasting The Yield And The Price Of Cotton. Macmillan Press.
Muth, J.F. (1961), “Rational Expectations And The Theory Of Price Movements”,
Econometrica 29, pp. 315-335.
Novales, A. (1993), Econometría, 2ª Edición, McGraw-Hill.
Parra F (2014): Seasonal Adjustment by Frequency Analysis. Package R Version 1.1. URL: http://cran.r-project.org/web/packages/descomponer/index.html
275
Pindyck, R. S. y Rubinfield, D. L. (1976), Econometric Models and Economic Forecast,
McGraw-Hill.
Pindyck, R. S. y Rubinfield, D. L. (1980), Modelos Econométricos, Ed. Labor.
Pfaff B (2008). “VAR, SVAR and SVEC Models: Implementation Within R Package vars." Journal of Statistical Software, 27(4). URL http://www.jstatsoft.org/v27/i04/. Pfaff B (2013).”Unit root and cointegration tests for time series data”. Package R.Version 1.2-8. URL: http://cran.r-project.org/web/packages/urca/index.html Pulido, A. (1983), Modelos Econométricos, Ed. Pirámide
R CoreTeam (2013). R: A language and environment for statistical
computing. R Foundation for Statistical Computing, Vienna, Austria.
URL http://www.R-project.org/.
Rosenberg, B. (1973), “A Survey Of Stochastic Parameter Regression”, Annals Of Economic
And Social Measurement 2.
Ripley, B (2002): “Time Series in R 1.5.0”. R News. The Newsletter of the R Project. Volume 2/2, June 2002.
Samuelson, P. A., Koopmans, T. C. y Stone, J. (1954), “Report Of The Evaluative Committe
For Econometrica”, Econometrica 22, pp. 141-146.
Sargan, J. D. (1958), “The Estimation Of Economic Relationships Using Instrumental
Variables”, Econometrica 26, pp. 393-415.
Sargent, T. (1973), “Rational Expectations, The Real Rate Of Interest And The Natural RateOf
Unemployment”, Brookings Papers On Economic Activity 2, pp. 429-472.
276
Sargent, T.J. (1984), “Vector autoregressions, expectations and advice”, American Economic
Review 74, pp.408-415
Sargent, T. y Wallace, N. (1975), “Rational Expectations And The Theory Of Economic
Policy”, Journal Of Monetary Economics 2, pp. 169-184.
Schultz, M. (1938), “The Theory And Measurement Of Demand”, Chicago University Of
Chicago Press.
Schwarz, G. (1978), “Estimating the dimension of a model”, Annals of Statistics 6, 461–464.
Signal developers (2013).signal: Signal processing R-Package URL http://cran.r-
project.org/web/packages/signal/.
Sims, C. A. (1980), “Macroeconomics and Reality”, Econometrica, vol. 48, p. 1-48
Sims, C.A. (1982), “Policy Analysis With Economic Models”, Brookings Papers On Economic
Activity 1, pp. 107-164.
Stewart, M. y Wallis, K. (1984), Introducción a la Econometría, Alianza Editorial.
Swamy, P. A. y Menhta, J. S. (1977), “Estimation Of Linear Models With Time And Cross-
Sectionaly Varying Coefficients”, Journal Of The American Statistical Association 72.
Theil, H. (1954), “Estimation Of Parameters Of Econometrics Models”, Bulletin Of
International Statistics Institute 34, pp.122-128.
Tinbergen, J. (1930), “Bestimmung Und Deutung Von Angebotkurven”, Zeitschrift Für
Nationalökonomie 1.
Venables, W. N. y Ripley, B. D. (2002), Modern Applied Statistics with S. 4ª Ed., Springer.
277
White, H. (1980), “An Heteroskedastic-Consistent Regression with Independent Observation”,
Econometrica 48, pp. 817-838.
Working, E.J. (1927), “What Do Statistical Demand Curves Show?”, Quarterly Journal Of
Economics 41.
Wright, P.G. (1915), “Review Of Economic Cycles By Henry Moore”, Quarterly Journal Of
Economics 29.
Wright, P.G. (1928), “The Tariff On Animal And Vegetable Oils”, New York, The Mcmillan