Upload
vuongtuyen
View
222
Download
0
Embed Size (px)
Citation preview
3. Stochastische Prozesse und ARIMA-Modelle
3.1 Stochastische Prozesse und Stationarität
Stochastischer Prozess
TMenge der Zeitpunkte, für die der Prozess definiert ist
wenn T kontinuierlich (meist
wenn T diskret (i.d.R.
oder
Realisation eines stochastischen Prozesses ( Zeit-reihe)
TttX TttX Stochastischer Prozess (Menge von Zufallsvariablen)
t tX , also
tX also
,,3,2,1t also )
n,,2,1ttx
)RT
T
T
t=0, 1, 2, 3, …, also T=Z
t=1, 2, 3, …, also T=N
Abbildung 3.1: Stochastischer Prozess und Zeitreihe
Zeitreihe
mögliche Realisationen eines stoch. Prozesses
0t
t
tt x,X
:Xtt
IR
Übersicht 3.1: Stochastischer Prozess und Zufallsvorgänge
t fest t variabel
xx tfest Realisation der Zufallsvariablen X
Tttx
Zeitreihe
variabel XXt
Zufallsvariable (zu einem best. Zeitpunkt)
TttX
vollst. stoch. Prozess
Definition:Ein stochastischer Prozess ist eine Folge von Zufallsvariablen, in der T die Menge der Zeitpunkte bezeichnet, für die der Prozess definiert ist.
Falls ist, spricht man von einem diskreten stochastischen Prozess, bei von einem stetigen stochastischen Prozess.
Interpretation:· Einem stochastischen Prozess liegt ein Zufallsvorgang zugrunde. Es sei
ein Element des Stichprobenraums . Das Ergebnis des Zufallsvorgangs zieht somit den Wert der Zufallsvariablen nach sich.
· Stochastischer Prozess als "ensemble" von Zeitreihen (Zeitpfaden, Trajektorien). Jedes Mitglied dieses "ensembles" (dieser Familie) ist eine mögliche Realisation eines stochastischen Prozesses. Die beobachtete Zeitreihe ist eine spezielle Realisation.
TttX
tx tt XX
ZT
IRT
Ergodizität:
In der induktiven Statistik werden im Allgemeinen unabhängige und identisch verteilte Stichprobenvariablen bei der Schätzung der Parameter einer Grundgesamtheit vorausgesetzt. Es lassen sich dann i.d.R. Schätzfunktionen konstruieren, die die Konsistenzeigenschaft besitzen. Z.B. sind und S2 konsistente Schätzer für die Parameter und 2 .
In der Zeitreihenanalyse ist die Unabhängigkeitsannahme im Allgemeinen gerade nicht erfüllt. Vielmehr werden die Zeitreihenwerte als Realisationen verschiedener abhängiger Zufallsvariablen aufgefasst. Zu jedem Zeitpunkt (Periode) liegt nur eine einzige Beobachtung der betrachteten Zufallsvariablen vor. Wenn man trotzdem die n Zeitreihenwerte analog wie Querschnittswerte zur Parameterschätzung verwenden will, müssen bestimmte Voraussetzungen erfüllt sein.
Zuallererst ist zu klären, unter welchen Bedingungen das zeitliche Mittel
gegen das Ensemble-Mittel konvergiert, d.h. eine konsistente Schätzung von durch möglich ist. Aufklärung hierüber geben die Ergodensätze. Die Konvergenz ist gesichert, wenn der betrachtete stochastische Prozess ergodisch ist. Wie sich zeigt, sind schwach stationäre Prozesse mit einer bestimmten Zusatzeigenschaft ergodisch.
X
n
1ttn X
n
1X
nX
Im Falle der Mittelwertergodizität gilt z.B.
was bei einem (schwach) stationären stochastischen Prozess gegeben ist, da seine Autokovarianz-
funktion absolut summierbar ist. Das Ensemblemittel lässt sich dann konsistent durch das
zeitliche Mittel schätzen.
Eine Zeitreihe ist eine spezielle Realisation aus einer i.d.R. unendlichen Menge von möglichen Realisatio-
nen von . Zu jedem Zeitpunkt liegt nur 1 Beobachtung für die Zufallsvariable Xt vor, während
gewöhnlich bei statistischen Problemen mehrere Beobachtungen zur Schätzung einer Wahrscheinlichkeits-verteilung oder ihrer Charakteristiken verfügbar sind. Es werden daher zur Schätzung der gemeinsamen Wahrscheinlichkeitsverteilung von Restriktionen einzuführen sein.
nX
TttX
n21 ttt X,,X,X
(3.1.1) 0μXn
1Εlim
2n
1tt
n
Momente eines stochastischen Prozesses (Momente erster und zweiter Ordnung):
Mittelwertfunktion t:(-folge)
(3.1.2)
Varianzfunktion :(-folge)
(3.1.3)
Autokovarianzfunktion :(ACVF) (-folge)
(3.1.4)
Für die Autokorrelationsfunktion (ACF) folgt dann (3.1.5)
tt X
2t t
2t XVar
s,t
sstt
sts,t
XX
X,XCov
sts,ts,t
Die Mittelwertfolge gibt die durchschnittliche Zeitfolge an, um die die Realisierungen des Prozesses
schwanken. Mittelung über alle Zeitfolgen des "ensembles" (= Ensemblemittel).Dagegen ergibt sich bei Mittelung der einzelnen realisierten Beobachtungen über alle t das zeitliche Mittel
• Die Varianzfolge gibt für jeden Zeitpunkt t an, in welchem Ausmaß die Zufallsvariable um den Wert der Mittelwertfolge streut. Bei einem stochastischen Prozess sind die Zufallsvariablen typischerweise voneinander stochastisch
abhängig. Das Hauptinteresse liegt in der Analyse der Abhängigkeitsstrukturen mittels geeigneter Modelle. Richtung und Stärke der Abhängigkeit werden mittels der Autokovarianzfolge (ACVF) und der Auto-korrelationsfolge (ACF) gemessen.
t
n
1ttx
n
1x
2t tX
t
tX
s,t
s,t
Schwach stationärer Prozess:
(3.1.6)
(3.1.7)
(3.1.8)
oder, wenn man setzt:
(3.1.8‘)
tallefürt
tallefür22t
sts,t
st
s,t
(3.1.8‘) besagt, dass die Kovarianz zwischen Xt und Xs nur von der zeitlichen Differenz
abhängig ist, nicht jedoch von den Zeitpunkten.
Für die ACF folgt damit
(3.1.9)
oder mit (3.1.8)
(3.1.9‘)
200ststs,t mit
0s,t
Exkurs: Trendelimination durch Differenzenbildung
• Linearer Trend
Durch Bildung der ersten Differenzen lässt sich ein linearer Trend ausschalten.
• Quadratischer Trend
111010
10101ttt
10t
aataataa
1taataaxxΔx
taax
2t1tt
2t1t1tt1ttt2
2210t
xx2x
xxxxxxx
tataax
221222
212
2
22110
2210
2210
22101ttt
at2aaat2ataata
12ttaataatataa
1ta1taatataaxxx
221
222
2110222
2110
2211022
22110
2210
22102t1t1t
a3ta2a
a4ta4taa2taaata2taataa
4t4taa2taaata2taataa
2ta2taa1ta1taaxxx
2
2212211ttt2
a2
a3ta2aata2axxx
Durch Bildung der zweiten Differenzen lässt sich ein quadratischer Trend ausschalten.
3.2 Spezielle stochastische ProzesseWhite-Noise-Prozess
Ein stochastischer Prozess heißt White-Noise-Prozess, wenn er die Eigenschaften
besitzt.Beim White-Noise-Prozess werden allein die beiden ersten Momente betrachtet. Da die Autokovarianzen verschwinden, besteht keine lineare Beziehung zwischen den vergangenen, aktuellen und zukünftigen Realisationen der Zufallsvariablen Ut. Das bedeutet, dass auf der Basis eines linearen Zeitreihenmodells nicht prognostiziert werden kann. Wenn allerdings höhere Momente des stochastischen Prozesses ungleich null sind, könnte ggf. unter Verwendung eines nichtlinearen Modells vorhergesagt werden.Unabhängige und identische Verteilung (i.i.d.)
Eine Zufallsvariable ist unabhängig und identisch verteilt [independently and identically distributed(= i.i.d.)], wenn alle Terme zeitlich unabhängig sind und dieselbe Verteilung haben. Die Dichtefunktionen sind dann für alle t identisch,
für alle t,und die gemeinsame Dichtefunktion ist dann gleich dem Produkt der marginalen Dichtefunktionen :
.Die Kenntnis vergangener und aktueller Werte von liefert dann keine prognostisch verwertbaren Informationen für .
tU
stfür0U,UCov
und
UVar
,gesetzt0UEwird.a.iUE
st
2t
tt
0h,U ht
tU htU
tU
ttt UfUf T21T,,2,1 U,,U,Uf
tUf Tt
T
1tttT21T,,2,1 UfUfU,,U,Uf
0h,U ht
tU
Random Walk
Es sei eine unabhängig identisch verteilte Zufallsvariable (i.i.d.) mit den Parametern und. Dann folgt die Zufallsvariable ,
(3.2.4)
einem Random Walk. Man spricht von einem Random Walk, wenn der aktuelle Wert einer Zufallsvariablen sich aus dem Vorperiodenwert plus einer Realisation einer i.i.d.-Zufallsvariablen ergibt. Auf diese Weise ergibt sich ein Zufallspfad, der nicht-stationär ist, d.h. sich beliebig von seinem Mittelwert entfernen kann. Hieraus hat sich der Begriff der Irrfahrt geprägt, die gelegentlich z.B. bei Aktienkursen und anderen spekulativen Preisen zu beobachten ist, wenn die Märkte effizient sind.
Um den Erwartungswert und die Varianz des Prozesses zu ermitteln, setzen wir den Anfangswert X0 ohneEinschränkung der Allgemeinheit gleich null:
(3.2.5) .
Dann ergibt sich die Folge (Xt) aus
(3.2.6)
Unter Verwendung von (3.2.6) lässt sich leicht der Erwartungswert
tU 0U t
2t σUVar tX
t1tt UXX
0X0
3213
212
11
UUUX
UUX
UX
t21t UUUX
(3.2.7)
ableiten. Gleichermaßen erhält man die unbedingte Varianz des Prozesses aus
(3.2.8)
[Für , d.h. bei unendl. lang andauerndem Prozess geht die Varianz gegen unendlich.]
Während der Erwartungswert eines Random Walks zeitlich konstant ist, trifft dies für seine Varianz nicht zu. Vielmehr nimmt sie mit wachsendem t zu und ist daher zeitvariabel. Der Random Walk-Prozess (3.2.4) ist daher mittelwertstationär, aber nicht varianzstationär. Wie sich zeigen lässt, ist der Random Walk (3.2.4) ebenfalls nicht kovarianzstationär. Wegen(3.2.9)hängt seine Kovarianz wie die Varianz vom Zeitindex t ab. Die Autokorrelationsfunktion des Random Walks,(3.2.10) ,ist nicht nur eine Funktion der zeitlichen Differenz |s–t|, sondern auch von den konkreten Zeitperioden t und s abhängig, für die sie betrachtet wird. Abbildung 3.2 gibt eine typische Realisation eines Random Walks in einem Zeitreihendiagramm wieder. Die im Zeitablauf zunehmende Varianz bewirkt, dass sich die Realisationen im Mittel immer weiter voneinander entfernen.
0
UUU
UUUX
t21
t21t
2
t21
.unabh
t21t
t
UVarUVarUVar
UUUVarXVar
t
st1,σtX,XCov 2st
s / t ρ st,
Abbildung 3.2: Zeitpfad eines Random Walks
t
tX
******
** *
**
**
**
**
**
*
Durch Differenzenbildung lässt sich der nichtstationäre Prozess in einen stationären Prozessüberführen:
(3.2.11)
Wie aus (3.2.11) hervorgeht, ist ein i.i.d.-Prozess, dessen Parameter mit denen des i.i.d.-Prozessesübereinstimmen.
Der bedingte Erwartungswert ist unabhängig von , da sichmodellmäßig alle Informationen bis zur Periode t–1 im Vorperiodenwert widerspiegeln:
(3.2.12)
tX
tX
tt UX
tX
tU
13t2t x,,x,x
1tx
1tt1t
t1t12t1ttxUx
Uxx,,x,xX
12t1tt x,,x,xX
Die Beziehung (3.2.12) kann zur Bestimmung eines Prognosewerts für die Periode n+1 unter Berücksichtigung der gesamten Zeitreihenhistorie verwendet werden. Der Prognosewert ist durch den bedingten Erwartungswert
(3.2.13)
gegeben, d.h. die Ein-Schrittprognose entspricht genau dem letzten bekannten Zeitreihenwert. Analog ergibt sich der Prognosewert aus
(3.2.14)
woraus durch Verallgemeinerung leicht
(3.2.15)gezeigt werden kann. Der h-Schritt-Prognosewert stimmt damit bei einem Random Walk mit dem Ein-Schritt-Prognosewert überein.Gleichwohl ist die h-Schritt-Prognose mit zunehmendem Zeithorizont mit einer immer größeren Unsicherheit behaftet. Man erkennt dies an der Varianz des Prognosefehlers. Bei der Ein-Schritt-Prognose lautet der Prognosefehler
1,nX
1,nX
2,nX
n1nn1nn
11nn1n1,n
xUxUx
x,,x,xXX
n2n1nn2n1nn
11nn2n2,n
xUUxUUx
x,,x,xXX
n11nnhnh,n xx,,x,xXX
1nn1nn
1,n1n1,n
UxUx
XXe
so dass seine Varianz durch
gegeben ist. Der 2-Schritt-Prognosefehler
hat dagegen die Varianz
Allgemein ist die Varianz eines h-Schritt-Prognosefehlers durch(3.2.16)
gegeben, was bedeutet, dass sich der Standardfehler der Prognose(3.2.17)
in der h-ten Periode um den Faktor gegenüber der Ein-Schriff-Prognose vergrößert. Aus Abbildung 3.3 geht die damit einhergehende Verbreiterung des Prognoseintervalls (Konfidenzintervall der Prognose) mit zunehmendem Zeithorizont hervor.
21n1,n UVareVar
h,ne
2h,n heVar
he
h
222
2n1n2n1n
unabh.
2n1nn,2
2σσσ
0
U,UCov2UVarUVar
UUVareVar
2n1nn2n1nn
2,n2n2,n
UUxUUx
XXe
Abbildung 3.3: Prognoseintervall
t
*
*
*
*
*
*
*
* *
**
**
*
*
**
**
*
**
*
**
*
*
* * * * * *
n
ntervallKonfidenzi2 e
nh,n XX
t,n
t
X
,X
In Gleichung (3.2.4) ist ein Random Walk ohne Drift dargestellt worden. Bei einem Random Walk ohne Drift ist z.B. die erwartete Änderung eines Aktienkurses gegeben die Informationen bis zur Periode t–1 stets gleich null:
.
Trendmäßig steigende Aktienkurse könnten z.B. durch Einführung eines Driftparameters in (3.2.4) berücksichtigt werden: [1]
(3.2.18) .
Gleichung (3.2.18) charakterisiert einen Random Walk mit Drift. Die bedingt erwartete Kursänderung einer Aktie würde dann genau dem Driftparameter b entsprechen:
Alternative Formulierungen der Random Walk-Hypothese beziehen sich auf eine Lockerung der Annahmen hinsichtlich des Zufallsprozesses . Zum einen können alternativ unabhängige, aber nicht identisch verteilte Innovationen unterstellt werden. Hierunter fallen vor allem Prozesse mit heteroskedastischen Varianzen. Zum anderen wird gelegentlich die Unabhängigkeitsannahme durch die Unkorreliertheitsannahme ersetzt, was einem White-Noise-Prozess für impliziert.
[1] Es handelt sich hierbei jedoch nicht um einen deterministischen Trend, sondern um einen stochastischen Trend, was
konkreter in Kapitel 4 (Nichtstationärität und Kointegration) zu erläutern sein wird.
tU
tU
0tU1txtU1tx
)1txtX(E1x,,2tx,1txtX
t1tt UxbX
btUb1txtU1txb
)1txtX(E1x,,2tx,1txtX