88

Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Valószín¶ségszámítás 2.

Csiszár Vill®

A kötet az Eötvös Loránd Tudományegyetem tankönyv- és jegyzettámogatási pályáza-tán elnyert forrás felhasználásával jelent meg.

Szakmai lektor: Wintsche GergelyA kézirat lezárva: 2018.ISBN 978-963-489-092-8

Page 2: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Tartalomjegyzék

1. Statisztikai mez®, elégséges statisztika 2

2. Becslések és jóságuk 9

2.1. Maximum likelihood becslés . . . . . . . . . . . . . . . . . . . . . . . . 132.2. Bayes becslések . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162.3. Kondenciaintervallumok . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3. Statisztikai próbák és jóságuk 26

3.1. A normális eloszlás paramétereire vonatkozó próbák . . . . . . . . . . . 273.2. Khi-négyzet próbák . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

3.2.1. Illeszkedésvizsgálat . . . . . . . . . . . . . . . . . . . . . . . . . 363.2.2. Függetlenségvizsgálat . . . . . . . . . . . . . . . . . . . . . . . . 383.2.3. Homogenitásvizsgálat . . . . . . . . . . . . . . . . . . . . . . . . 40

3.3. Folytonos eloszlású mintára a χ2-próba helyett alkalmazható próbák . . 413.4. Lineáris modell, szórásanalízis . . . . . . . . . . . . . . . . . . . . . . . 44

4. Diszkrét idej¶ Markov láncok 48

4.1. Osztályok, periódus, visszatér®ség . . . . . . . . . . . . . . . . . . . . . 504.2. Határeloszlás, stacionárius eloszlás . . . . . . . . . . . . . . . . . . . . . 544.3. Elnyel®dési valószín¶ségek, elágazó folyamat . . . . . . . . . . . . . . . 614.4. Szimmetrikus bolyongás . . . . . . . . . . . . . . . . . . . . . . . . . . 64

5. Folytonos idej¶ folyamatok 70

5.1. A Poisson folyamat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 705.2. Felújítási folyamatok . . . . . . . . . . . . . . . . . . . . . . . . . . . . 735.3. Folytonos idej¶ Markov láncok . . . . . . . . . . . . . . . . . . . . . . . 78

i

Page 3: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

El®szó

Ez a jegyzet az ELTE osztatlan matematika tanárszak 10. félévében sorra kerül®Valószín¶ségszámítás 2. el®adás anyagát tartalmazza. A jegyzet szorosan követi azel®adáson elhangzottakat, egy-két kiegészít® megjegyzéssel kib®vítve, melyek apróbet¶vel olvashatók. A Valószín¶ségszámítás 1. jegyzet tartalmát ismertnek feltételezem,de a teljesség kedvéért egyes deníciókat újra megadok. A Valószín¶ségszámítás 2.anyaga két f® részre bomlik: az els® anyagrész a statisztika, ebben vannak átfedéseka Valószín¶ségszámítás 1. tárggyal, amit ott csak érint®legesen tárgyaltunk, azt mostrészletesebben tanuljuk; a második anyagrész pedig véletlen (sztochasztikus) folyama-tokkal foglalkozik.

1

Page 4: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

1. Statisztikai mez®, elégséges statisztika

Mint azt már megtanultuk a Valószín¶ségszámítás 1. tárgyban, a matematikai

statisztika alapfeladata, hogy egy véletlen jelenség mechanizmusát (pl. az ®t leíróvalószín¶ségi változó eloszlását) a jelenség ismételt meggyelésével megismerjük. Astatisztikán belül két fontos feladat a becslések megadása, illetve a hipotézisvizs-gálat. Nézzünk most ezekre néhány példát!

Becslések megadása :

• Egy munkáltatót a titkárn® által gépelt szövegekben el®forduló hibák számaérdekli. Pl. a hibák átlagos száma és a hibaszám szórása. A munkáltató 30 darab,közel azonos hosszúságú, a titkárn® által legépelt szövegben megszámolja a hi-bákat. Ésszer¶ feltenni, hogy a hibák száma Poisson eloszlású, de az eloszlásparamétere (λ) ismeretlen. A meggyelések alapján szeretne következtetni λ-ra,ebb®l a várható érték és a szórás már kiszámolható. Másrészt, a várható értéketés a szórást becsülheti a Poisson feltételezés nélkül is.

• Egy fonalgyárban a fonalszakadásokat vizsgálják. Annak a valószín¶ségét sze-retnék megbecsülni, hogy a fonal egy 8 órás m¶szak alatt egyszer sem szakad el.Ennek érdekében 20 fonalszál mindegyikér®l feljegyzik, hogy mennyi id® múlvaszakad el. Ésszer¶ feltenni, hogy a fonalak élettartama exponenciális eloszlású(örökifjú tulajdonságú), de λ ismeretlen.

• Egy kosárlabdázó p találati valószín¶ségét szeretnénk megbecsülni. Ehhez megkér-jük, hogy dobjon a kosárra 10-szer.

• Egy gyár hétköznapi áramfogyasztását vizsgáljuk. Érdekel a várható értékeés a szórása. Ennek érdekében hétf®t®l péntekig naponta megmérjük a gyáráramfogyasztását. Ésszer¶ normális eloszlást feltételezni, de m,σ ismeretlenparaméterek.

Hipotézisvizsgálat :

• Egészségügyben: szeretnénk eldönteni, hogy egy gyógyszer vagy kezelés hatékony-e egy adott betegség ellen.

• Iparban: min®ségellen®rzéskor el kell dönteni, hogy a termékek min®sége megfelel®-e, vagy változtatni kell a termelési folyamaton, gépeken, beállításokon.

2

Page 5: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

• Irodalomtudományban: két szövegr®l el szeretnénk dönteni, hogy ugyanaz a szer-z® írta-e ®ket.

• Szociológiában: felmérést kell végezni annak eldöntésére, hogy a pártpreferenciaés az iskolázottság között van-e összefüggés.

A Valószín¶ségszámítás 1. tárgyban már deniáltuk a statisztikai mez®t és a mintát,de a teljesség érdekében ismételjük ezeket meg!

1.1. Deníció. Az (Ω,A,P) hármast statisztikai mez®nek hívjuk, ahol Ω nemüreshalmaz (eseménytér), A σ-algebra (események családja), P pedig a szóbajöhet® való-szín¶ségi mértékek családja. Azaz

P = Pϑ|ϑ ∈ Θ,

ahol Pϑ egy lehetséges valószín¶ségi mérték. A Θ halmazt paramétertérnek nevezzük,ennek valamelyik eleme a jelenséget leíró valódi paraméter, de nem tudjuk, hogy melyik.

Legtöbbször Θ egy véges dimenziós euklideszi tér részhalmaza, ekkor azt mondjuk, hogyparaméteres a feladat. Θ lehet ennél jóval nagyobb (például ha P az összes lehetségesvalószín¶ségi mérték), ekkor nemparaméteres a feladat. A ϑ paraméter valódi értékéttehát nem ismerjük, csak azt tudjuk, hogy a Θ halmaz valamelyik eleme. Célunk, hogya meggyeléseink alapján minél többet megtudjunk a valódi ϑ paraméterr®l.

1.2. Deníció. Az X = (X1, . . . , Xn) : Ω → X ⊆ Rn valószín¶ségi változót n elem¶mintának nevezzük. Itt X a mintatér (a minta lehetséges értékeinek halmaza), n pediga minta nagysága vagy elemszáma. Az Xi koordináták a minta elemei.

A minta az, amit meggyelünk, és amely egyáltalán információt ad nekünk arról, hogymi is lehet az ismeretlen paraméter értéke.

1.3. Deníció. X független elem¶ minta, ha Xi-k az összes Pϑ szerint függetlenek. Xazonos eloszlású minta, ha Xi-k az összes Pϑ szerint azonos eloszlásúak.

Ha másképp nem mondjuk, akkor fel fogjuk tenni, hogy a minta független és azonoseloszlású, azaz ugyanazt a véletlen jelenséget gyeljük meg n-szer, egymástól függetlenül.A minta eloszlásfüggvényeinek családja Fn;ϑ| ϑ ∈ Θ, ahol

Fn;ϑ(x1, . . . , xn) = Pϑ(X1 < x1, . . . , Xn < xn).

3

Page 6: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Ha X n elem¶, független, azonos eloszlású minta, akkor az eloszlásfüggvény szorzattábomlik:

Fn;ϑ(x1, . . . , xn) =n∏

i=1

F1;ϑ(xi),

ahol F1;ϑ az Xi koordináták közös eloszlásfüggvénye (egy elem¶ minta esetén az 1

indexet nem mindig írjuk ki, tehát F1;ϑ = Fϑ). Emlékezzünk rá, hogy az eloszlásfügg-vény helyett diszkrét esetben a

pn;ϑ(x1, . . . , xn) = Pϑ(X1 = x1, X2 = x2, . . . , Xn = xn)

valószín¶ségeket, abszolút folytonos esetben pedig az

fn;ϑ(x1, . . . , xn)

s¶r¶ségfüggvényt is használhatjuk. Független, azonos eloszlású minta esetén ezek isszorzatra bomlanak.

1.1. Példa. Nézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a mostdeniált fogalmakat. El®ször is emlékezzünk arra, hogy a valószín¶ségi változóknálmaga a valószín¶ségi mez® nem annyira fontos, elég csak az eloszlással dolgoznunk.Tehát nem mondjuk meg, mi az Ω eseménytér, mik az események, mik a valószín¶ségimértékek, csak a minta eloszlásainak családját határozzuk meg.

A minta: X = (X1, . . . , X30) : Ω → N30, ahol Xi az i. szövegben talált hibákszáma. A mintatér tehát az X = N30 halmaz, vagyis a 30 dimenziós, nemnegatív egészkoordinátájú vektorok halmaza. X független, azonos eloszlású minta (legalábbis ezt alegegyszer¶bb feltételezni, bár ha a titkárn® egymás után gépeli a leveleket, akkor afáradás miatt elképzelhet®, hogy a kés®bbi levelekben több hiba lesz, mint az elejénírtakban). A mintaelemek szóbajöhet® eloszlásainak családja: Xi ∼ Poisson(ϑ), aholϑ pozitív paraméter, a paramétertér tehát Θ = (0,∞) ⊂ R, azaz egyparaméteresfeladatról van szó. A minta szóbajöv® együttes eloszlásainak családja részletesen kiírva:

p30;ϑ(x1, x2, . . . , x30) =30∏i=1

p1;ϑ(xi) =30∏i=1

e−ϑϑxi

xi!= e−30ϑ ϑ

∑xi∏xi!.

1.4. Deníció. A mintatéren megadott T : X → Rk függvényt, illetve magát aT = T (X) valószín¶ségi változót (k-dimenziós) statisztikának nevezzük.

4

Page 7: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Gyakran használt statisztikák a mintaátlag, a tapasztalati medián, a legkisebb mintaelem,a tapasztalati szórás. Finom megkülönböztetés, hogy ha a mintát valószín¶ségi vál-tozónak tekintjük, akkor a T (X) statisztika is valószín¶ségi változó, ha viszont a mintaegy konkrét x realizációjával dolgozunk, akkor T (x) egy k-dimenziós vektor.

1.2. Példa. Néhány gyakran használt statisztika (X mind a hat esetben n elem¶minta):

1. T (X) = (X(n)1 , X

(n)2 , . . . , X

(n)n ) a rendezett minta, ahol X(n)

1 ≤ X(n)2 ≤ . . . ≤

≤ X(n)n . Azaz a minta elemeit nagyság szerint növekv®en soroljuk fel. Például az

x = (2, 4, 1, 3) minta realizációra T (x) = (1, 2, 3, 4).

2. T (X) = X(n)n −X(n)

1 a mintaterjedelem, ez a legnagyobb és a legkisebb mintaelemkülönbsége.

3. T (X) = X =1

n

n∑i=1

Xi a mintaátlag, vagyis a mintaelemek számtani közepe.

4. T (X) =

X

(n)n+1

2

ha n páratlan

X(n)n2

+X(n)n2+1

2ha n páros

a tapasztalati medián, vagyis a ren-

dezett minta középs® eleme, vagy a két középs® átlaga.

5. T (X) = S2X =

1

n

n∑i=1

(Xi −X)2 a tapasztalati szórásnégyzet.

6. T (X) =1

n

n∑i=1

|Xi −X| az átlagos abszolút eltérés.

Korábban deniáltuk a tapasztalati eloszlást, és a hozzá tartozó tapasztalati eloszlás-függvényt:

Fn(x) =1

n

n∑i=1

I(Xi < x), x ∈ R.

Erre igaz Glivenko tétele, azaz ha elég sok meggyelést végzünk, akkor a tapasztalatieloszlásfüggvény tetsz®leges pontossággal megközelíti a valódi eloszlásfüggvényt.

A következ® fogalom, amivel megismerkedünk, az elégséges statisztika. Akkor fogjuka T (X) statisztikát elégséges statisztikának nevezni, ha pont annyi információt hordozaz ismeretlen paraméterre nézve, mint az eredeti X minta.

5

Page 8: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Nézzük a titkárn®s példát! Az X = (X1, . . . , X30) minta tartalmaz valamennyiinformációt a feltételezett Poisson eloszlás ismeretlen ϑ paraméterér®l. Legyen példáula minta realizációja

x = (0, 2, 3, 2, 2, 1, 2, 5, 2, 1, 1, 4, 4, 3, 5, 2, 0, 1, 3, 1, 3, 2, 3, 3, 1, 1, 2, 4, 2, 2).

Tehát az els® levél hibátlan volt, a másodikban két hiba volt, és így tovább. Vegyükmost a T (X) =

∑iXi statisztikát, ami tehát azt fejezi ki, hogy összesen hány hiba volt

a 30 levélben. A mi realizációnkra T (x) = 67. Vajon a mintaelemek összege elégségesstatisztika? Ha tudjuk, hogy összesen 67 hiba volt a 30 levélben, az ugyanannyi in-formációt ad az ismeretlen paraméterr®l, mintha egyenként ismernénk, hogy melyiklevélben hány hiba volt? Nyilvánvaló, hogy általában az eredeti minta több informá-ciót tartalmaz a paraméterr®l, mint a bel®le kiszámolt statisztika.

Az X minta információtartalma abban rejlik, hogy a minta szóbajöhet® valószín¶-ségei, vagyis a p30;ϑ(x) = Pϑ(X = x) valószín¶ségek függnek ϑ-tól (bizonyos ϑ-kra nagya valószín¶sége, hogy ezt a mintát kapjuk, másokra kisebb). A mi realizációnkra

Pϑ(X = x) = e−30ϑ ϑ67∏xi!, (1)

példáulp30;2(x) = 1,36 · 10−22, és p30;5(x) = 5,11 · 10−35.

Mindkét valószín¶ség nagyon kicsi, de ha összehasonlítjuk ®ket, akkor a ϑ = 2

paraméter mellett mégis sokkal valószín¶bb, hogy az adott mintát kapjuk, mint aϑ = 5 paraméter mellett.

A T (X) statisztika is hordoz információt, hiszen a Pϑ(T (X) = t) valószín¶ség isfügg ϑ-tól. Mivel most T (X) független Poisson eloszlású valószín¶ségi változók összege,ezért az is Poisson eloszlású, 30ϑ paraméterrel. Ezért a mi konkrét mintánkra

Pϑ(T (X) = 67) = e−30ϑ (30ϑ)67

67!. (2)

PéldáulP2(T (X) = 67) = 0,033 és P5(T (X) = 67) = 1,24 · 10−14.

6

Page 9: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Az (1) és (2) kifejezést összehasonlítva látható, hogy csak a

67!

3067∏xi!

(3)

konstans (ϑ-tól független) szorzóban térnek el egymástól, ezért mondhatjuk, hogy aT (X) statisztika ugyanannyi információt ad ϑ-ról, mint az X minta. Vegyük észre,hogy a szorzási szabály szerint

Pϑ(X = x) = Pϑ(X = x, T (X) = 67) = Pϑ(T (X) = 67) · Pϑ(X = x|T (X) = 67),

vagyis a (3)-beli konstans szorzó éppen a Pϑ(X = x|T (X) = 67) feltételes valószín¶ség.Összefoglalva, a fenti felírás alapján azt vehetjük észre, hogy ha a Pϑ(X = x|T (X) =

= T (x)) feltételes valószín¶ség valójában már nem függ az ismeretlen ϑ paramétert®l,akkor a minta nem tartalmaz több információt, mint a statisztika. Ezt úgy is elképzel-hetjük, hogy gy¶jtöttünk egy nagy x mintát, de nem volt kapacitásunk tárolni, ezértkiszámoltuk bel®le az egyszer¶bb T (x) = t statisztikát, és csak ezt tartottuk meg, azeredeti mintát eldobtuk. Ha most valaki mégis számon kérné rajtunk az eredeti mintát,akkor a mintának a statisztikára vett feltételes eloszlásból tudunk egy y mintát gene-rálni (mivel ez a feltételes eloszlás ismert, nem függ ϑ-tól). Az így kapott y minta pontolyan eloszlású lesz, mint az eredeti x, tehát nem fogunk lebukni, hogy csaltunk.

1.5. Deníció. Legyen X = (X1, . . . , Xn) diszkrét minta az (Ω,A,P) statisztikaimez®n. Azt mondjuk, hogy a T (X) statisztika elégséges a ϑ paraméterre, ha mindenx, t párra a Pϑ(X = x|T (X) = t) feltételes valószín¶ség nem függ ϑ-tól.

1.3. Példa. Legyen Xi ∼ Ind(p), ahol 0 < p < 1 ismeretlen paraméter. Belátjuk, hogy∑iXi elégséges statisztika p-re, azaz elég feljegyezni, hogy összesen hány 1-es van a

mintában, ezzel nem veszítünk információt p-r®l. A deníció alapján számolunk. Ha∑ni=1 xi 6= t, akkor nyilván Pp(X = x|

∑ni=1Xi = t) = 0. Ha viszont

∑ni=1 xi = t, akkor

Pp(X = x|n∑

i=1

Xi = t) =

∏ni=1 p

xi(1− p)1−xi(nt

)pt(1− p)n−t

=p

∑xi(1− p)n−

∑xi(

nt

)pt(1− p)n−t

=1(nt

) .Azaz a kapott feltételes valószín¶ség tényleg nem függ p-t®l. Ha például egy cinkeltérmén a fejdobás ismeretlen valószín¶sége p, és erre szeretnénk következtetni, akkorn érmedobásból csak az a lényeg, hogy hány fej volt, az nem számít, hogy a fe-jek és az írások milyen sorrendben jöttek ki. A fenti számolásból látszik, hogy bármi

7

Page 10: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

is a p paraméter értéke, adott t számú fej mellett mindegyik(

nt

)sorrend egyformán

valószín¶.

1.1. Tétel. (Neyman faktorizációs tétele.) Legyen X diszkrét eloszlású minta. A

T (X) statisztika akkor és csak akkor elégséges, ha találhatók olyan h és gϑ függvények,

melyekre Pϑ(X = x) = h(x) · gϑ(T (x)).

Bizonyítás. El®ször tegyük fel, hogy T (X) elégséges statisztika. Ekkor

Pϑ(X = x) = P (X = x|T (X) = T (x)) · Pϑ(T (X) = T (x)) = h(x) · gϑ(T (x)),

felhasználva, hogy az els® tényez® nem függ ϑ-tól.A másik irányban, tegyük fel, hogy Pϑ(X = x) = h(x) · gϑ(T (x)) alakú, és meg sze-retnénk mutatni, hogy T (X) elégséges statisztika. Ha T (x) = t, akkor

Pϑ(X = x|T (X) = t) =Pϑ(X = x, T (X) = t)

Pϑ(T (X) = t)=

Pϑ(X = x)∑y:T (y)=t

Pϑ(X = y)=

h(x) · gϑ(t)∑y:T (y)=t

h(y) · gϑ(T (y))=

h(x)∑y:T (y)=t

h(y),

tehát nem függ ϑ-tól, ha pedig T (x) 6= t, akkor a feltételes valószín¶ség nulla, tehátszintén nem függ ϑ-tól.A tételnek az a jelent®sége, hogy módszert ad arra, hogyan lehet elégséges statisztikáttalálni.

1.4. Példa. Nézzük megint a Poisson eloszlás esetét, azaz X1, . . . , Xn ∼ Poisson(ϑ),keressünk elégséges statisztikát ϑ-ra!

pn;ϑ(x) = e−nϑ ϑ∑

xi∏xi!

=1∏xi!

· e−nϑϑ∑

xi = h(x) · gϑ

(∑xi

),

ahol gϑ(s) = e−nϑϑs, azaz a mintaelemek összege elégséges statisztika.

Abszolút folytonos mintára az el®z® deníció nem m¶ködik, mivel sok T statisztikáraa T (X) = t esemény minden t-re 0 valószín¶ség¶, így a feltételes valószín¶ség nemértelmes. Neyman faktorizációs tétele viszont egy olyan állítást fogalmaz meg, amiabszolút folytonos esetben is értelmes, ha a valószín¶ség helyett s¶r¶ségfüggvényt írunk.

8

Page 11: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

1.6. Deníció. Legyen X abszolút folytonos eloszlású minta, s¶r¶ségfüggvényeinekcsaládja legyen fn;ϑ(x). A T (X) statisztika elégséges a ϑ paraméterre, ha létezik as¶r¶ségfüggvénynek fn;ϑ(x) = h(x) · gϑ(T (x)) alakú faktorizációja.

1.5. Példa. LegyenXi ∼ E(0, b), ahol az intervallum jobboldali b végpontja ismeretlenparaméter. Próbáljunk faktorizálni !

fn;b(x) =n∏

i=1

f1;b(xi) =n∏

i=1

1

bI(0 ≤ xi ≤ b) = I(x

(n)1 ≥ 0)︸ ︷︷ ︸h(x)

· 1

bn· I(x(n)

n ≤ b)︸ ︷︷ ︸gb(x

(n)n )

,

tehát T (X) = X(n)n , azaz a legnagyobb mintaelem, elégséges statisztika.

Ha T elégséges, akkor annak egy kölcsönösen egyértelm¶ S függvénye is nyilvánaz, s®t minden olyan S statisztika elégséges, amelyb®l T kiszámolható. A gyakorlat-ban minél egyszer¶bb, úgynevezett minimális elégséges statisztikát keresünk. Ennek afogalomnak adható precíz matematikai deníciója, de ezzel most nem foglalkozunk.

1.6. Példa. Keressünk minél egyszer¶bb elégséges statisztikát a normális eloszlásparamétereire! Tehát legyen a mintaelemek eloszlása Xi ∼ N(m,σ2), ahol (m,σ2)

ismeretlen kétdimenziós paramétervektor. A minta s¶r¶ségfüggvényeinek családja:

fn;m,σ2(x) =n∏

i=1

1√2πσ2

· e−(xi−m)2

2σ2 =

(1√

2πσ2

)n

e−1

2σ2

∑(xi−m)2 =

=

(1√

2πσ2

)n

· e−1

2σ2 (∑

x2i−2m

∑xi+nm2) = 1 · gm,σ2(

∑xi,∑

x2i ),

aholgm,σ2(u, v) =

(1√

2πσ2

)n

· e−1

2σ2 (v−2mu+nm2).

Tehát a h(x) = 1 választással látszik, hogy T (X) = (∑Xi,∑X2

i ) kétdimenzióselégséges statisztika. Ugyanígy elégséges lenne S(X) = (X,S2

X), hiszen T és S köl-csönösen egyértelm¶ függvényei egymásnak.

2. Becslések és jóságuk

Vizsgáljuk meg, hogy egy meggyelt mintából hogyan lehet a paraméter ψ(ϑ)

függvényét becsülni (gyakran magát a paramétert kell becsülni, de nem mindig)!

9

Page 12: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Nem remélhetjük, hogy a pontos értéket eltaláljuk, de azt igen, hogy jól meg tudjukközelíteni. A ψ(ϑ) mennyiség becslése alatt valamely T (X) statisztikát értünk. Azértvezetünk be egy új elnevezést a T (X) statisztikára, mert most úgy gondolunk rá, minta ψ(ϑ) mennyiséget jól közelít® becslésre. A Valószín¶ségszámítás 1. tárgyban mármegfogalmaztuk, mit jelent a torzítatlanság, pontosság és konzisztencia.

Azt is láttuk, hogy a mintaátlag torzítatlan becslés a várható értékre, a korrigálttapasztalati szórásnégyzet pedig a szórásnégyzetre. A tapasztalati szórásnégyzet nemtorzítatlan, de aszimptotikusan torzítatlan becslés a szórásnégyzetre. Ez azt jelenti,hogy ha a minta elemszáma nagy, akkor a becslés torzítása már kicsi. A következ®példából kiderül, hogy torzítatlan becslés nem is mindig létezik.

2.1. Példa. Indikátor eloszlású mintánál (p ∈ (0, 1)) keressünk torzítatlan becsléstψ(p) = 1

p-re! Belátható, hogy 1

Xnem torzítatlan, s®t, 1/p-t nem lehet torzítatlanul

becsülni. Belátjuk ugyanis, hogy ψ(p)-t akkor és csak akkor lehet n elem¶ indikátor-mintából torzítatlanul becsülni, ha ψ(p) p-nek legfeljebb n-edfokú polinomja. Legyenugyanis T tetsz®leges becslés. Ha T torzítatlan ψ(p)-re, akkor

ψ(p) = Ep(T (X1, . . . , Xn)) =∑

x∈0,1n

T (x1, . . . , xn) · p∑

xi · (1− p)n−∑

xi ∀ 0 < p < 1,

márpedig a jobboldalon álló kifejezés legfeljebb n-edfokú polinomja p-nek.Másrészt a Tk = I(X1 = 1, . . . , Xk = 1) statisztika torzítatlan becslés a pk függ-

vényre, ha 1 ≤ k ≤ n. Ha tehát ψ(p) = c0 +∑m

k=1 ckpk (m ≤ n) a p-nek legfeljebb

n-edfokú polinomja, akkor erre torzítatlan becslés:

T = c0 +m∑

k=1

ckTk.

Vizsgáljuk most meg közelebbr®l a becslések pontosságát!

2.1. Deníció. Legyenek T1, T2 torzítatlanok ψ(ϑ)-ra. Ekkor azt mondjuk, hogy T1

hatásosabb T2-nél, ha D2ϑ(T1) ≤ D2

ϑ(T2) minden ϑ ∈ Θ-ra. A T (torzítatlan) becsléshatásos, ha minden torzítatlan becslésnél hatásosabb.

Fontos, hogy két becslés nem biztos, hogy összehasonlítható hatásosság szempontjából,hiszen lehet, hogy bizonyos ϑ-kra D2

ϑ(T1) < D2ϑ(T2), másokra viszont D2

ϑ(T1) > D2ϑ(T2).

Nem torzítatlan becslések esetén az Eϑ[(T − ψ(ϑ))2] átlagos négyzetes veszteségetakarhatjuk minimalizálni.

10

Page 13: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

2.1. Tétel. Ha van hatásos becslés, akkor az egyértelm¶. Másképp, ha T1 és T2 is

hatásos, akkor Pϑ(T1 = T2) = 1 minden ϑ ∈ Θ esetén.

Bizonyítás. A torzítatlanság miatt Eϑ(T1) = Eϑ(T2) = ψ(ϑ), és mivel mindkét becsléshatásos, D2

ϑ(T1) = D2ϑ(T2) minden ϑ-ra. Legyen most

T =T1 + T2

2.

Egyrészt T is torzítatlan, hiszen Eϑ(T ) = ψ(ϑ), másrészt T1 hatásossága miatt

D2ϑ(T1) ≤ D2

ϑ(T ) =1

4

(D2

ϑ(T1) +D2ϑ(T2) + 2covϑ(T1, T2)

)=

1

2D2

ϑ(T1) +1

2covϑ(T1, T2),

azaz D2ϑ(T1) ≤ covϑ(T1, T2). Átosztva kapjuk, hogy

1 ≤ covϑ(T1, T2)

Dϑ(T1)Dϑ(T2)= Rϑ(T1, T2).

A korrelációs együttható nem lehet 1-nél nagyobb, és 1 is csak úgy lehet, ha a kétváltozó egymásnak pozitív meredekség¶ lineáris függvénye, azaz T2 = aT1 + b, ahola > 0. Ebb®l

D2ϑ(T2) = D2

ϑ(aT1 + b) = a2D2ϑ(T1),

de mivel T1 és T2 szórásnégyzete megegyezik, ezért a = 1 lehet csak. Másrészt, mostmár felhasználva, hogy a = 1,

Eϑ(T2) = Eϑ(T1 + b) = Eϑ(T1) + b.

Mivel T1 és T2 várható értéke megegyezik, ezért b = 0 lehet csak. Azaz megkaptuk,hogy T1 = T2.

Most megmutatjuk, hogy a várható érték lineáris becslései közül a mintaátlag aleghatásosabb, tehát minden mintaelemet azonos súllyal érdemes gyelembe venni. Ezaz eredmény persze nem túl meglep®.

2.2. Tétel. Legyen X1, . . . , Xn független, azonos eloszlású minta. Legyen ψ(ϑ) =

= Eϑ(Xi), továbbá tegyük fel, hogy D2ϑ(Xi) <∞ minden ϑ-ra. Ekkor ψ(ϑ) torzítatlan

lineáris becslései közül X a leghatásosabb.

11

Page 14: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Bizonyítás. Vegyünk egy T =∑n

i=1 ciXi lineáris becslést. Ez akkor és csak akkortorzítatlan, ha

∑ni=1 ci = 1. Számítsuk ki a szórásnégyzetét!

D2ϑ(T ) =

n∑i=1

D2ϑ(ciXi) =

(n∑

i=1

c2i

)D2

ϑ(Xi).

A számtani és négyzetes közép közötti egyenl®tlenségb®l√∑c2in

≥∑cin

=1

n, azaz

n∑i=1

c2i ≥1

n,

és egyenl®ség csak akkor teljesül, ha a súlyok egyenl®ek, azaz ci = 1/n, vagyis amikorT éppen a mintaátlag.

2.2. Példa. LegyenXi ∼ E(0, b), adjunk torzítatlan becsléseket b-re! Mivel a mintaát-lag torzítatlan a várható értékre, ami most b/2, ezért

T1 = 2 ·X

torzítatlan becslés b-re. Másrészt láttuk, hogy a legnagyobb mintaelem elégségesstatisztika b-re, tehát minden információt tartalmaz a b-re nézve. Próbáljunk ezérta legnagyobb mintaelem függvényében torzítatlan becslést keresni ! Ehhez meg kellenehatároznunk a legnagyobb mintaelem eloszlását.

Nyilvánvaló, hogy a (0, b)-n egyenletes eloszlást megkaphatjuk úgy, hogy a (0,1)-enegyenletes eloszlást megszorozzuk b-vel (ellen®rizze az olvasó!), tehát Xi = b · Yi, aholYi ∼ E(0,1). Ekkor X(n)

n = b · Y (n)n , tehát elég az E(0,1) eloszlással foglalkozni. Y (n)

n

eloszlásfüggvénye:

F(n)(t) = P (Y (n)n < t) = P (Y1 < t, Y2 < t, . . . , Yn < t) = tn, 0 < t < 1,

amib®l Y (n)n s¶r¶ségfüggvénye deriválással

f(n)(t) = ntn−1,

tehátE(Y (n)

n ) =

∫ 1

0

t · ntn−1 dt = n · 1

n+ 1=

n

n+ 1.

12

Page 15: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

EzértEb(X

(n)n ) = bE(Y (n)

n ) =n

n+ 1b.

Tehát a legnagyobb mintaelem nem torzítatlan b-re, viszont könnyen azzá tehet® akövetkez®képp:

T2 =n+ 1

nX(n)

n .

A T1 és T2 becslések közül vajon melyik hatásosabb? Ehhez ki kell számítanunk aszórásnégyzeteket. Egyrészt

D2b (T1) = 4 · D

2b (Xi)

n=

4

n· b

2

12=b2

3n.

Másrészt, ismét el®ször az Y (n)n változóval számolva,

D2(Y (n)n ) =

∫ 1

0

t2 · ntn−1 dt −(

n

n+ 1

)2

=n

n+ 2−(

n

n+ 1

)2

=

=n(n+ 1)2 − n2(n+ 2)

(n+ 1)2(n+ 2)=

n

(n+ 1)2(n+ 2).

Továbbá D2b (X

(n)n ) = b2D2(Y

(n)n ), amib®l

D2b (T2) =

(n+ 1

n

)2

·D2b (X

(n)n ) =

b2

n(n+ 2).

Összehasonlítva a két szórásnégyzetet, mivel n+ 2 ≥ 3 minden n-re, ezért T2 hatásos-abb T1-nél (minden n-re). A T1 és T2 becslések hisztogramját mutatja be az 1. ábra,méghozzá 5000-szer számoltuk ki a becsléseket n = 20 elem¶ mintákból. Látszik, hogy aT2 becslés valóban jobban koncentrálódik a valódi b = 5 paraméterérték körül. TovábbáT1 eloszlása közelít®leg normális, T2-é azonban nem.

Végül a konzisztenciával kapcsolatban emlékeztetünk rá, hogy ha Tn aszimptotiku-san torzítatlan becsléssorozat ψ(ϑ)-ra és D2

ϑ(Tn) nullához tart, ha n → ∞, akkor Tn

konzisztens. Így például az el®z® példában T1 és T2 is konzisztens, s®t T3 = X(n)n is az.

2.1. Maximum likelihood becslés

Korábban megnéztük, hogy milyen általános becslési módszerek léteznek. Megis-merkedtünk a tapasztalati becslésekkel, a momentum módszerrel, és a maximum like-

13

Page 16: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

1. ábra. A T1 és T2 becslések hisztogramjai n = 20 elem¶ mintákból, a paraméterértéke b = 5, az ismétlések száma 5000. (lásd 2.2. Példa)

lihood módszerrel. Ez utóbbit, fontossága miatt, ismétlésként tekintsük újra át, illetveismerkedjünk meg vele közelebbr®l !

2.2. Deníció. Legyen az X = (X1, . . . , Xn) minta eloszlásfüggvényeinek családjaFn;ϑ. Ekkor az Ln(ϑ) = Ln(ϑ;x) likelihood függvényt a következ®képpen deniáljuk:abszolút folytonos minta esetén Ln(ϑ;x) = fn;ϑ(x), diszkrét minta esetén Ln(ϑ;x) =

= pn;ϑ(x).

2.3. Deníció. Legyen x = (x1, . . . , xn) egy független, azonos eloszlású minta reali-zációja, Θ a paramétertér. Ekkor a ϑ paraméter maximum likelihood (ML) becslése ϑ,ha

Ln(ϑ) = maxLn(ϑ) : ϑ ∈ Θ,

azaz a likelihood függvény maximumhelye. Tehát az a paraméter lesz a becslésünk,amely mellett a mintánk valószín¶sége (illetve s¶r¶ségfüggvénye) a lehet® legnagyobb.A paraméter egy ψ(ϑ) függvényének ML becslése ψ(ϑ).

14

Page 17: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Elképzelhet®, hogy a keresett maximumhely nem létezik, vagy ha létezik, nem egyértelm¶.Ha Ln(ϑ) dierenciálható, akkor a maximumhelyet az (lnLn)′(ϑ) = 0 likelihood egyenlet

megoldásaként szokás keresni.

2.3. Tétel. Ha létezik ML becslés, akkor az megadható a T elégséges statisztika függ-

vényeként.

Bizonyítás. A faktorizációs tétel alapján Ln(ϑ) = h(x) ·gϑ(T (x)), ahol a h(x) tényez®nem játszik szerepet a ϑ szerinti maximumhely keresésében. Azaz a maximumhelyekhalmaza csak T (x)-t®l függ.

A ML becslés általában nem torzítatlan. Azonban a következ® tétel szerint bizonyoser®s feltételek mellett a ML becslésnek jó aszimptotikus tulajdonságai vannak (ezazt jelenti, hogy nagy mintaelemszám esetén jó tulajdonságai vannak). Ez az egyik okaannak, hogy ez a módszer a legelterjedtebb a gyakorlatban.

2.4. Tétel. Tegyük fel, hogy a paramétertér egydimenziós. Bizonyos feltételek mel-

lett elég nagy n-re a ϑn ML becslés létezik, konzisztens, aszimptotikusan torzítatlan,

továbbá aszimptotikusan normális eloszlású:

√n · (ϑn − ϑ) → N(0, σ2(ϑ))

eloszlásban (n → ∞), ahol a σ2(ϑ) aszimptotikus szórásnégyzet a lehet® legkisebb.

Másképpen fogalmazva ez azt jelenti, hogy nagy n esetén ϑn eloszlása jól közelíthet®

az N(ϑ, σ2(ϑ)n

) normális eloszlással.

Nézzünk most két példát, ahol a paramétertér kétdimenziós!

2.3. Példa. (Egyenletes eloszlás) Legyen Xi ∼ E(a, b), ahol a < b ismeretlenparaméterek. Adjuk meg a paraméterek ML becslését!

Ln(a, b;x) =

(1

b− a

)n

· I(a ≤ xi ≤ b ∀i),

azaz a legkisebb olyan [a, b] intervallumot keressük, amely mindegyik meggyelést tar-talmazza. Ennek megoldása a = x

(n)1 , b = x

(n)n .

15

Page 18: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

2.4. Példa. (Normális eloszlás) Legyen Xi ∼ N(m,σ2), adjuk meg a paraméterek MLbecslését!

Ln(m,σ;x) =n∏

i=1

1√2πσ

e−(xi−m)2

2σ2 =

(1√2π

)n

· 1

σn· e−

∑(xi−m)2

2σ2 ,

ez a paraméterek dierenciálható függvénye. Vegyük mindkét oldal logaritmusát:

lnLn(m,σ;x) = ln

(1√2π

)n

− n lnσ −∑

(xi −m)2

2σ2.

A likelihood egyenlet most két egyenletb®l áll, ugyanis mindkét parciális deriváltnaknullának kell lenni:

∂mlnLn(m,σ;x) =

∑(xi −m)

σ2= 0

és∂

∂σlnLn(m,σ;x) = −n

σ− 2

∑(xi −m)2

2σ3= 0.

A két egyenlet megoldása m = x és σ2 = S2x, és ellen®rizhet®, hogy ezek valóban

maximumhelyet határoznak meg.

2.2. Bayes becslések

Az eddigiekben nem vettük gyelembe a becslés el®tt esetlegesen már meglév® in-formációkat a paraméter hozzávet®leges értékér®l (ezt a priori információnak nevezzük,azaz a kísérlet elvégzése el®tt már meglév®, el®zetes ismeretnek tekintjük). Ha példáulegy cinkelt érmével 10 dobásból csupa fej jött ki, akkor a fejdobás ismeretlen p való-szín¶ségének ML becslése p = 1 (miért?), ami nem t¶nik reálisnak. Hogyan tudnánka becslésbe belekalkulálni azt az el®zetes feltevést, hogy a fejdobás valószín¶sége azért1/2 körül van nagy eséllyel?

Erre ad módszert a Bayes-i hozzáállás. Feltesszük, hogy a paraméter maga is egyvalószín¶ségi változó, azaz van egy a priori eloszlása. A paraméter adott értéke mel-lett tudjuk a minta eloszlását. Ez a kett® már meghatározza a paraméter és a mintaegyüttes eloszlását. Az együttes eloszlásból pedig megkaphatjuk a paraméter a pos-

teriori eloszlását, vagyis az a priori eloszlásnak a meggyelt minta által módosítottváltozatát. Az a posteriori ismeret tehát az, amit a kísérlet elvégzése után, a mintagyelembevételével tudunk.

16

Page 19: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

2.5. Példa. Valaki el®vett néhány szabályos érmét, de nem tudjuk, hányat. Tegyük fel,hogy az érmék ismeretlen ϑ számának a priori eloszlása egyenletes az 1, 2, 3, 4, 5, 6halmazon. Másszóval tudjuk, hogy 1, 2, 3, 4, 5 vagy 6 érmét dobott fel, és ezt a hatlehet®séget egyformán valószín¶nek tartjuk. Ezután Valaki feldobta az érméket, és 3

érmén lett fej az eredmény. Mi lesz az érmék számának a posteriori eloszlása?Jelölje a ϑ paraméter egy lehetséges értékét t. Az a priori valószín¶ségek:

q(t) = P (ϑ = t) =1

6, t = 1, 2, 3, 4, 5, 6.

A meggyelésünk x = 3, ennek valószín¶sége a t paraméterérték mellett:

ft(x) = ft(3) = Pt(X = 3) = P (X = 3|ϑ = t) =

(t

3

)(1

2

)t

.

A Bayes tétel segítségével kapjuk meg az a posteriori eloszlást:

q∗(t|x) = q∗(t|3) = P (ϑ = t|X = 3) =P (X = 3|ϑ = t)P (ϑ = t)∑6

s=1 P (X = 3|ϑ = s)P (ϑ = s).

Ezeket az értékeket kiszámolva, a következ® a posteriori valószín¶ségeket kapjuk:

t 1 2 3 4 5 6

q∗(t|3) 0 0 216

416

516

516

A következ® kérdés, hogy mi legyen a ϑ paraméter becslése? Az t¶nik jó választásnak,ha az a posteriori eloszlás valamilyen középértékét vesszük, pl. a várható értékét vagya mediánját. A leggyakrabban a várható értéket szokás venni, vagyis a

ϑ = T (x) = E(ϑ|X = x)

érték lesz a ϑ paraméter Bayes becslése. Általánosabban, ha a paraméter egy ψ(ϑ)

függvényét szeretnénk becsülni, ennek Bayes becslése

ψ(ϑ) = T (x) = E(ψ(ϑ)|X = x).

Visszatérve a 2.5. Példára, a feldobott érmék számának Bayes becslése

ϑ = T (3) = E(ϑ|X = 3) =∑

t

t · q∗(t|3) =77

16= 4,81.

17

Page 20: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

A Bayes becslés egyik hátrányára is rávilágít a példa: nyilván lehetetlen, hogy 4,81 ér-mét dobtak fel, tehát olyan becslést kaptunk, ami nincs is benne a paramétertérben. Ezpl. a maximum likelihood becslésnél nem fordulhat el® (a ML becslés ebben a példábannem egyértelm¶, ϑ = 5 és ϑ = 6 egyaránt maximumhelye a likelihood függvénynek). Haaz a posteriori eloszlás mediánját választjuk becslésnek, akkor a ϑ = 5 becslést kapjuk.

A fenti példában a paraméter és a minta is diszkrét érték¶. A gyakorlatban el®for-duló példákban természetesen lehetséges, hogy a minta és/vagy a paraméter folytonosskálán mozog. Mi a feltételes valószín¶ségeket csak pozitív valószín¶ség¶ feltétel eseténdeniáltuk, de ez a deníció kiterjeszthet® az általános esetre is.

Ha például a paraméter folytonos, a minta pedig diszkrét eloszlású, akkor legyenq(t) a paraméter a priori s¶r¶ségfüggvénye, ft(x) a minta eloszlása a t paraméterértékmellett, ekkor az a posteriori s¶r¶ségfüggvény:

q∗(t|x) =ft(x)q(t)∫

Θfs(x)q(s)ds

= K(x)ft(x)q(t), (4)

ahol K(x) egy t-t nem tartalmazó konstans, és a Bayes becslés ennek várható értéke:

ϑ =

∫Θ

tq∗(t|x) dt = K(x)

∫Θ

tft(x)q(t) dt .

A nevezetes diszkrét eloszlások esetén az ismeretlen paraméter vagy (0, 1)-beli (abinomiális, geometriai, negatív binomiális eloszlás p varamétere) vagy pozitív (a Pois-son eloszlás λ paramétere). Szedjük össze, hogy milyen abszolút folytonos eloszlásokatismerünk ezeken a tartományokon!

A (0, 1) intervallumon az egyenletes eloszlást ismerjük. Ennek általánosítása a bé-ta eloszlások családja, melyet a következ®képp deniálunk. Legyenek a és b pozitívparaméterek. Az (a, b) paraméter¶ béta eloszlás (jelölése Béta(a, b)) s¶r¶ségfüggvénye

f(x) =1

B(a, b)xa−1(1− x)b−1, 0 < x < 1,

egyébként pedig 0. Itt a B(a, b) =∫ 1

0xa−1(1 − x)b−1 dx normáló konstansra azért van

szükség, hogy az f(x) függvény integrálja 1 legyen, vagyis valóban s¶r¶ségfüggvénytkapjunk. Az a = b = 1 választással visszakapjuk az egyenletes eloszlást. A 2. ábránlátható néhány béta eloszlás s¶r¶ségfüggvénye.

Legyenek X1, X2, . . . , Xn független, E(0, 1) eloszlású valószín¶ségi változók, és X(n)k

a rendezett minta k-adik tagja. A 2.2. Példában láttuk, hogy a legnagyobb mintaelem

18

Page 21: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

2. ábra. Különböz® (a, b) paraméter¶ béta eloszlások s¶r¶ségfüggvénye. Fent: fekete:(2, 2), piros: (3, 2), zöld: (4,2). Lent: fekete: (0.6, 3), piros: (0.3, 0.4), zöld: (1.5, 0.5).

s¶r¶ségfüggvénye nxn−1, ami éppen a Béta(n, 1) eloszlás. Általánosabban is megmu-tatható, hogy X(n)

k épp Béta(k, n+ 1− k) eloszlású.Ennek vázlatos levezetése a következ®: jelölje a k-adik rendezett mintaelem eloszlásfüggvényét

F(k)(x). Ekkor pici h-ra

F(k)(x + h)− F(k)(x) = P (x < X(n)k < x + h) ≈ nh ·

(n− 1k − 1

)xk−1 · (1− x− h)n−k,

ahol elhanyagoltuk annak a valószín¶ségét, hogy az (x, x + h) intervallumba legalább két mintaelem

esik (ennek a valószín¶ségnek a nagyságrendje h2). A s¶r¶ségfüggvény az eloszlásfüggvény deriváltja,

tehát

f(k)(x) = limh→0

F(k)(x + h)− F(k)(x)h

= n

(n− 1k − 1

)xk−1 · (1− x)n−k.

Ebb®l megkaptuk azt is, hogy pozitív egész a, b esetén a béta eloszlás normáló konstansa

B(a, b) =(a− 1)! (b− 1)!

(a + b− 1)!.

19

Page 22: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Számítsuk ki a béta eloszlás várható értékét (pozitív egész paraméterek esetén)!Legyen X ∼ Béta(a, b).

E(X) =

∫ 1

0

x · 1

B(a, b)xa−1(1− x)b−1 dx =

B(a+ 1, b)

B(a, b)=

a

a+ b.

Hasonlóan számítható ki, hogy szórásnégyzete

D2(X) =ab

(a+ b)2(a+ b+ 1).

2.6. Példa. Térjünk vissza a szakasz elején tárgyalt példára. Egy érmével tízszerdobunk, és szeretnénk az eredmény alapján megbecsülni a fejdobás ismeretlen ϑ való-szín¶ségét. Azt kaptuk, hogy a fejdobások száma x = 10, vagyis csupa fejet dobtunk.Legyen az a priori eloszlás Béta(2, 2), ez szimmetrikus 0,5-re, várható értéke 0,5, szórása0,22. Ekkor az a posteriori s¶r¶ségfüggvény a (4) képlet szerint

q∗(t|10) = K(10)ft(10)q(t) = K(10) · t10 · 6t(1− t) = C · t11(1− t)1,

ahol C konstans. Felismerjük, hogy ez a Béta(12, 2) eloszlás s¶r¶ségfüggvénye, azaz aBayes becslés

ϑ =12

12 + 2= 0,86.

Nézzük most meg, milyen eloszlást ismerünk a pozitív félegyenesen? Eddig az expo-nenciális eloszlást tanultuk, ebb®l például konvolúcióval lehet új eloszlásokat csinálni.El®ször számítsuk ki két független, azonos λ paraméter¶ exponenciális eloszlású való-szín¶ségi változó összegének eloszlását. A s¶r¶ségfüggvényekre vonatkozó konvolúciósképlet szerint az összeg s¶r¶ségfüggvénye

h(z) =

∫ ∞

−∞f(x)g(z − x) dx =

∫ z

0

λe−λx · λe−λ(z−x) dx = λ2ze−λz.

Ezt ismételve megkapható (a számolást most nem részletezzük), hogy n darab független,λ paraméter¶ exponenciális eloszlású valószín¶ségi változó összegének s¶r¶ségfügg-vénye:

f(x) =1

(n− 1)!λnxn−1e−λx x > 0.

Ezt nevezzük n-edrend¶, λ paraméter¶ gamma eloszlásnak, jelölésbenX ∼ Gamma(n, λ).A 3. ábrán látható néhány gamma eloszlás s¶r¶ségfüggvénye. Mivel független valószí-

20

Page 23: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

3. ábra. Különböz® n-edrend¶, λ = 1 paraméter¶ gamma eloszlások s¶r¶ségfüggvénye.Fekete: n = 2, piros: n = 4, zöld: n = 8, kék: n = 16.

n¶ségi változókra a várható érték és a szórásnégyzet is összeadódik, ezért E(X) = nλ

és D2(X) = nλ2 . Általánosabban is deniálható a gamma eloszlás, mégpedig úgy, hogy

a rendje tetsz®leges pozitív szám. A Gamma(a, λ) eloszlás s¶r¶ségfüggvénye:

f(x) =1

Γ(a)λaxa−1e−λx x > 0,

ahol Γ(a) olyan normáló konstans, hogy az f(x) függvény integrálja 1 legyen (megmu-tatható, hogy a normáló konstans értéke nem függ λ-tól). A várható érték és szórásnégy-zet képlete érvényben marad, csak n helyébe a-t kell írni. A denícióból nyilvánvaló,hogy egész n,m esetén a Gamma(n, λ) és a Gamma(m,λ) eloszlás konvolúciója aGamma(n + m,λ) eloszlás. Általában is érvényes, hogy azonos paraméter¶ gammaeloszlások konvolúciója (ugyanolyan paraméter¶) gamma, a rendek összeadódnak.

2.7. Példa. Legyen az X minta Poisson eloszlású, és legyen a λ paraméter a priorieloszlása Gamma(a, µ). Ekkor az a posteriori s¶r¶ségfüggvény a (4) képlet szerint

q∗(t|x) = K(x)ft(x)q(t) = K(x)e−nt t∑

xi∏xi!

· 1

Γ(a)µata−1e−µt = C · ta+

∑xi−1e−(µ+n)t,

21

Page 24: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

ahol a C tényez®ben nincs t. Felismerjük, hogy ez éppen az a +∑

i xi rend¶ és µ + n

paraméter¶ Gamma eloszlás s¶r¶ségfüggvénye, vagyis a λ Bayes becslése

λ =a+

∑i xi

µ+ n.

Látható, hogy a Bayes becslés az a priori információ és a minta kombinációja: az apriori várható érték a/µ, a minta tapasztalati várható értéke

∑i xi/n, a Bayes becslés

pedig valahol a kett® között van. Kis mintaelemszám esetén az a priori információnaknagyobb jelent®sége van, ha viszont a minta elemszáma nagy, akkor az a priori eloszlásmár kevéssé van hatással a Bayes becslésre.

2.3. Kondenciaintervallumok

Eddig úgynevezett pontbecslésekkel foglalkoztunk, azaz a paramétert (vagy annakfüggvényét) egyetlen értékkel becsültük meg. A pontbecslés bizonytalanságát a becslésszórásával fejezhetjük ki. Ha például a becslésr®l belátható, hogy aszimptotikusan nor-mális eloszlású, akkor az igazi paraméter kb. 95% valószín¶séggel a pontbecslés körüli2·szórás sugarú intervallumban van. A becslésben rejl® bizonytalanságot kifejezhetjükúgy is, hogy a paramétert nem egy értékkel, hanem egy intervallummal becsüljük.

2.4. Deníció. LegyenX = (X1, . . . , Xn) minta Fϑ eloszlásból, ahol ϑ valós paraméter.Azt mondjuk, hogy a (T1(X), T2(X)) intervallum legalább 1− α megbízhatósági szint¶

kondenciaintervallum ϑ-ra (röviden KI(1− α), ha

Pϑ (T1(X) < ϑ < T2(X)) ≥ 1− α ∀ϑ.

Nyilvánvaló, hogy ha (T1, T2) KI(1 − α) ϑ-ra, akkor ψ(ϑ)-ra a következ® (S1, S2) kon-denciaintervallum legalább ugyanilyen megbízhatóságú lesz:

S1 = inf ψ(ϑ) |ϑ ∈ (T1, T2) S2 = sup ψ(ϑ) |ϑ ∈ (T1, T2) .

2.8. Példa. Legyen X az E(0, ϑ) eloszlásból származó n elem¶ minta. Adjunk KI-t ϑ-ra! Láttuk, hogy a legnagyobb mintaelem elégséges statisztika, tehát ésszer¶nek t¶nikennek függvényében keresni a KI-t. Mivel X(n)

n biztosan kisebb ϑ-nál, ezt választhatjuk

22

Page 25: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

a KI bal végpontjának, a jobb végpontot pedig keressük cnX(n)n alakban!

1− α = Pϑ(X(n)n < ϑ < cnX

(n)n ) = Pϑ(X(n)

n >ϑ

cn) = 1− Pϑ(X(n)

n <ϑ

cn) =

1−(ϑ/cnϑ

)n

= 1− 1

cnn.

Ennek megoldása cn = 1/α1/n. Például n = 10 elem¶ minta esetén az (X(10)10 , 1,35X

(10)10 )

intervallum 95% eséllyel tartalmazza a ϑ paramétert.

Az egyik legfontosabb (és legszebb) eset a normális eloszlás várható értékérevonatkozó KI konstruálása, ismert vagy ismeretlen szórás mellett. Nézzük meg ezeket,de el®bb érdemes bevezetnünk egy új elnevezést, amely a medián, kvartilis, decilisfogalmának általánosítása.

2.5. Deníció. Legyen F egy tetsz®leges eloszlásfüggvény, és legyen 0 < γ < 1. Azeloszlás γ-kvantilise xγ, ha

F (xγ) ≤ γ és F (xγ + 0) ≥ γ.

(Emlékeztet®: F (x + 0) a függvény jobboldali határértéke az x pontban.) Belátható,hogy a γ-kvantilis mindig létezik, de nem feltétlenül egyértelm¶.

2.9. Példa. Legyen Xi ∼ N(m,σ2), ahol σ ismert, m ismeretlen. Adjunk m-re (1−α)

megbízhatóságú KI-t!

Kiindulásként vegyük észre, hogy X ∼ N(m, σ2

n), azaz

√n · X −m

σ∼ N(0,1). Ezért

P

(∣∣∣∣√n · X −m

σ

∣∣∣∣ < uα2

)= 1− α,

ahol uα a standard normális eloszlás (1 − α)-kvantilise. A zárójelben álló kifejezéstátrendezve megkaphatjuk a KI alsó és fels® határát:√n

σ·∣∣X −m

∣∣ < uα2⇐⇒

∣∣X −m∣∣ < σ · uα

2√n

⇐⇒ X −σ · uα

2√n

< m < X +σ · uα

2√n.

Azaz kaptuk, hogyT1 = X −

σ · uα2√

n, T2 = X +

σ · uα2√

n.

23

Page 26: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

AKI hossza három dologtól függ: 1) a kívánt megbízhatóság (nagyobb megbízhatósághozhosszabb KI kell), 2) az ismert szórás (ha a mintaelemek szórása nagyobb, a KI ishosszabb lesz), 3) a minta elemszáma (nagyobb minta esetén rövidebb a KI).

Ha a σ szórás nem ismert, akkor nehezebb dolgunk van. A megoldáshoz ismételjükát a khi-négyzet eloszlás és a t eloszlás denícióját!

2.6. Deníció. LegyenekXi ∼ N(0,1) függetlenek, és Y =n∑

i=1

X2i . Az Y valószín¶ségi

változó eloszlását n szabadságfokú khi-négyzet eloszlásnak nevezzük, jelölés: Y ∼ χ2n.

Továbbá√Y eloszlását n szabadságfokú khi eloszlásnak nevezzük, jelölés:

√Y ∼ χn.

Legyen X ∼ N(0,1), Y ∼ χn függetlenek. Legyen Z =√n · X

Y. Ekkor a Z valószí-

n¶ségi változó eloszlását n szabadságfokú t eloszlásnak, vagy n szabadságfokú Student

eloszlásnak nevezzük, jelölés: Z ∼ tn.

Számítsuk ki az 1 szabadságfokú khi-négyzet eloszlás s¶r¶ségfüggvényét! Ehhez el®szöraz eloszlásfüggvényt számoljuk ki, legyen tehát Y = X2, ahol X standard normális.Legyen x > 0.

F (x) = P (Y < x) = P (|X| <√x) = P (−

√x < X <

√x) =

Φ(√x)− Φ(−

√x) = 2Φ(

√x)− 1.

Deriválással kapjuk a s¶r¶ségfüggvényt:

f(x) = F ′(x) = 2ϕ(√x)

1

2√x

=1√2πx

e−x/2 =1√2πx−

12 e−

12x,

ami éppen a Gamma(12, 1

2) eloszlás s¶r¶ségfüggvénye. Ebb®l konvolúcióval következik,

hogy a χ2n eloszlás megegyezik a Gamma(n

2, 1

2) eloszlással.

A tn eloszlás s¶r¶ségfüggvénye is kiszámítható, de pontos alakjára nem lesz szük-ségünk. Könnyen látszik, hogy a s¶r¶ségfüggvény szimmetrikus, azaz E(Z) = 0 (n > 1).Megmutatható, hogy D2(Z) = n

n−2(n > 2). A tn eloszlás n → ∞ esetén a standard

normálishoz tart, de vastagabb a farka (s¶r¶ségfüggvénye nagy x-re kb. cnx−(n+1)).Néhány t eloszlás s¶r¶ségfüggvényét mutatja be a 4. ábra.

A következ® fontos és érdekes tételt nem bizonyítjuk.

2.5. Tétel. (Fisher-Bartlett) LegyenXi ∼ N(m,σ2) független minta (i = 1, . . . , n).

Ekkor X és S∗n függetlenek, és(n− 1)S∗2n

σ2=nS2

n

σ2∼ χ2

n−1.

24

Page 27: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

4. ábra. Néhány t eloszlás s¶r¶ségfüggvénye. Fekete: standard normális, piros: t1,zöld: t2, kék: t5, lila: t10.

Megjegyezzük, hogy ha a tételbeli Xi változókat standardizáljuk, akkor áttérhetünkaz Yi = (Xi −m)/σ ∼ N(0,1) független valószín¶ségi változókra. A tételben szerepl®változót felírhatjuk az Yi-k segítségével :

(n− 1)S∗2n

σ2=

n∑i=1

(Xi −X)2

σ2=

n∑i=1

(Yi − Y )2.

Tehát független standard normálisak négyzetösszegét vesszük, csak éppen el®bb mindentagból kivontuk az átlagot. Mivel az (Yi − Y ) valószín¶ségi változók nem függetlenek(összegük nulla), eggyel csökken a szabadsági fok. Érdekesség, hogy a mintaátlag és atapasztalati szórásnégyzet függetlensége karakterizálja a normális eloszlást.

2.10. Példa. Legyen Xi ∼ N(m,σ2), és most m,σ ismeretlenek. Adjunk m-reKI(1− α)-t ! A Fisher-Bartlett tétel szerint

√n · X −m

S∗n=√n− 1 ·

√n · X −m

σ√n− 1 · S∗n

σ

∼ tn−1,

25

Page 28: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

mivel az utolsó törtben a számláló standard normális eloszlású, a nevez® (n − 1) sz-abadságfokú khi-négyzet eloszlású, és függetlenek. Azaz

P

( ∣∣∣∣√n · X −m

S∗n

∣∣∣∣ < tn−1(α/2)

)= 1− α,

ahol a tn−1(α/2) kritikus érték a tn−1 eloszlás (1− α/2)-kvantilise. Ebb®l a KI

T1 = X −S∗n · tn−1(

α2)

√n

T2 = X +S∗n · tn−1(

α2)

√n

.

A centrális határeloszlás-tétel szerint sok független, azonos eloszlású valószín¶ségi vál-tozó összege közelít®leg normális eloszlású, ezért más eloszlások esetén is adhatunkhozzávet®leges kondenciaintervallumot az el®z®ekhez hasonlóan.

2.11. Példa. Legyen Xi ∼ Ind(p). Adjunk p-re hozzávet®leges KI(1− α)-t !

Kiindulásként vegyük észre, hogy X jó becslés p-re, és X ≈ N

(p,√

p(1−p)n

), ha n elég

nagy. Standardizálva,√n · X − p√

p(1− p)közelít®leg standard normális, és így

P

( √n√

p(1− p)·∣∣X − p

∣∣ < uα2

)≈ 1− α.

A zárójelben álló egyenl®tlenséget átrendezve a

(n+ u2α2)p2 − (2nX + u2

α2)p+ nX

2< 0

másodfokú egyenl®tlenséget kapjuk. A KI tehát a baloldalon álló másodfokú kifejezéskét gyöke közötti intervallum lesz.

3. Statisztikai próbák és jóságuk

A Valószín¶ségszámítás 1. tárgyban már foglalkoztunk hipotézisvizsgálattal, megis-merkedtünk az olyan alapfogalmakkal, mint nullhipotézis, ellenhipotézis, elfogadási éskritikus tartomány, els®fajú és másodfajú hiba, terjedelem, er®függvény. Felmerül akérdés, hogy mikor tartunk egy döntési eljárást jó statisztikai próbának. Természete-sen akkor, ha a hibavalószín¶ségek kicsik. Ezt formalizálja a következ® három fogalom.

26

Page 29: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Egy próbát torzítatlannak nevezünk, ha a próba ereje legalább akkora, mint a ter-jedelme:

β(ϑ) ≥ α ∀ϑ ∈ Θ1.

Ez azt jelenti, hogy ha nem igaz a nullhipotézis, akkor legalább akkora valószín¶séggelutasítjuk el, mint ha igaz lenne.

Másodszor tegyük fel, hogy ugyanarra a hipotézisvizsgálati feladatra van két külön-böz® próbánk, melyeket az (Xe,Xk) és az (X ′

e,X ′k) tartománypárok határoznak meg.

Azt mondjuk, hogy az els® próba egyenletesen er®sebb, mint a második, ha

β(ϑ) = Pϑ(X ∈ Xk) ≥ β′(ϑ) = Pϑ(X ∈ X ′k) ∀ϑ ∈ Θ1,

vagyis az els® próba ereje pontonként legalább akkora, mint a másodiké. Ha el®írjukaz α terjedelmet, akkor az (Xe,Xk) tartományokkal megadott próbát egyenletesen leg-er®sebbnek nevezzük, ha terjedelme legfeljebb α, és minden más legfeljebb α terjedelm¶próbánál egyenletesen er®sebb.

Végül tegyük fel, hogy egy hipotézisvizsgálati feladatban minden n mintaelem-számra van egy (X n

e ,X nk ) tartományokkal deniált próbánk, vagyis egy próbasorozatot

vizsgálunk. Ezt most jelöljük a terjedelemben és az er®függvényben is: az (X ne ,X n

k ) tar-tományokkal megadott próba terjedelme legyen αn-t, er®függvénye pedig βn. A próba-sorozatot legfeljebb α terjedelm¶ konzisztens próbasorozatnak nevezzük, ha αn ≤ α

minden n-re, és βn(ϑ)n→∞−→ 1 minden ϑ ∈ Θ1 esetén, azaz ha a nullhipotézis nem igaz,

akkor ezt 1-hez tartó valószín¶séggel felismerjük, ha a minta elemszáma végtelenheztart.

A statisztikusok számos, a gyakorlatban lépten-nyomon el®forduló hipotézisvizs-gálati feladatra kidolgoztak jó próbákat. Ezek a klasszikus próbák, ezek közül is-merkedünk meg néhánnyal a továbbiakban.

3.1. A normális eloszlás paramétereire vonatkozó próbák

Az egyik leggyakrabban el®forduló eloszlás a normális eloszlás, melyet a várhatóértéke és a szórása jellemez. Ezekre a paraméterekre három típusú próbát tanulunk.

1. A várható értékre vonatkozó próba, ha a szórás ismert → u-próba.

2. A várható értékre vonatkozó próba, ha a szórás ismeretlen → t-próba.

27

Page 30: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

3. A szórásra vonatkozó próba, ha a várható érték ismeretlen (vagy akár ismert) →F -próba.

A próbák ezen belül még különbözhetnek aszerint, hogy egymintásak vagy kétmintásak,illetve az ellenhipotézis jellege szerint (egyoldali vagy kétoldali ellenhipotézis). Ezek apróbák egyenletesen leger®sebbek a legfeljebb ekkora terjedelm¶ torzítatlan próbákközött.

Egymintás u-próba

Az egymintás u-próbát akkor használjuk, ha egy mintasorozatunk van ismert szórásúnormális eloszlásból, melynek várható értékére vonatkozó hipotézist szeretnénk el-len®rizni. Legyen tehát X1, . . . , Xn ∼ N(m,σ2) ahol σ ismert, m ismeretlen.A hipotézisek:

a)H0 : m = m0

H1 : m 6= m0

b)H0 : m ≤ m0

H1 : m > m0

c)H0 : m ≥ m0

H1 : m < m0

(5)

A próbastatisztika:

u =X −m0

σ·√n

H0∼ N(0,1).

Ezért ha a kívánt terjedelem α, akkor a kritikus tartomány:

a)Xk = |u| > uα2 b)Xk = u > uα c)Xk = u < −uα (6)

ahol uδ a standard normális eloszlás (1−δ)-kvantilise, ezt a Φ(x) függvény táblázatából,vagy valamilyen statisztikai programmal keressük ki.

A (5)-beli hipotézispárok közül az a) esetben kétoldali, a b) és c) esetekben egyoldaliellenhipotézisr®l beszélünk.Határozzuk most meg az egymintás u-próba er®függvényét kétoldali ellenhipotézis ese-

28

Page 31: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

tén! Vezessük be a ∆n(m) := m−m0

σ

√n jelölést. Ha m 6= m0, akkor

βn(m) = Pm(|u| > uα2) = Pm

(∣∣∣∣X −m0

σ

√n

∣∣∣∣ > uα2

)=

1− Pm

(−uα

2<X −m0

σ

√n < uα

2

)=

1− Pm

(−uα

2<X −m

σ

√n+

m−m0

σ

√n < uα

2

)=

1− Pm

(−uα

2−∆n(m) <

X −m

σ

√n < uα

2−∆n(m)

)=

1− Φ(uα2−∆n(m)) + Φ(−uα

2−∆n(m)) = Φ(−uα

2+ ∆n(m)) + Φ(−uα

2−∆n(m)),

ahol felhasználtuk, hogy X−mσ

√n ∼ N(0, 1). Az er®függvény kapott képletéb®l le-

olvasható, hogy1) rögzített n esetén βn(m) folytonos és lim

m→±∞βn(m) = 1,

2) rögzített m esetén βn−1(m) < βn(m), azaz a minta elemszámának növekedésével azer® n®, és βn(m)

n→∞−→ 1, azaz a próba konzisztens,3) βn(m) > α, vagyis a próba torzítatlan.Az er®függvény(eke)t mutatja be a 5. ábra.

Kétmintás u-próba

A kétmintás u-próbára akkor van szükség, ha két független mintasorozatunk van is-mert szórású normális eloszlásokból, és a várható értéküket szeretnénk összehasonlítani.Legyenek X1, . . . , Xn1 ∼ N(m1, σ

21) és Y1, . . . , Yn2 ∼ N(m2, σ

22) független minták, ahol

σ1, σ2 ismert, m1,m2 ismeretlenek.A hipotézisek:

a)H0 : m1 = m2

H1 : m1 6= m2

b)H0 : m1 ≤ m2

H1 : m1 > m2

c)H0 : m1 ≥ m2

H1 : m1 < m2

(7)

A próbastatisztika:

u =X − Y√

σ21

n1+

σ22

n2

H0∼ N(0,1).

A kritikus tartományok ugyanazok, mint egymintás esetben, azaz (6) adja meg ®ket.

Egymintás t-próba

Ha nem ismerjük a szórást, akkor t-próbára van szükségünk. Egymintás esetben a

29

Page 32: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

5. ábra. Az egymitás u-próba er®függvénye, m0 = 5, σ = 4, α = 0,05. A mintaelemszáma (n) : 3 (fekete), 5 (piros), 10 (zöld), 50 (kék).

próbastatisztikát és annak eloszlását ugyanúgy kapjuk meg, mint a kondenciainter-vallum konstruálásánál. Legyen X1, . . . , Xn ∼ N(m,σ2) ahol m,σ ismeretlen.A hipotézisek: ugyanazok, mint az egymintás u-próbánál (5).A próbastatisztika:

t =X −m0

S∗n·√n

H0∼ tn−1,

ahol S∗n a korrigált tapasztalati szórás.Jelölje a szabadsági fokot f , tehát f = n− 1.A kritikus tartomány:

a)Xk = |t| > tf (α2) b)Xk = t > tf (α) c)Xk = t < −tf (α) (8)

ahol a tf (δ) kritikus érték a tf eloszlás (1− δ)-kvantilise.A tf (

α2)-t és a tf (α)-t a t-próba kritikus értékei cím¶ táblázatból keressük ki, az

oszlopok fölött kell gyelni arra, hogy egyoldali vagy kétoldali próbánk van.

Kétmintás t-próba

A kétmintás t-próbára akkor van szükség, ha két független mintasorozatunk van is-meretlen szórású normális eloszlásokból, és a várható értéküket szeretnénk összeha-

30

Page 33: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

sonlítani. Bár a szórásokat nem ismerjük, a próba akkor m¶ködik, ha feltehet®, hogya két minta szórása megegyezik. Legyenek X1, . . . , Xn1 ∼ N(m1, σ

2) és Y1, . . . , Yn2 ∼∼ N(m2, σ

2) független minták, ahol m1,m2 és σ ismeretlenek.A hipotézisek: ugyanazok, mint a kétmintás u-próbánál (7).A próbastatisztika:

t =X − Y√

(n1 − 1)S∗n1

2 + (n2 − 1)S∗n2

√n1 · n2 · (n1 + n2 − 2)

n1 + n2

H0∼ tn1+n2−2.

Jelölje a szabadsági fokot f , tehát f = n1 + n2 − 2.A kritikus tartomány ugyanaz, mint az egymintás esetben (8).

Vezessük le, hogyan jön ki a kétmintás t-próbánál a próbastatisztika. Egyrésztm1 =

= m2 esetén

X − Y ∼ N(0, σ2/n1 + σ2/n2), azaz1

σ(X − Y )

√n1 · n2

n1 + n2

∼ N(0,1).

Másrészt teljesül, hogy

1

σ2

[(n1 − 1)S∗n1

2 + (n2 − 1)S∗n2

2]∼ χ2

n1−1+n2−1,

mivel a tagok külön-külön χ2n1−1 illetve χ2

n2−1 eloszlásúak, és függetlenek. Mivel pedigaz el®z® két képletben felírt valószín¶ségi változók függetlenek is, az els®t elosztva amásodik gyökével, és a szabadsági fok gyökével beszorozva, valóban t eloszlású próba-statisztikát kapunk.

Ha a két minta szórása szignikánsan különbözik, akkor a fenti próbát kissé módosítani kell, ezt

vagy szintén t-próbának, vagy Welch-próbának hívják. A módosítás abból áll, hogy most a próba-

statisztika

t =X − Y√

S∗n1

2

n1+

S∗n2

2

n2

H0≈ tf ,

ahol az f szabadsági fok

f =(g1 + g2)2g21

n1−1 + g22

n2−1

,

és gi = S∗ni

2/ni. Ha f nem egész, akkor kerekítjük.

A szórásra vonatkozó próbákhoz szükségünk lesz az F eloszlásra.

3.1. Deníció. Ha X f1 szabadsági fokú, Y pedig f2 szabadsági fokú, egymástólfüggetlen khi-négyzet eloszlású valószín¶ségi változók, akkor a Z = X/f1

Y/f2valószín¶ségi

31

Page 34: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

6. ábra. Néhány F eloszlás s¶r¶ségfüggvénye. Fekete: F3,5, piros: F5,3, zöld: F8,8, kék:F10,20, lila : F30,20.

változó (f1, f2) szabadsági fokú F eloszlású, jelölésben Z ∼ Ff1,f2 . Itt f1 a számlálószabadsági foka, f2 a nevez® szabadsági foka. (Érdekességként megjegyezzük, hogy azF eloszlás várható értéke csak a nevez® szabadsági fokától függ: E(Z) = f2

f2−2.)

A 6. ábra néhány F -eloszlás s¶r¶ségfüggvényét mutatja be.

Kétmintás F -próba

A kétmintás F -próbára akkor van szükség, ha két független mintasorozatunk vannormális eloszlásokból, és a szórásukat szeretnénk összehasonlítani (például azért,mert utána kétmintás t-próbát szeretnénk végezni a várható értékükre). LegyenekX1, . . . , Xn1 ∼ N(m1, σ

21) és Y1, . . . , Yn2 ∼ N(m2, σ

22) független minták,

ahol m1,m2 és σ1, σ2 ismeretlenek.A hipotézisek:

a)H0 : σ1 = σ2

H1 : σ1 6= σ2

b)H0 : σ1 ≤ σ2

H1 : σ1 > σ2

c)H0 : σ1 ≥ σ2

H1 : σ1 < σ2

A próbastatisztika:

F =S∗n1

2

S∗n2

2

H0∼ Fn1−1,n2−1.

32

Page 35: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Jelölje a szabadsági fokokat f1 = n1 − 1 és f2 = n2 − 1.A kritikus tartomány:

a) Xk = F < Ff1,f2(1− α/2) vagy F > Ff1,f2(α/2)b) Xk = F > Ff1,f2(α)c) Xk = F < Ff1,f2(1− α),

ahol az Ff1,f2(δ) kritikus érték az Ff1,f2 eloszlás (1− δ)-kvantilise. A kritikus értékeketaz F -próba kritikus értékei cím¶ táblázatból keressük ki.

A próbastatisztika H0 melletti eloszlásának levezetése a következ®:

F =S∗n1

2

S∗n2

2 =

1n1−1

·(

(n1−1)S∗n12

σ21

)1

n2−1·(

(n2−1)S∗n12

σ22

) ∼ Fn1−1,n2−1.

Látszik, hogy most alsó és fels® kritikus értékekre is szükségünk van, azonban az alsókritikus értékeket is megtalálhatjuk a fels® kritikus értékek táblázatában a következ®észrevétel miatt. Az Ff1,f2(1− δ) alsó kritikus érték deníciójából

δ = P (F < Ff1,f2(1− δ)) = P (1/Ff1,f2(1− δ) < 1/F ).

Mivel 1/F éppen Ff2,f1 eloszlású, ezért P (1/F > Ff2,f1(δ)) = δ, azaz

Ff1,f2(1− δ) =1

Ff2,f1(δ).

Ezért kétoldali ellenhipotézis esetén a kritikus tartomány ekvivalens alakja:

Xk =

1

F> Ff2,f1(α/2) vagy F > Ff1,f2(α/2)

.

A gyakorlatban használt α-kra a kritikus érték 1-nél nagyobb, ezért elég F és 1/F

közül a nagyobbikat összehasonlítani a megfelel® kritikus értékkel.

Egymintás F -próba

Legyen X1, . . . , Xn ∼ N(m,σ2) ahol m,σ ismeretlen.A hipotézisek:

a)H0 : σ = σ0

H1 : σ 6= σ0

b)H0 : σ ≤ σ0

H1 : σ > σ0

c)H0 : σ ≥ σ0

H1 : σ < σ0

33

Page 36: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

A próbastatisztika:

F =S∗2n

σ20

H0∼ Fn−1,∞.

Jelölje a szabadsági fokokat f1 = n− 1 és f2 = ∞.A kritikus tartomány ugyanaz, mint a kétmintás F -próbánál.(Az Fn−1,∞ eloszlás a χ2

n−1 eloszlás átskálázott változata.)

3.1. Példa. Kétféle altató (A és B) hatásosságát tesztelték 10 betegen. Az alábbitáblázat azt mutatja, hogy az altató mennyivel növelte meg a betegek éjszakai alváside-jét (órában mérve).

Beteg sorszáma A altató B altató különbség1 1,9 0,7 1,2

2 0,8 −1,6 2,4

3 1,1 −0,2 1,3

4 0,1 −1,2 1,3

5 −0,1 −0,1 0

6 4,4 3,4 1

7 5,5 3,7 1,8

8 1,6 0,8 0,8

9 4,6 0 4,6

10 3,4 2 1,2

Vajon van-e szignikáns különbség a két gyógyszer hatásossága között (α = 0,01 ter-jedelem mellett)?Hipotéziseink: H0 : m1 = m2, ez azt jelenti, hogy nincs különbség a két gyógyszerközött, H1 : m1 6= m2, ez jelenti azt, hogy a két gyógyszer nem egyformán hatásos. Akét minta azonban nem független, mert ugyanazokon a betegeken próbálták ki mind akét gyógyszert. Vegyük ezért az A−B különbséget, és teszteljük egymintás t-próbávala H0 : m = 0, H1 : m 6= 0 hipotéziseket!S∗n = 1,23, X = 1,58,

t =X −m0

S∗n

√n =

1,58− 0

1,23

√10 = 4,06.

A kritikus érték: t9(0,005) = 3,35, így, mivel |4,06| > 3,35, a nullhipotézist elvetjük,azaz a két gyógyszer hatásossága között szignikáns különbség van.

34

Page 37: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Tegyük most fel, hogy a két gyógyszert más-más 10 betegen tesztelték (de továbbrais a fenti táblázat adatait használjuk). Ekkor a két minta független, kétmintás t-próbavégezhet®. X = 2,33, Y = 0,75, S∗2A = 4, S∗2B = 3,8. A kétféle gyógyszer hatásánakszórásai feltételezhet®en egyenl®ek, de ellen®rizhetjük is F -próbával:

F ′ = max

(S∗2A

S∗2B

,S∗2B

S∗2A

)=

4

3,8= 1,1,

míg a kritikus érték F9,9(0,025) = 4,03 ennél jóval nagyobb. A kétmintás t-próbapróbastatisztikája:

t =2,33− 0,75√

(10− 1) · 4 + (10− 1) · 3,8·√

10 · 10 · (10 + 10− 2)

10 + 10= 1,78.

A szabadsági fok 18, a kritikus érték pedig t18(0,005) = 2,89. Mivel |1,78| < 2,89, elfo-gadjukH0-t, azaz nincs rá bizonyíték, hogy az egyik gyógyszer hatásosabb a másiknál.

3.2. Khi-négyzet próbák

Khi-négyzet próbával három különböz® hipotézisvizsgálati feladatot tudunk megol-dani, ezek: illeszkedésvizsgálat, függetlenségvizsgálat, és homogenitásvizsgálat. A próbam¶ködésének elméleti hátterét a következ® tétel adja meg, melyet bizonyítás nélkülmondunk ki.

3.1. Tétel. (biz. nélkül) Legyen A1, A2, . . . , Ar teljes eseményrendszer, és vezessük be

a P (Ai) = pi jelölést. Végezzünk n darab független kísérletet, és jelölje νi az Ai esemény

gyakoriságát. Ekkor a

χ2 =r∑

i=1

(νi − npi)2

npi

valószín¶ségi változó sorozat n → ∞ esetén az r − 1 szabadsági fokú khi-négyzet

eloszláshoz tart (eloszlásban).

Általánosabban, ha a pi valószín¶ségek s(< r − 1) db ismeretlen paramétert®l

függenek, akkor jelölje pi a paraméterek ML-becslését az n meggyelésb®l. Ekkor a

χ2 =r∑

i=1

(νi − npi)2

npi

35

Page 38: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

valószín¶ségi változó sorozat n → ∞ esetén az r − s − 1 szabadsági fokú khi-négyzet

eloszláshoz tart (eloszlásban).

Ha tehát a nullhipotézisünk egy véges teljes eseményrendszer valószín¶ségeir®l feltételezvalamit, akkor a fenti tétel alapján kiszámíthatunk egy próbastatisztikát, melynekeloszlása a nullhipotézis teljesülése esetén közelít®leg khi-négyzet eloszlású lesz. Ígyaszimptotikus próba végezhet®, ami azt jelenti, hogy a próba terjedelme közelít®leg akívánt α lesz, ha n elég nagy. A kritikus tartomány (f jelöli a szabadsági fokot):

Xk = χ2 > χ2f (α), (9)

ahol a χ2f (α) kritikus érték a χ2

f eloszlás (1 − α)-kvantilise. A kritikus értéket a χ2-próba kritikus értékei cím¶ táblázatból keressük ki. Vegyük észre, hogy a kritikustartományba a próbastatisztika azon értékeit tettük, melyek az ellenhipotézis eseténfordulnak inkább el®, azaz a nagy értékeket. Mivel a próba aszimptotikus, vigyáznunkkell arra, hogy a minta elemszáma elég nagy legyen. Például megkövetelhetjük, hogyaz összes várt érték (npi, ill. npi) legalább 5 legyen. Ha ez nem teljesül, akkor a kis vártgyakoriságokkal rendelkez® eseményeket összevonjuk.

3.2.1. Illeszkedésvizsgálat

Khi-négyzet próbával ellen®rizhetjük, hogy egy minta egy adott eloszlásból származ-hat-e. Mivel a khi-négyzet próbában egy véges teljes eseményrendszer szerepel, a próbátinkább diszkrét eloszlások illeszkedésének vizsgálatához szokás használni. Mindenesetrea feltételezett eloszlás értékkészletét véges sok csoportra kell osztanunk, hogy a próbátelvégezhessük.

3.2. Példa. Kockával dobunk. Nullhipotézisünk szerint a kocka szabályos, azaz P (Ai) =

= 16; i = 1, . . . , 6. Err®l a hipotézisr®l szeretnénk dönteni α = 0,1 terjedelem mellett.

Tegyük fel, hogy n = 60 dobásból a meggyelt gyakoriságok táblázata az alábbi. Azutolsó sorba a várt gyakoriságokat írtuk.

értékek 1 2 3 4 5 6

νi 8 7 18 16 6 5

npi 10 10 10 10 10 10

36

Page 39: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

A próbastatisztika:

χ2 =(8− 10)2

10+

(7− 10)2

10+

(18− 10)2

10+

(16− 10)2

10+

(6− 10)2

10+

(5− 10)2

10= 15,4.

A kritikus érték f = r−1 = 5 szabadsági fok mellett χ25(0,1) = 9,24. Mivel 15,4 > 9,24,

H0-t elvetjük, azaz a kocka nem tekinthet® szabályosnak.

3.3. Példa. Tegyük fel, hogy egy hibás villanykapcsoló nem mindig m¶ködik. Null-hipotézisünk az, hogy a villany felgyújtására tett próbálkozások x valószín¶séggelsikeresek, és függetlenek. Azt gyeljük meg, hogy a kapcsoló hányadik próbálkozás-ra gyújtja fel a villanyt, jelölje ezt az i-edik kísérletben Xi. Nullhipotézisünk tehátaz, hogy Xi ∼ Geo(p) valamilyen p-re (itt p jelöli a sikeres felkapcsolás esélyét egypróbálkozásnál). Legyen a terjedelem α = 0,05.Tegyük fel, hogy n = 400 kísérletben az alábbi gyakorisággal jöttek ki a különböz®értékek:

értékek 1 2 3 4

νi 324 57 14 5

A minta átlaga: X =1 · 324 + 2 · 57 + 3 · 14 + 4 · 5

400=

500

400=

5

4, ebb®l a paraméter ML

becslése p = 1X

= 0,8. A geometriai eloszlás pozitív egész értékeket vehet fel, tehát alehetséges értékek egy csoportosítása: A1 = 1, A2 = 2, A3 = 3, A4 = 4, . . .. Anégy csoport becsült valószín¶sége:

p1 = 0,8, p2 = 0,2 · 0,8 = 0,16, p3 = 0,22 · 0,8 = 0,032, p4 = 1− p1 − p2 − p3 = 0,008.

A várt értékek táblázata tehát:

értékek 1 2 3 ≥ 4

npi 320 64 12,8 3,2

A próbastatisztika:

χ2 =(324− 320)2

320+

(57− 64)2

64+

(14− 12,8)2

12,8+

(5− 3,2)2

3,2= 1,95.

A szabadsági fok f = r− s− 1 = 4− 1− 1 = 2, így a kritikus érték χ22(0,05) = 5,99, és

mivel 1,95 < 5,99, így H0-t elfogadjuk. (Tulajdonképpen még a harmadik és negyedikcsoportot is össze lehetne vonni.)

37

Page 40: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Ha a feltételezett eloszlás folytonos, akkor a teljes számegyenest kell interval-lumokra, illetve félegyenesekre bontani. Az intervallumok megválasztásához néhány jótanács:1)Az intervallumok száma ne legyen se túl kevés (nem elég er®s a próba, a mintábanlév® információ nagy része elveszik), se túl sok (a χ2 közelítés sérül).2) Az osztópontokat úgy válasszuk, hogy az intervallumok pi valószín¶ségei közelegyformák legyenek.

Összefoglalva, az illeszkedésvizsgálat lépései :1) Ha becsléses esettel van dolgunk, akkor a paramétereket megbecsüljük a mintábólML módszerrel.2) A lehetséges értékkészletet véges sok csoportba osztjuk (TER-t hozunk létre).3) Kiszámoljuk a csoportok várt gyakoriságát.4) Ha vannak kicsi (pl. 5-nél kisebb) várt gyakoriságok, akkor összevonunk csoportokat.5) Kiszámoljuk a próbastatisztikát, kikeressük a szabadsági foknak és a terjedelemnekmegfelel® kritikus értéket.6) Összehasonlítva a kett®t, levonjuk a következtetést.

3.2.2. Függetlenségvizsgálat

Függetlenségvizsgálatnál arra vagyunk kíváncsiak, hogy két ismérv függetlennektekinthet®-e egymástól. Vagyis minden meggyelést két szempont szerint osztályozunk(embereknél a két szempont lehet pl. a szemszín és a hajszín). Tegyük fel, hogy az els®szempont szerint r osztály van, és jelölje Ai azt az eseményt, hogy egy meggyelés azels® szempont szerint az i-edik osztályba esik. Hasonlóan, legyen a második szempontszerint s osztály, és jelölje Bj azt az eseményt, hogy egy meggyelés a második szempontszerint a j-edik osztályba esik. Nullhipotézisünk tehát az, hogy a két szempont függetlenegymástól, azaz

P (Ai ∩Bj) = P (Ai) · P (Bj) minden i = 1, . . . , r és j = 1, . . . , s.

Az ellenhipotézis pedig az, hogy a két szempont összefügg. Vegyük észre, hogy itt aCij = Ai ∩ Bj eseményekb®l álló rs elem¶ teljes eseményrendszer valószín¶ségeir®lteszünk fel valamit, méghozzá azt, hogy szorzat alakba írhatók, azaz léteznek olyanp1, . . . , pr és q1, . . . , qs paraméterek, hogy P (Cij) = piqj.

38

Page 41: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Vegyünk egy n elem¶ mintát. Jelölje νij a Cij esemény gyakoriságát, valamint legyen

νi• =s∑

j=1

νij az Ai gyakorisága és ν•j =r∑

i=1

νij a Bj gyakorisága. El®ször meg kell

becsülnünk a paramétereket ML-módszerrel. Mivel a valószín¶ség maximum likelihoodbecslése a relatív gyakoriság, kapjuk, hogy

pi =νi•

n, qj =

ν•jn.

Összesen r − 1 darab pi paramétert becsültünk (mivel pr = 1−∑r−1

i=1 pi már adódik),és s− 1 darab qj paramétert. Így

χ2 =r∑

i=1

s∑j=1

(νij − n · piqj)2

n · piqj=

r∑i=1

s∑j=1

(νij − νi•ν•j

n)2

νi•ν•j

n

H0≈ χ2f ,

ahol a szabadsági fok: f = r · s− (r − 1 + s− 1)− 1 = (r − 1)(s− 1).Megjegyezzük, hogy r = s = 2 esetben a próbastatisztika egyszer¶bb alakra hozható

(a szorgalmas olvasó utánaszámolhat):

χ2 =n · (ν11ν22 − ν12ν21)

2

ν1•ν2•ν•1ν•2.

3.4. Példa. 200 emberr®l feljegyezték, hogy sz®ke-e, és hogy kékszem¶-e. Az alábbitáblázatot kapták:

haj/szem kék más

sz®ke 30 20 50

más 70 80 150

100 100 200

Az adatok alapján függetlennek tekinthet®-e a hajszín és a szemszín α = 0,05 ter-jedelem mellett? A várt értékek táblázata:

haj/szem kék más

sz®ke 25 25

más 75 75

39

Page 42: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

A próbastatisztika:

χ2 =(30− 25)2

25+

(20− 25)2

25+

(70− 75)2

75+

(80− 75)2

75=

200 · (30 · 80− 70 · 20)2

100 · 100 · 50 · 150= 2,67.

A szabadsági fok f = (2−1) · (2−1) = 1, a kritikus érték pedig χ21(0,05) = 3,84. Tehát

a szemszín és a hajszín függetlennek tekinthet®.

3.2.3. Homogenitásvizsgálat

Khi-négyzet próbával ellen®rizhetjük azt is, hogy két független minta ugyanabból azeloszlásból származhat-e. Mivel a khi-négyzet próbában egy véges teljes eseményrend-szer szerepel, a próbát inkább diszkrét minták homogenitásának vizsgálatához szokáshasználni. Mindenesetre a minták lehetséges értékkészletét véges sok csoportra kell osz-tanunk, hogy a próbát elvégezhessük. Legyen tehát X és Y két valószín¶ségi változó,közös értékkészletüket bontsuk fel az A1, . . . , Ar osztályokra. Nullhipotézisünk az, hogyX és Y eloszlása megegyezik, azaz P (X ∈ Ai) = P (Y ∈ Ai) minden i-re. Most 2r darabvalószín¶ségünk van, és ezekr®l feltételezzük, hogy kett®-kett® mindig megegyezik.Tegyük fel, hogy az X valószín¶ségi változóra egy n elem¶ mintánk van, jelölje νi, hogyhány mintaelem esik az Ai osztályba. Hasonlóan, az Y -ra m elem¶ mintánk van, ebb®lµi esik az Ai osztályba. Ha feltesszük, hogy teljesül a nullhipotézis, akkor az Ai osztályvalószín¶ségének ML becslése a két mintából éppen a relatív gyakoriság: pi = νi+µi

n+m.

A próbastatisztika:

χ2 =r∑

i=1

(νi − npi)2

npi

+r∑

i=1

(µi −mpi)2

mpi

H0≈ χ2f ,

ahol a szabadsági fok: f = (r − 1) + (r − 1)− (r − 1) = r − 1, hiszen mindkét összegszabadsági foka (ha nem becsült paraméterek lennének) r−1, viszont r−1 paramétertbecsültünk, amit le kell vonni.A fenti statisztika átalakítása után kapjuk, hogy

χ2 = nm

r∑i=1

(νi

n− µi

m

)2νi + µi

H0≈ χ2r−1.

3.5. Példa. Tegyük fel, hogy van két dobókockánk, melyeken 1-t®l 6-ig vannak szá-mozva a lapok, de nem tudjuk, hogy melyik érték milyen valószín¶séggel jön ki (azaza kockák cinkeltek). Kérdésünk, hogy a két kocka egyformán van-e cinkelve? Legyen a

40

Page 43: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

terjedelem α = 0,05.Az els® kockával 50-szer, a másodikkal 100-szor dobva az alábbi adatokat kaptuk:

érték 1 2 3 4 5 6 r = 6

νi (1. kocka) 15 15 5 6 5 4 n = 50

µi (2. kocka) 7 10 12 11 32 28 m = 100

A próbastatisztika:

χ2 = 50 · 100 ·6∑

i=1

(νi

50− µi

100

)2νi + µi

= 32,96.

A kritikus érték χ26−1(0,05) = 11,1. Mivel 32,96 > 11,1, H0-t elvetjük, vagyis a két

kocka nem tekinthet® egyformának.

3.3. Folytonos eloszlású mintára a χ2-próba helyett alkalmazható

próbák

Láttuk, hogy a khi-négyzet próba háromféle feladat tesztelésére alkalmas. Mind-három típus alkalmazható folytonos eloszlású mintákra, ha azokat diszkretizáljuk.Azonban a khi-négyzet próba alapvet®en diszkrét jelleg¶, így felmerül a kérdés, hogyfolytonos eloszlású mintákra nem lehet-e olyan próbákat konstruálni, amihez nincsszükség diszkretizálásra. A válasz természetesen az, hogy lehet, méghozzá számos ilyenpróbát kidolgoztak a statisztikusok. Nem célunk, hogy ezekkel kimerít®en foglalkoz-zunk, mindegyik hipotézisvizsgálati feladathoz csak egyet mutatunk be. Ezeknek apróbáknak közös eleme, hogy a tapasztalati eloszlásfüggvények alapján hozzuk meg adöntést.

Emlékezzünk vissza, hogy Glivenko tétele szerint az Fn tapasztalati eloszlásfügg-vény 1 valószín¶séggel egyenletesen tart a valódi F eloszlásfüggvényhez, továbbá aztis észrevettük, hogy az |Fn(x)−F (x)| eltérés 1/

√n nagyságrend¶. A következ® tételre

lesz még szükségünk.

3.2. Tétel. Legyen X folytonos eloszlású valószín¶ségi változó, eloszlásfüggvényét

jelölje F (x). Ekkor az Y = F (X) valószín¶ségi változó egyenletes eloszlású a (0,1)

intervallumon.

41

Page 44: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Bizonyítás. El®ször is nyilvánvaló, hogy Y csak 0 és 1 közötti értékeket vesz fel. Legyen0 < y < 1. Ekkor

P (Y < y) = P (F (X) < y) = P (X < F−1(y)) = F (F−1(y)) = y,

és ezt akartuk bizonyítani.

Illeszkedésvizsgálat: Kolmogorov próba. LegyenX1, . . . , Xn folytonos F elosz-lásból vett minta. Nullhipotézisünk az, hogy az eloszlásfüggvény éppen F0, azaz F = F0.

Készítsük el a minta Fn tapasztalati eloszlásfüggvényét, és tekintsük a következ®próbastatisztikát:

Dn = supx∈R

∣∣∣Fn(x)− F0(x)∣∣∣ .

Megmutatható, hogy a Dn statisztika H0 melletti eloszlása nem függ F0-tól, ugyanismivelX(n)

i ésX(n)i+1 között a tapasztalati eloszlásfüggvény konstans i

n, az F0 eloszlásfügg-

vény pedig monoton n®, ezért a próbastatisztikában a szuprémum lecserélhet® végessok érték maximumára:

Dn = max0≤i≤n

[max

(|F0(X

(n)i )− i/n|, |F0(X

(n)i+1)− i/n|

)].

Továbbá a nullhipotézis mellett F0(Xi) ∼ E(0,1), azaz a képletben szerepl® F0(X(n)i )

(i = 1,2, . . . , n) valószín¶ségi változók ugyanolyan eloszlásúak, mint az E(0,1) eloszlás-ból vett n elem¶ minta rendezett mintája.

Tehát Dn nullhipotézis melletti eloszlása egy jól meghatározott eloszlás, ennekkritikus értékeit kis n-re táblázatból lehet kikeresni. S®t, mivel az |Fn(x) − F0(x)|eltérés 1/

√n nagyságrend¶, nem nagyon meglep®, hogy

√nDn eloszlásban konvergál

egy határeloszláshoz:

P (√nDn < y)

n→∞−→ K(y) =+∞∑

i=−∞

(−1)i · e−2i2y2

(y > 0).

A fenti K eloszlásfüggvényhez tartozó eloszlás az ún. Kolmogorov eloszlás. Azaz han elég nagy, akkor a Kolmogorov eloszlásból számolhatunk kritikus értéket, példáulα = 0,05 terjedelem mellett akkor utasítjuk el H0-t, ha

√nDn > 1,36. Megjegyez-

zük, hogy a Kolmogorov próba nem túlságosan er®s, ezért a fontos eloszlásokhoz valóilleszkedés vizsgálatára (pl. normalitásvizsgálatra) más próbákat szokás használni.

42

Page 45: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Függetlenségvizsgálat: Blum-Kiefer-Rosenblatt próba. Legyen (Xi, Yi)

(i = 1, . . . , n) egy folytonos H(x, y) eloszlásfüggvény¶ eloszlásból származó n ele-m¶ minta. Jelölje a H-hoz tartozó marginális eloszlásokat F (x) = limw→∞H(x,w)

és G(y) = limz→∞H(z, y). A nullhipotézis szerint a két koordináta független, azazH(x, y) = F (x)G(y) minden x, y párra. Az ötlet az, hogy a tapasztalati együttes elosz-lásfüggvényt hasonlítjuk össze a tapasztalati marginális eloszlásfüggvények szorzatával.Legyenek Fn illetve Gn az els® illetve második koordináta tapasztalati eloszlásfügg-vényei, Hn pedig a tapasztalati együttes eloszlásfüggvény. Ezeket a függvényeket amintapontokban fogjuk kiértékelni. Vezessük be minden i-re (i = 1, . . . , n) a következ®jelöléseket:

N1(i) = | j : Xj ≥ Xi és Yj ≥ Yi |N2(i) = | j : Xj < Xi és Yj ≥ Yi |N3(i) = | j : Xj < Xi és Yj < Yi |N4(i) = | j : Xj ≥ Xi és Yj < Yi | ,

azaz N`(i) darab pont esik az (Xi, Yi) pont által meghatározott `-edik síknegyedbe,ahogy az alábbi kis rajzon látszik:

N3(i) N4(i)

N2(i) N1(i)•(Xi,Yi)

Ezekkel a jelölésekkel

Hn(Xi, Yi) =N3(i)

n, Fn(Xi) =

N2(i) +N3(i)

n, Gn(Yi) =

N3(i) +N4(i)

n.

Felhasználva, hogy n = N1(i) +N2(i) +N3(i) +N4(i), kapjuk, hogy

Hn(Xi, Yi)− Fn(Xi)Gn(Yi) =N3(i)

n· N1(i) +N2(i) +N3(i) +N4(i)

n−

N2(i) +N3(i)

n· N3(i) +N4(i)

n=N1(i)N3(i)−N2(i)N4(i)

n2.

Legyen a próbastatisztika

Bn =1

n

n∑i=1

(Hn(Xi, Yi)− Fn(Xi)Gn(Yi))2 =

1

n

n∑i=1

(N1(i)N3(i)−N2(i)N4(i)

n2

)2

,

a nullhipotézis mellett azt várjuk, hogy ennek értéke viszonylag kicsi.

43

Page 46: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Belátható, hogy Bn nullhipotézis melletti eloszlása nem függ az F,G margináliseloszlásoktól, vagyis ez egy jól meghatározott eloszlás, melynek kritikus értékeit kisn-re táblázatból lehet kinézni. S®t, mivel a tapasztalati eloszlásfüggvény és a valódieloszlásfüggvény eltérése 1/

√n nagyságrend¶, ezért a nullhipotézis mellett Hn és FnGn

eltérése is ugyanilyen nagyságrend¶, ezért nem nagyon meglep®, hogy nBn eloszlásbankonvergál egy határeloszláshoz. Azaz ha n elég nagy, akkor ebb®l az aszimptotikuseloszlásból számolhatunk kritikus értékeket (pl. α = 0,05 terjedelem mellett akkorutasítjuk el H0-t, ha nBn > 0,058).

Homogenitásvizsgálat: Kolmogorov próba. LegyenekX1, . . . , Xn és Y1, . . . , Ym

független minták valamilyen folytonos eloszlásokból (az eloszlásfüggvények F , illetveG). Nullhipotézisünk az, hogy ugyanabból az eloszlásból származnak, vagyis F = G.

Készítsük el a mintákból az Fn és Gm tapasztalati eloszlásfüggvényeket, és tekintsüka következ® próbastatisztikát:

Dn,m = supx∈R

∣∣∣Fn(x)− Gm(x)∣∣∣ .

Ismét megmutatható, hogy Dn,m nullhipotézis melletti eloszlása nem függ a két mintaközös eloszlásától, és

√m·nm+n

·Dn,m aszimptotikusan Kolmogorov eloszlású. Azaz ha n,melég nagyok, akkor a Kolmogorov eloszlásból számolhatunk kritikus értéket, ha pedign,m kicsi, akkor külön táblázat tartalmazza a kritikus értékeket.

3.4. Lineáris modell, szórásanalízis

A lineáris modellr®l és annak általánosításairól könyveket lehetne írni (sokan meg istették), mi most csak a legegyszer¶bb esetet mutatjuk be röviden. Ebben a modellbenazt feltételezzük, hogy a meggyelésünk (Y ) valamilyen általunk ismert, az egyedrejellemz® értékek (xj, j = 1, . . . , p) lineáris függvénye, valamilyen (mérési) hibával ter-helten. Azaz

Y = a1x1 + a2x2 + . . .+ apxp +H = xTa+H,

ahol feltesszük, hogy aH valószín¶ségi változó várható értéke nulla. Az a = (a1, . . . , ap)T

oszlopvektor tartalmazza az ismeretlen paramétereket. A konstans tagot úgy építhetjükbe a modellbe, hogy feltesszük például, hogy x1 = 1, ekkor a1 a konstans tag. Az x =

= (x1, . . . , xp)T oszlopvektor tartalmazza az egyedre jellemz® értékeket.

Vizsgálhatjuk például az emberek jövedelmét. Ekkor az Y függ® változó a jövedelem,a független változók pedig lehetnek például az életkor, a gyermekek száma, de bevon-

44

Page 47: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

hatunk kategórikus változókat is megfelel®en kódolva, mondjuk a nemet (fér = 0, n®= 1) és a lakhelyet (Budapest = 0, más város = 1, község = 2). Ebben a példában tehátnégy független változónk van, a konstans taggal együtt a paraméterek száma p = 5.

Gy¶jtöttünk egy n elem¶ mintát, azaz meggyeltük az

Yi = a1xi1 + a2xi2 + . . .+ apxip +Hi, i = 1, . . . , n

értékeket, ahol most azt is feltesszük, hogy a Hi változók függetlenek, és mindegyikneka szórásnégyzete ugyanannyi (jelölje ezt D2(Hi) = σ2). A modellt a következ® tömörmátrixos alakba írhatjuk:

Y = Xa+H,

ahol Y n× 1-es oszlopvektor, X n× p méret¶ mátrix, a p× 1-es oszlopvektor, H pedign× 1-es oszlopvektor.

Nézzünk most egy becsléselméleti feladatot: szeretnénk az a paramétervektort be-csülni. Gyakran használt módszer a legkisebb négyzetek elve: az a paramétervektorlegkisebb négyzetes becslése az az a vektor, melyre ||Y − Xa||2 minimális (|| · || azeuklideszi normát jelöli). Pontosan ezt a feladatot oldottuk meg a Valószín¶ségszámítás1. tárgyban az egyváltozós lineáris regresszió kiszámításánál, amikor az (xi, yi) (i =

= 1, . . . , n) pontokra kellett egyenest illeszteni. Ebben a speciális esetben aT = (a1, a2)

az egyenes konstans tagja és meredeksége, Y T = (y1, . . . , yn) a meggyelések, és

XT =

(1 . . . 1

x1 . . . xn

).

a független változók mátrixa.Keressük meg a legkisebb négyzetes becslést! Vegyük el® a geometriai szemléletün-

ket: világos, hogy Xa az Y vektornak a V = Xb : b ∈ Rp lineáris altérre vettmer®leges vetülete kell legyen, azaz Y −Xa mer®leges az összes Xb alakú vektorra:

0 = (Xb)T (Y −Xa) = bTXT (Y −Xa) ∀b ∈ Rp,

ami csak úgy lehet, ha XTY = XTXa. Ha XTX invertálható (ezt fel szokás tenni),akkor a paramétervektor legkisebb négyzetes becslése

a = (XTX)−1XTY.

45

Page 48: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Mivel E(Y ) = Xa, ezért E(a) = a, azaz ez torzítatlan becslés. Továbbá az is igaz, hogya hiba szórásnégyzetének torzítatlan becslése

σ2 =||Y −Xa||2

n− p.

Ha azt is feltesszük, hogy a hibák normális eloszlásúak, azaz Hi ∼ N(0, σ2), akkoraz Y minta eloszlása is meghatározott, tehát alkalmazhatjuk például a maximumlikelihood módszert (és megmutatható, hogy a fenti a egyben az a paraméter maxi-mum likelihood becslése is). Továbbá a eloszlása is meghatározott, tehát adhatunka paraméterekre kondenciaintervallumokat, illetve vizsgálhatunk hipotéziseket. Ebbemost nem megyünk bele részletesebben, csak egy példán, a szórásanalízis esetén szem-léltetjük. A szórásanalízis a lineáris modell egy speciális esete. A legegyszer¶bb eseté-vel, az egyszempontos szórásanalízissel foglalkozunk. Azt vizsgáljuk, hogy egy faktorkülönböz® szintjeinek van-e hatása a függ® változóra. Vizsgálhatjuk például, hogy atáp megválasztása (ez a faktor) hatással van-e a csirkék súlyára (ez a függ® változó).Feltesszük, hogy a faktornak k szintje van (azaz a példában k különböz® tápot alkal-mazunk), az i-edik szinten ni meggyelésünk van, és n =

∑ki=1 ni az összes meggyelés

száma. A faktor i-edik szintjén a j-edik meggyelés alakja:

Yij = ai +Hij, i = 1, . . . , k, j = 1, . . . , ni,

ahol ai az i-edik szint hatása (ezek az ismeretlen paraméterek), és aHij hibák független,N(0, σ2) eloszlásúak. Látszik, hogy ez valóban a lineáris modell speciális esete: az Yvektort képezzük úgy, hogy az Yij értékeket egymás alá írjuk:

Y = (Y11, Y12, . . . , Y1n1 , Y21, . . . , Y2n2 , . . . , Yk1, . . . , Yknk)T .

Az n× k méret¶ X modellmátrixban pedig az Yij-nek megfelel® sorban az i-edik elemlegyen 1-es, a többi pedig 0. Ezzel valóban Y = Xa+H. Mint említettük, arra vagyunkkíváncsiak, hogy van-e a faktornak bármilyen hatása. Legyen az a nullhipotézis, hogynincs hatás:

H0 : a1 = a2 = · · · = ak.

A k = 2 esetben ezt a hipotézist a kétmintás t-próbával tesztelhetjük. k > 2 esetben ahipotézist akkor fogjuk elutasítani, ha a csoportok (szintek) közötti szóródás lényege-

46

Page 49: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

sen nagyobb, mint a csoportokon belüli. Erre használják a következ® szórásfelbontótáblázatot:

szóródás oka négyzetösszeg szabadsági fok tapasztalati szórásnégyzetcsoportok közötti Qa k − 1 s2

a = Qa

k−1

csoportokon belüli Qe n− k s2e = Qe

n−k

teljes Q n− 1

Jelölje Y i• az i-edik csoport meggyeléseinek átlagát, Y •• pedig mind az n meggyelésátlagát. Ekkor

Qa =k∑

i=1

ni(Y i•−Y ••)2, Qe =

k∑i=1

ni∑j=1

(Yij−Y i•)2, Q =

k∑i=1

ni∑j=1

(Yij−Y ••)2 = Qa+Qe.

Megmutatható, hogy a fenti nullhipotézis esetén az F =s2

a

s2e

statisztika Fk−1,n−k elosz-

lású, azaz akkor vetjük el a nullhipotézist, ha F értéke nagyobb, mint az Fk−1,n−k

eloszlás (1− α)-kvantilise.

3.3. Példa. 37 csirkét három csoportra osztottak: az els® csoportot (12 állat) lenmag-gal, a másodikat (14 állat) szójababbal, a harmadikat (11 állat) hústáppal etették. A7. ábra mutatja a három csoport súlyeloszlását. Az adatok:

els® csoport: 309, 229, 181, 141, 260, 203, 148, 169, 213, 257, 244, 271

második csoport: 243, 230, 248, 327, 329, 250, 193, 271, 316, 267, 199, 171, 158, 248

harmadik csoport: 325, 257, 303, 315, 380, 153, 263, 242, 206, 344, 258

A 37 adat teljes átlaga 246,51, míg a csoportok átlagai rendre 218,75, 246,43 és276,91. Ha a csoportokat párosával hasonlítjuk össze kétmintás t-próbával, akkor aztkapjuk, hogy az els® és a második csoport súlyának várható értéke egyformánaktekinthet®, tehát a lenmag és a szójabab egyforma súlygyarapodást idéz el®. Ugyan-erre az eredményre jutunk a második és a harmadik csoport összehasonlításával is.Ha azonban az els® és a harmadik csoportot hasonlítjuk össze, akkor a próba p-értéke0,027, azaz közepesen er®s bizonyítékot találhatunk arra, hogy a lenmaggal, illetvehústáppal etetett állatok súlya között szignikáns különbség van (méghozzá a hústápjobbnak t¶nik). Ha a három csoportot egyszerre szeretnénk összehasonlítani, akkorszórásanalízist végezhetünk. A szórásfelbontó táblázat:

47

Page 50: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

7. ábra. A különféle tápokkal etetett csirkék súlyeloszlásai (3.3. Példa).

szóródás oka négyzetösszeg szabadsági fok tapasztalati szórásnégyzetcsoportok közötti 19413 2 9706

csoportokon belüli 110225 34 3242

teljes 129638 36

Az próbastatisztika értéke F = 2,994, melynek p-értéke 0,0634, tehát nem találtunkmeggy®z® bizonyítékot arra, hogy a csoportok között szignikáns különbség lenne.

4. Diszkrét idej¶ Markov láncok

Tekintsünk egy megszámlálható sok csúcspontú irányított gráfot úgy, hogy mindenélre egy nemnegatív szám van írva, és minden csúcs kimen® éleire írt számok összege 1

(hurokél is megengedett). Ezen a gráfon bolyongunk az élekre írt valószín¶ségek szerint.Ha egységnyi id®közönként lépünk, akkor diszkrét idej¶ Markov láncot kapunk. Ennekmeghatározó tulajdonsága, hogy a lánc jöv®beli fejl®dése csak a pillanatnyi állapottólfügg, a múlttól nem. Deniáljuk formálisan is a Markov láncot!

4.1. Deníció. Legyen adott az Xnn∈N folyamat, aholXn : Ω → I valószín¶ségi vál-

tozók az (Ω,A, P ) valószín¶ségi mez®n, I pedig megszámlálható halmaz. A folyamatot

diszkrét idej¶ (homogén) Markov láncnak nevezzük, ha

48

Page 51: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

• Markov-tulajdonságú, azaz minden n1 < · · · < nk < m és minden i1, . . . , ik, j ∈ Iesetén

P (Xm = j | Xn1 = i1, . . . , Xnk= ik) = P (Xm = j | Xnk

= ik),

• és stacionárius (vagy homogén) átmenetvalószín¶ség¶, azaz minden i, j ∈ I eseténa P (Xn+1 = j | Xn = i) = pij átmenetvalószín¶ség nem függ n-t®l.

A P = (pij) mátrixot átmenetmátrixnak nevezzük (nem keverend® össze a va-lószín¶séggel), elemei az átmenetvalószín¶ségek. Az X0 eloszlását kezdeti eloszlásnakhívjuk, méghozzá legyen P (X0 = i) = pi. Annak valószín¶sége, hogy a folyamat egyadott állapotsorozatot jár be, a Markov tulajdonság szerint:

P (X0 = i0, X1 = i1, . . . , Xn = in) =

= P (X0 = i0)P (X1 = i1|X0 = i0) · · ·P (Xn = in|X0 = i0, . . . , Xn−1 = in−1) =

= pi0pi0i1 · · · pin−1in .

A P átmenetmátrix úgynevezett sztochasztikus mátrix, azaz pij ≥ 0 és minden sorösszege 1.

4.2. Állítás. Legyenek p(n)ij = P (Xn+m = j|Xm = i) az n-edrend¶ átmenetvalószín¶-

ségek. Ezekre teljesül a Chapman-Kolmogorov egyenl®ség:

p(n+m)ij =

∑k

p(n)ik p

(m)kj .

Ez azt jelenti, hogy a a p(n)ij mennyiségek éppen a P n mátrix megfelel® elemei.

Bizonyítás.

p(n+m)ij = P (Xn+m = j | X0 = i) =

∑k

P (Xn+m = j,Xn = k | X0 = i) =∑k

P (Xn = k | X0 = i)P (Xn+m = j | Xn = k,X0 = i) =∑

k

p(n)ik p

(m)kj .

4.1. Osztályok, periódus, visszatér®ség

Azt mondjuk, hogy az i állapotból elérhet® j ( jel. i→ j), ha van olyan n természetesszám, hogy p

(n)ij > 0. Ez a reláció reexív (p(0)

ii = 1 miatt) és tranzitív (Chapman-

49

Page 52: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Kolmogorov miatt). Azt mondjuk, hogy i és j közlekednek, ha i → j és j → i. Ezekvivalenciareláció, tehát osztályokra bontja az állapotteret (csak az átmenetmátrixtólfügg). A Markov lánc irreducibilis, ha egyetlen osztályból áll. Az i állapot lényeges,ha i → j esetén j → i is teljesül. Az állapotokra értelmezett valamely tulajdonságosztálytulajdonság, ha egy osztálynak vagy minden eleme ilyen tulajdonságú, vagyegy sem. Triviálisan látszik, hogy a lényegesség osztálytulajdonság, azaz beszélhetünklényeges és lényegtelen osztályokról. (Biz. : Tegyük fel, hogy i lényeges, j lényegtelen,és i → j. Létezik k, hogy j → k, de k 6→ j. Másrészt i → j → k, tehát i lényegességemiatt k → i→ j, ami ellentmondás.) A lényeges osztályokból nem lehet kijutni (mertakkor vissza is tudnánk jönni, azaz osztályon belül maradnánk), a lényegtelenekb®lviszont igen: ha elhagytuk ®ket, akkor többé már nem térhetünk vissza.

4.3. Deníció. Az n > 0 : p(n)ii > 0 halmaz legnagyobb közös osztója az i periódusa,

jelölése d(i). Ha a halmaz üres, akkor a periódust nem értelmezzük. Ha d(i) = 1, akkor

az állapot aperiodikus.

4.4. Állítás. Egy osztály minden állapotának ugyanannyi a periódusa.

Bizonyítás. Legyen i és j két állapot egy osztályból. Ekkor létezik n és m úgy, hogyp

(n)ij > 0 és p(m)

ji > 0. Ha valamely s-re p(s)jj > 0, akkor p(n+s+m)

ii > 0 és p(n+2s+m)ii >

> 0. Emiatt d(i)|n + s + m és d(i)|n + 2s + m, amib®l d(i)|s következik. d(i) tehátközös osztója az ilyen s számoknak, azaz d(i)|d(j). Mivel i és j szerepe felcserélhet®,az állítást beláttuk.

Azt is meg lehet mutatni, hogy ha C egy d > 1 periódusú osztály, akkor C felbomlik ddarab C0, C1, . . . , Cd−1 részosztályra úgy, hogy a lánc a Ci osztályból a Ci+1 osztálybaléphet csak át (a részosztályok számozását modulo d értjük).

4.5. Példa. Kövessük egy hivatalos ügy útját a hivatalok útveszt®jében, amíg az ügyle nem zárul! Tegyük fel, hogy az ügyet az A hivatal 1/2 eséllyel a B hivatalnak, 1/2

eséllyel a C hivatalnak küld tovább. AB hivatal 1/2 eséllyel visszaküldi azA hivatalnak,1/2 eséllyel pedig szintén a C hivatalnak továbbítja. A C hivatal 1/3 eséllyel lezárja azügyet, 2/3 eséllyel viszont a D hivatalnak adja át. Végül a D hivatal három lehet®ségközül választ: 1/2 eséllyel lezárja az ügyet, 1/4 eséllyel visszaküldi a C hivatalnak,1/4 eséllyel pedig hivatalon belül tovább foglalkozik vele. Ha az ügyet lezárták, akkortermészetesen már örökre úgy marad (kódoljuk ezt az L bet¶vel).

50

Page 53: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Jelölje Xn, hogy hol dekkol az ügy az n-edik lépésben. Ekkor a folyamat Markovlánc az I = A,B,C,D, L állapottéren. Az átmenetmátrix (az állapotoknak ezt asorrendjét használva):

P =

0 1/2 1/2 0 0

1/2 0 1/2 0 0

0 0 0 2/3 1/3

0 0 1/4 1/4 1/2

0 0 0 0 1

.

Az állapottér három osztályból áll : az A,B osztály lényegtelen, periódusa 2, a C,Dosztály szintén lényegtelen, aperiodikus, az L osztály lényeges, aperiodikus. L úgy-nevezett elnyel® állapot.

Most azt fogjuk megvizsgálni, hogy adott állapotból indulva, a lánc bejárja-e ateljes állapotteret, azaz el®bb-utóbb eléri-e az összes többi állapotot, illetve visszatér-ea kiinduló állapotba. Vezessük be a következ® jelöléseket:

f(0)ij = 0, f

(n)ij = P (Xn = j, Xk 6= j : k = 1, 2, . . . , n− 1 | X0 = i) n ≥ 1.

Az f (n)ij mennyiség tehát annak valószín¶sége, hogy az i állapotból indulva, a lánc

el®ször az n-edik lépésben ér el a j állapotba. Legyen még

f ∗ij =∞∑

n=1

f(n)ij ,

ez tehát annak a valószín¶sége, hogy az i állapotból indulva, a lánc el®bb-utóbb eléria j állapotot.

4.6. Deníció. Az i állapot visszatér® vagy rekurrens, ha f ∗ii = 1, egyébként pedig

átmeneti vagy tranziens. Ha i visszatér®, akkor az átlagos visszatérési id® mi =

=∑∞

n=1 nf(n)ii . Az i állapot pozitív rekurrens, ha mi < ∞, ha pedig mi = ∞, akkor

nulla rekurrens.

Könnyen látszik, hogy a lényegtelen állapotok tranziensek, hiszen az i lényegtelen ál-lapotból indulva, a lánc pozitív valószín¶séggel el®bb hagyja el az osztályt, mint hogyvisszatérne i-be. Ha viszont a lánc már kilépett az i osztályából, akkor soha nem

51

Page 54: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

fog visszatérni i-be. Fordítva általában nem igaz, azaz a tranziens állapotok lehet-nek lényegesek. A következ® tétel lehet®séget ad arra, hogy eldöntsük, egy állapotvisszatér®-e.

4.7. Tétel. Az i állapot akkor és csak akkor visszatér®, ha∑∞

n=0 p(n)ii = ∞.

A bizonyításhoz egy lemmára lesz szükségünk, mely a Toeplitz szummációs tételspeciális esete.

4.8. Lemma. Legyenek an és bn nemnegatív sorozatok, an korlátos, és limn→∞ bn =

= b <∞. Ekkor

limn→∞

∑nk=0 akbn−k∑n

k=0 ak

= b.

Bizonyítás. Legyen B olyan, hogy |bn − b| < B minden n-re, és adott ε-hoz N olyan küszöbindex,

hogy n ≥ N esetén |bn − b| < ε.∣∣∣∣∣n∑

k=0

ak(bn−k − b)

∣∣∣∣∣ ≤(

n−N∑k=0

ak

)ε +

(n∑

k=n−N+1

ak

)B.

Ebb®l

lim supn→∞

∣∣∣∣∑nk=0 akbn−k∑n

k=0 ak− b

∣∣∣∣ ≤ ε + B limn→∞

∑nk=n−N+1 ak∑n

k=0 ak= ε.

Bizonyítás. (4.7 Tételé.) Tekintsük a p(r)ij átmenetvalószín¶séget. Ez tehát annak va-

lószín¶sége, hogy az i állapotból indulva, a lánc az r-edik lépésben a j állapotban van.Legyen Ak = Xr−k = j,Xm 6= j ha m < r − k az az esemény, hogy a lánc el®ször az(r − k)-adik lépésben érte el a j állapotot (k = 0, . . . , r − 1). Ekkor

p(r)ij = P (Xr = j|X0 = i) =

r−1∑k=0

P (Xr = j, Ak|X0 = i) =

r−1∑k=0

P (Ak|X0 = i)P (Xr = j|Ak, X0 = i) =r−1∑k=0

f(r−k)ij p

(k)jj ,

ahol az utolsó egyenl®ségben a Markov-tulajdonságot használtuk ki. Ezt összegezve, ésa két szummát megcserélve kapjuk, hogy

n∑r=1

p(r)ij =

n∑r=1

r−1∑k=0

f(r−k)ij p

(k)jj =

n−1∑k=0

p(k)jj

n−k∑s=1

f(s)ij =

n∑k=0

akbn−k,

52

Page 55: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

ahol

ak = p(k)jj (k ≥ 0), bk =

k∑s=1

f(s)ij (k ≥ 1), b0 = 0.

Vagyis alkalmazható a 4.8 lemma, és mivel b = limk→∞ bk = f ∗ij, kapjuk, hogy

limn→∞

∑nr=1 p

(r)ij∑n

r=0 p(r)jj

= f ∗ij. (10)

Ha ezt az i = j esetre alkalmazzuk, akkor a következ® összefüggést kapjuk:

limn→∞

∑nr=1 p

(r)ii∑n

r=0 p(r)ii

= limn→∞

∑nr=1 p

(r)ii

1 +∑n

r=1 p(r)ii

= f ∗ii.

Ebb®l látszik, hogy ha∑∞

n=0 p(n)ii = ∞, akkor f ∗ii = 1, ha viszont

∑∞n=0 p

(n)ii <∞, akkor

f ∗ii < 1.

Most már azt is be tudjuk látni, hogy a visszatér®ség osztálytulajdonság. Ha ugyanis iés j ugyanabban az osztályban vannak, akkor léteznek s, t lépésszámok, hogy p(s)

ij > 0

és p(t)ji > 0, és a Chapman-Kolmogorov összefüggés miatt

p(t+n+s)jj ≥ p

(t)ji p

(n)ii p

(s)ij .

Összegezve n-ben,

∞∑m=t+s

p(m)jj =

∞∑n=0

p(t+n+s)jj ≥ p

(t)ji p

(s)ij

∞∑n=0

p(n)ii .

Ha i visszatér®, akkor a jobboldal végtelen, de akkor a baloldal is, tehát j is visszatér®.Megjegyezzük, hogy visszatér® osztályban minden i, j állapotpárra f ∗ij = 1.

4.9. Példa. Bolyongás a számegyenesen. Legyen a jobbra lépés valószín¶sége p, a balralépésé q = 1−p (p, q > 0). A lánc irreducibilis, periódusa 2. Vizsgáljuk a visszatér®séget!Elég a 0 állapottal foglalkozni. A visszatérési valószín¶ségek (páros lépésszámra).

p(2n)00 =

(2n

n

)pn(1− p)n.

53

Page 56: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Szimmetrikus esetben már a Valószín¶ségszámítás 1. tárgyban láttuk, hogy a láncvisszatér® (a Stirling formula szerint n! ∼

√2πn(n

e)n, és ebb®l p(2n)

00 ∼ 1√πn, ezek sora

divergens).Ha viszont p 6= 1/2, akkor ugyancsak a Stirling formulát alkalmazva,

p(2n)00 ∼ 1√

πn(4p(1− p))n,

ahol 4p(1− p) < 1, tehát ebben az esetben az átmenetvalószín¶ségek sora konvergens,a lánc tranziens. Ebben az esetben érdekesek az f ∗ij valószín¶ségek. Nyilvánvaló, hogyi > j esetben f ∗ij = (f ∗10)

i−j és i < j esetben f ∗ij = (f ∗01)j−i, továbbá

f ∗ii = f ∗00 = pf ∗10 + qf ∗01.

Tegyük fel, hogy p < 1/2. Az f ∗10 valószín¶ségre a teljes valószín¶ség tétele szerint

f ∗10 = q · 1 + p · f ∗20 = q · 1 + p · (f ∗10)2.

Ennek a másodfokú egyenletnek a megoldásai 1 és q/p. De mivel a második megoldás1-nél nagyobb, ezért f ∗10 = 1. Hasonlóan,

f ∗01 = p · 1 + q · f ∗−1,1 = p · 1 + q · (f ∗01)2,

melynek megoldásai 1 és p/q. Azonban f ∗01 nem lehet 1, mert akkor a lánc visszatér®lenne. Tehát f ∗01 = p/q. Végül f ∗00 = 2p.

4.2. Határeloszlás, stacionárius eloszlás

Tegyük fel, hogy j átmeneti állapot, i pedig tetsz®leges. A (10) képlet szerint ekkorp

(n)ij → 0, hiszen a tört nevez®je véges összeghez tart, határértéke pedig egy nulla ésegy közötti szám, tehát a számlálója is véges összeghez kell tartson. Ha tehát a Markovlánc már jó ideje tart, akkor elhanyagolható valószín¶séggel tartózkodik a tranziens jállapotban, függetlenül attól, hogy melyik i állapotból indult. Vajon rekurrens állapotesetén mit mondhatunk err®l a határértékr®l?

4.10. Tétel. Ha i rekurrens állapot d periódussal, akkor limn→∞ p(nd)ii = d

mi.

54

Page 57: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Bizonyítás. Vegyük el®ször észre, hogy elég a d = 1 esetet igazolni. Ha ugyanis aperiódus d > 1, akkor az X0, Xd, X2d, . . . láncra áttérve, ott már i aperiodikus állapotlesz, és az átlagos visszatérési id® nyilván az eredetinek d-edrésze.

Legyen rk =∑∞

m=k+1 f(m)ii annak a valószín¶sége, hogy az els® k lépés alatt nem

térünk vissza i-be. Ekkor

∞∑k=0

rk =∞∑

k=0

∞∑m=k+1

f(m)ii =

∞∑m=1

f(m)ii

m−1∑k=0

1 =∞∑

m=1

mf(m)ii = mi.

Másrészt nézzük a lánc els® n lépését. Az összes lehet®séget bontsuk fel aszerint, hogyhányadik lépésben járt a lánc utoljára az i állapotban. Legyen Ak az az esemény, hogyéppen az (n − k)-adik lépésben történt ez az utolsó látogatás az i-ben, k = 0, . . . , n.Ekkor

1 =n∑

k=0

P (Ak) =n∑

k=0

rkp(n−k)ii .

Megint olyan összeget kaptunk, mint a 4.8 lemmában. Ha tudnánk, hogy p(n)ii konver-

gens, akkor a határértékére

limn→∞

p(n)ii = lim

n→∞

∑nk=0 rkp

(n−k)ii∑n

k=0 rk

=1

mi

adódna. Annak bizonyítását, hogy a sorozat tényleg konvergens, nem részletezzük,mivel meghaladja ennek a jegyzetnek a kereteit.

Azt kaptuk tehát, hogy az i állapot akkor és csak akkor pozitív rekurrens, ha alimn→∞ p

(nd)ii határérték pozitív. Az is könnyen látszik, hogy a pozitivitás osztálytu-

lajdonság: ha i és j ugyanabban a rekurrens osztályban vannak, akkor van olyan n

és m, hogy p(n)ij > 0 és p(m)

ji > 0. A p(m+kd+n)ii ≥ p

(n)ij p

(kd)jj p

(m)ji egyenl®tlenségben k-val

végtelenhez tartva azt kapjuk, hogy ha j pozitív állapot, akkor szükségképpen i is az.Most már könnyen bebizonyítható a következ® általános tétel.

4.11. Tétel. Legyen i, j két tetsz®leges állapot, és jelölje j periódusát d. Ekkor r = 1, 2, . . . , d esetén

limn→∞

p(nd+r)ij = f∗ij(r)

d

mj,

ahol f∗ij(r) ≥ 0 és∑d

r=1 f∗ij(r) = f∗ij . (Tranziens állapotra legyen mj = ∞.)

55

Page 58: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Bizonyítás. Legyen f∗ij(r) =∑∞

n=0 f(nd+r)ij . Ekkor

p(nd+r)ij =

n∑k=0

f(kd+r)ij p

(nd−kd)jj .

A 4.8 lemmából azonnal következik az állítás, ak = f(kd+r)ij , bk = p

(kd)jj szereposztással.

Az általános tétel két fontos speciális esete:

• Ha j tranziens vagy nulla rekurrens, akkor p(n)ij → 0.

• Ha i és j ugyanabban az aperiodikus, pozitív rekurrens osztályban vannak, akkorp

(n)ij → 1

mj.

Például az egydimenziós szimmetrikus bolyongás nulla rekurrens, mivel p(2n)00 → 0 (már

a Valószín¶ségszámítás 1. tárgyban beláttuk, hogy a visszatérés idejének várható értékevégtelen).

Most nézzük meg egy pillanatra azt az esetet, amikor a Markov lánc egy C osztályavéges sok állapotból áll. Ha az osztály lényegtelen (azaz ki lehet bel®le jutni), akkorkorábban beláttuk, hogy tranziens. Ha viszont az osztály lényeges, akkor nem lehetbel®le kijutni, ezért minden i ∈ C-re és n ≥ 1-re

1 =∑j∈C

p(n)ij .

Ezért nem lehetséges, hogy limn→∞ p(n)ij = 0 legyen minden j ∈ C-re, vagyis az osztály

pozitív rekurrens. Mivel véges I állapottér esetén kell lennie lényeges osztálynak, ezértminden véges állapotter¶ Markov láncnak van legalább egy pozitív rekurrens osztálya.

A következ®kben megvizsgáljuk, hogy melyek azok az eloszlások, amelyek id®bennem változnak. Ezeket stacionárius eloszlásoknak fogjuk hívni.

4.12. Deníció. A π = (πi)i∈I eloszlás stacionárius, ha P (X0 = i) = πi (∀i) esetén

P (Xn = i) = πi minden i ∈ I, n ≥ 0.

Ebben az esetben azt mondjuk, hogy a Markov lánc stacionárius.

Tegyük fel, hogy a kezdeti eloszlás π. Írjuk fel X1 eloszlását!

P (X1 = i) =∑k∈I

P (X0 = k)P (X1 = i|X0 = k) =∑k∈I

πkpki.

56

Page 59: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Tehát a stacionaritáshoz szükséges, hogy

πi =∑k∈I

πkpki ∀i ∈ I. (11)

Ha viszont a fenti egyenletrendszer teljesül, akkor indukcióval Xn eloszlása is π leszminden n-re, azaz (11) szükséges és elégséges feltétele annak, hogy π stacionárius elosz-lás legyen.

4.13. Tétel. Vegyünk egy irreducibilis Markov láncot. Ha a lánc átmeneti vagy nul-

la rekurrens, akkor nincs stacionárius eloszlása. Ha pozitív rekurrens, akkor egyetlen

stacionárius eloszlása πi = 1/mi.

Bizonyítás. A technikai nehézségek elkerülése érdekében csak azt látjuk be, hogy végesállapotter¶, aperiodikus láncnak egyetlen stacionárius eloszlása πi = 1/mi. Legyen ui

egy tetsz®leges eloszlás, mely kielégíti a (11) egyenletrendszert. Ekkor

ui =∑k∈I

ukpki =∑k∈I

∑j∈I

ujpjkpki =∑j∈I

uj

∑k∈I

pjkpki =∑j∈I

ujp(2)ji ,

ezt iterálva kapjuk, hogy minden n-re

ui =∑k∈I

ukp(n)ki .

Ha most az n→∞ határértéket vesszük, akkor

ui =∑k∈I

uk limn→∞

p(n)ki =

(∑k∈I

uk

)1

mi

=1

mi

.

Most belátjuk, hogy πi = 1/mi valóban kielégíti a (11) egyenletrendszert. AChapman-Kolmogorov egyenletek miatt

p(n)ii =

∑k∈I

p(n−1)ik pki.

Tartson n végtelenhez:

πi =1

mi

= lim p(n)ii =

∑k∈I

lim p(n−1)ik pki =

∑k∈I

1

mk

pki =∑k∈I

πkpki.

57

Page 60: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Ha most olyan Markov láncokat nézünk, melyeknek több osztálya van, akkor a stacionárius eloszlás

létezésének szükséges és elégséges feltétele, hogy legyen legalább egy pozitív rekurrens osztály. Ha

több ilyen osztály van, akkor a stacionárius eloszlás már nem egyértelm¶. Jelölje a pozitív rekurrens

osztályokat Dα : α ∈ A, és legyen D = ∪αDα a pozitív állapotok halmaza. Ekkor a π eloszlás akkor

és csak akkor stacionárius, ha

πi =

0 ha i 6∈ D,

λα/mi ha i ∈ Dα,

ahol λα ≥ 0,∑

α λα = 1, vagyis a Markov lánc stacionárius eloszlásait a pozitív osztályokon

egyértelm¶en létez® stacionárius eloszlások keverékeként kapjuk meg.

Legyen most a Markov láncunk megint irreducibilis, pozitív rekurrens, és sta-cionárius. Megmutatható, hogy a Markov tulajdonság szimmetrikus a múltat és ajöv®t tekintve, tehát ha visszafelé nézzük a láncot, akkor is Markov láncot kapunk,azaz minden N -re az Yn = XN−n (n = 0, . . . , N) sorozat (véges) stacionárius Markovláncot alkot. Ez azért igaz, mert ha a Markov tulajdonság deníciójában n1 < . . . <

< nk < m esetén

A = Xn1 = i1, . . . , Xnk−1= ik−1, B = Xnk

= ik C = Xm = j

jelöli a múltbeli, jelenbeli, illetve jöv®beli eseményeket, akkor a feltételünkP (C|A ∩B) = P (C|B), melynek ekvivalens átalakítása

P (C ∩ A|B) = P (C|B)P (A|B),

vagyis a jöv® és a múlt feltételesen független a jelenre nézve. Ez az átfogalmazás pedigmár tényleg szimmetrikus a múltat és a jöv®t tekintve.

Számítsuk ki az Yn Markov lánc egylépéses qij átmenetvalószín¶ségeit !

qij = P (Y1 = j|Y0 = i) = P (XN−1 = j|XN = i) =P (XN−1 = j,XN = i)

P (XN = i)=πjpji

πi

.

Azt mondjuk, hogy az Xnn≥0 Markov lánc megfordítható, ha megfordítása önmaga.Ez tehát azzal ekvivalens, hogy stacionáius eloszlása kielégíti a

πipij = πjpji ∀i, j

egyenleteket. Ezek az úgynevezett részletes egyensúlyi feltételek.

58

Page 61: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

4.14. Példa. (Ehrenfest diúziós modell) Képzeljünk el egy tartályt, benne N darabmolekulát. A tartályt képzeletben két egyenl® részre osztjuk, és azt vizsgáljuk, hogyhány molekula van a két félben. A diúziót úgy modellezzük, hogy minden lépésbenegy véletlenszer¶en választott molekula átmegy a másik felébe a tartálynak. Jelölje Xn,hogy n lépés után hány molekula van a tartály els® felében. Ez nyilván Markov lánc a0, 1, . . . , N állapottéren, és

pi,i−1 =i

N, pi,i+1 =

N − i

N.

Mivel a lánc irreducibilis és az állapottér véges, ezért egyértelm¶en létezik a stacionáriuseloszlás. De vajon megfordítható-e? Próbáljuk megoldani a megfordítható Markov láncstacionárius eloszlására vonatkozó egyenleteket!

πi−1N − i+ 1

N= πi

i

N,

ami a πi = N−i+1i

πi−1 rekurziót adja. Ennek megoldása éppen az N rend¶, 1/2

paraméter¶ binomiális eloszlás, és a lánc megfordítható.

A stacionárius eloszlást különösen könny¶ megadni abban az esetben, ha az átmenet-mátrix minden oszlopának összege is 1 (vagyis duplán sztochasztikus). Ekkor ugyanisaz egyenletes eloszlás jó lesz. Erre egy példa a kártyakeverés, mellyel kapcsolatban akövetkez® kérdés merül fel : hányszor kell megkeverni egy pakli kártyát, hogy a lapoksorrendje teljesen véletlenszer¶ legyen?

Vegyünk egy n lapos kártyapaklit, és vizsgáljuk meg, hogyan változik a lapok sor-rendje a keverések során. Legyen tehát az állapottér a lapok összes lehetséges sorrend-jének halmaza, ez egy n! méret¶ halmaz, és jelölje Xn a lapok sorrendjét az n-edikkeverés után. Ha a pakli egy keverése azt jelenti, hogy a lapok sorrendjét valamilyen(adott eloszlás szerint választott) permutáció szerint átrendezzük, akkor Markov lán-cot kapunk, melynek átmenetmátrixáról belátható, hogy duplán sztochasztikus lesz.Általános bizonyítás helyett nézzünk egy konkrét példát: legyen n = 3 a lapok száma(a lapokat 1-t®l 3-ig számozzuk), ekkor az állapottér:

I = 123, 132, 213, 231, 312, 321.

Tegyük fel, hogy az a keverési módszerünk, hogy az els® lapot leemeljük, majd beleke-verjük a maradék két lapos pakliba: vagy az els® elé, vagy a kett® közé, vagy a má-

59

Page 62: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

sodik mögé, mondjuk 1/3 − 1/3 − 1/3 eséllyel. Ekkor a Markov lánc átmenetmátrixaa következ® duplán sztochasztikus mátrix lesz (az állapotokat abban a sorrendbensoroljuk fel, mint a fenti képletben):

P =

1/3 0 1/3 1/3 0 0

0 1/3 0 0 1/3 1/3

1/3 1/3 1/3 0 0 0

0 0 0 1/3 1/3 1/3

1/3 1/3 0 0 1/3 0

0 0 1/3 1/3 0 1/3

.

Visszatérve az általános esetre, ha tehát a keverési lánc irreducibilis, akkor az egyenleteseloszlás lesz az egyetlen stacionárius eloszlás. Ha a lánc még aperiodikus is, akkor Xn

eloszlása tart a stacionárius eloszláshoz, vagyis elég sok keverés után a pakli összeslehetséges sorrendje nagyjából egyformán valószín¶ lesz.

Hogy ténylegesen hány keverésre van szükség, az függ a pakli nagyságától és akeverés módszerét®l. A fenti három lapos példában ha az 123 sorrendb®l indulunk ki,akkor a P mátrix hatványainak els® sorát vizsgálva látható, hogy n keverés után azeloszlás:

P (Xn = 123) = P (Xn = 213) = P (Xn = 231) = 16(1 + 31−n),

P (Xn = 132) = P (Xn = 312) = P (Xn = 321) = 16(1− 31−n).

Öt keverés után például az 123, 213, 231 sorrendek valószín¶sége 0,1687, míg az132, 312, 321 sorrendeké 0,1646, ami már közel egyenletesnek mondható.

Érdekes eredmény, hogy ha egy 52 lapos paklit kettéválasztunk (hogy hol, aztBin(52, 1/2) eloszlás szerint választjuk), majd a két részt egymásba pörgetjük(az összes lehetséges egymásba pörgetést azonos valószín¶séggel választva), akkornagyjából 7 keverés után tekinthet® a pakli jól megkevertnek.

4.3. Elnyel®dési valószín¶ségek, elágazó folyamat

Legyen Xnn≥0 Markov lánc, jelölje C1, C2, . . . a rekurrens osztályokat, T pediga tranziens állapotok unióját. Tudjuk, hogy rekurrens osztályból nem lehet kilépni,tranziensb®l pedig vagy lehet, vagy nem, aszerint, hogy az osztály lényeges-e. Egy

60

Page 63: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

tranziens állapotból indulva tehát vagy örökké tranziens állapotban marad a lánc,vagy elnyel®dik valamelyik rekurrens osztályba.

4.15. Tétel. Legyen C valahány rekurrens osztály uniója, és jelölje θi annak valószí-

n¶ségét, hogy az i ∈ T tranziens állapotból indulva, el®bb-utóbb C-be nyel®dik el a

lánc. Ekkor (θi)i∈T az

yi =∑j∈T

pijyj +∑j∈C

pij, i ∈ T (12)

egyenletrendszer minimális nemnegatív megoldása.

Bizonyítás. Jelölje θ(n)i annak valószín¶ségét, hogy i-b®l indulva a lánc az n-edik

lépésig beér C-be, azazθ

(n)i = P (Xn ∈ C|X0 = i).

Ez a sorozat n-ben monoton növ®, mivel b®vül® események valószín¶ségét nézzük:Xn ∈ C ⊆ Xn+1 ∈ C. Továbbá a sorozat határértéke éppen θi, hiszen

limn→∞

θ(n)i = lim

n→∞P (Xn ∈ C|X0 = i) = P (∃n : Xn ∈ C|X0 = i) = θi

a valószín¶ségi mérték folytonossági tulajdonsága szerint (lásd Valószín¶ségszámítás1.). Ugyanakkor az els® lépés szerint felbontva a valószín¶séget kapjuk, hogy

θ(n+1)i = P (Xn+1 ∈ C|X0 = i) =

∑j∈I

P (Xn+1 ∈ C,X1 = j|X0 = i) =∑j∈I

P (Xn+1 ∈ C|X1 = j,X0 = i)P (X1 = j|X0 = i) =∑j∈I

P (Xn+1 ∈ C|X1 = j)pij =∑j∈T

θ(n)j pij +

∑j∈C

1 · pij +∑

j 6∈C∪T

0 · pij =∑j∈T

pijθ(n)j +

∑j∈C

pij.

Ebb®l az n→∞ határátmenetet elvégezve következik, hogy θi megoldása (12)-nek. Hayi is nemnegatív megoldás, akkor

yi =∑j∈T

pijyj +∑j∈C

pij ≥∑j∈C

pij = θ(1)i ,

61

Page 64: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

és indukcióval belátjuk, hogy yi ≥ θ(n)i minden n-re. Tegyük fel ugyanis, hogy n-re már

tudjuk, ekkor

θ(n+1)i =

∑j∈T

pijθ(n)j +

∑j∈C

pij ≤∑j∈T

pijyj +∑j∈C

pij = yi.

Határértéket véve beláttuk, hogy yi ≥ θi.

Tekintsük most a következ® modellt. Kezdetben van egyetlen egyed, ez alkotja a 0.

nemzedéket. Az n-edik lépésben az (n−1)-edik nemzedék minden egyede véletlen számúutódot hoz létre. Az utódok száma lépésenként és egyedenként független és azonoseloszlású. Az (n− 1)-edik nemzedék utódai alkotják az n-edik nemzedéket. Jelölje Xn

az n-edik nemzedék létszámát (X0 = 1). Könnyen látszik, hogy a következ® nemzedéklétszáma csak az aktuális nemzedék létszámától függ, az Xn sorozat tehát Markovláncot alkot. Ezt a folyamatot GaltonWatson-folyamatnak , vagy elágazó folyamatnaknevezik.

Jelölje egy tetsz®leges egyed utódszámát Z, ennek eloszlását q, tehát

P (Z = k) = qk, k = 0, 1, 2, ...

Arra vagyunk kíváncsiak, hogy mekkora valószín¶séggel hal ki a folyamat, vagyismekkora az esélye, hogy a lánc eléri a 0 állapotot. A 0 egy elnyel® állapot, hiszen a sem-mib®l nem születnek egyedek. Ha minden egyednek mindig van utóda, akkor nyilván apopuláció mérete csak n®ni tud, tehát nem halhat ki. Ezért feltesszük, hogy pozitív avalószín¶sége, hogy valaki ne hozzon létre utódot: P (Z = 0) = q0 > 0. Ekkor viszontakármekkora is az n-edik nemzedék létszáma, el®fordulhat, hogy egyiküknek sem leszutóda, vagyis a folyamat a következ® lépésben kihal. Ebb®l látszik, hogy egyedül a 0

állapot lényeges (és persze pozitív rekurrens), az összes többi állapot lényegtelen (éspersze tranziens). Alkalmazzuk most az el®z® tételt a C = 0 választással ! Legyentehát θj annak az esélye, hogy j egyedb®l indítva a folyamatot, a populáció el®bb-utóbb kihal. A (12) egyenletrendszernek az i = 1 értékhez tartozó egyenletét felírva,teljesülnie kell, hogy:

θ1 =∑j 6=0

p1,jθj + p1,0.

Itt p1,j annak valószín¶sége, hogy a lánc az 1 állapotból a j állapotba lép, ami pontazt jelenti, hogy annak az egyetlen egyednek épp j utóda születik, tehát p1,j = qj.Másrészt j egyedb®l indulva, pontosan akkor fog a folyamat el®bb-utóbb kihalni, ha

62

Page 65: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

mind a j egyed családfája kihal, és mivel ezek független események, ezért θj = θj1.

Vagyis a következ® egyenletnek kell teljesülni :

θ1 = q0 +∑j>0

qjθj1 =

∞∑j=0

qjθj1.

Legyen a Z utódszám generátorfüggvénye G(z), ekkor a fenti egyenlet rövidebb alakbaírva:

θ1 = G(θ1).

Másrészt, ha y1 = G(y1) teljesül valamely nemnegatív y1 számra, akkor belátjuk, hogyaz yi = yi

1 (i > 0) sorozat kielégíti az (12) egyenletrendszert. Ehhez emlékezzünkvissza arra, hogy konvolúció esetében a generátorfüggvények összeszorzódnak, azaz haZ1, . . . , Zi függetlenek, és mindegyikük eloszlása q, akkor GZ1+···+Zi

(z) = Gi(z). Tehát

yi = yi1 = Gi(y1) = GZ1+···+Zi

(y1) =∞∑

j=0

P (Z1 + · · · + Zi = j)yj1 = pi0 +

∑j>0

pijyj,

hiszen ha egy adott nemzedék mérete i, akkor a következ® nemzedék mérete Z1+· · ·+Zi

lesz, tehát a Markov lánc átmenetvalószín¶ségei

pij = P (Z1 + · · ·+ Zi = j).

Azt kaptuk tehát, hogy a θ1 kihalási valószín¶ség a G(z) = z egyenlet legkisebbnemnegatív megoldása. A G generátorfüggvényr®l tudjuk hogy G(1) = 1, tehát az1 mindig megoldás. Kérdés, hogy van-e más megoldás a (0,1) intervallumban? Mivela generátorfüggvény szigorúan konvex, legfeljebb egy további megoldás lehet. A ge-nerátorfüggvény (1,1) pontban húzott érint®jének a meredeksége G′(1) = m (ez a Zutódszám várható értéke). Az érint® egyenlete tehát `(z) = 1 + m(z − 1). Ezért ham ≤ 1, akkor z < 1-re `(z) ≥ z, és a szigorú konvexitás miatt G(z) > `(z), tehát ekkornincs más megoldása a G(z) = z egyenletnek, azaz θ1 = 1. Ha viszont m > 1, akkorG(1−ε) = 1−mε+o(ε) = (1−ε)−(m−1)ε+o(ε) miatt az 1 közelében G(z) < z, mígG(0) = q0 > 0, tehát van 1-nél kisebb gyök. Összefoglalva, a következ® tételt láttuk be.

4.16. Tétel. Tekintsünk egy Galton-Watson folyamatot, melynek utódeloszlása Z, az

utódeloszlás generátorfüggvénye G, várható értéke pedig G′(1) = m. Ekkor annak θ1

63

Page 66: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

valószín¶sége, hogy a folyamat (egy egyedb®l indulva) el®bb-utóbb kihal, a G(z) = z

egyenlet legkisebb nemnegatív gyöke:

a) ha m < 1, akkor θ1 = 1 (szubkritikus eset),

b) ha m = 1, akkor θ1 = 1 (kritikus eset),

c) ha m > 1, akkor θ1 < 1 (szuperkritikus eset).

4.1. Feladat. Legyen θ(n)i = P (Xn = 0|X0 = i) annak valószín¶sége, hogy i egyedb®l

indítva a folyamatot, legkés®bb az n-edik nemzedékig kihal. Mutassuk meg, hogy

a) θ(n)i =

(n)1

)i

,

b) θ(1)1 = q0 és n ≥ 1 esetén θ(n+1)

1 = G(θ(n)1 ).

4.17. Példa. Nézzünk meg két konkrét utódeloszlást!Az els® esetben legyen Z ∼ Poisson(0,9). Erre m = 0,9 < 1, vagyis a folyamat 1 való-szín¶séggel el®bb-utóbb kihal. A generátorfüggvény G(z) = e0,9(z−1).A második esetben legyen Z ∼ Bin(4, 1/3). Erre m = 4/3 > 1, vagyis a folyamatkihalásának esélye 1-nél kisebb. A generátorfüggvény

G(z) =

(2

3+

1

3z

)4

.

A G(z) = z egyenlet legkisebb nemnegatív gyöke z = 0,4316, tehát ez a kihalás esélye.A 8. és 9. ábrákon láthatók a generátorfüggvények, valamint a θ(n)

1 valószín¶ségekn függvényében (lásd az el®z® feladatot).

4.4. Szimmetrikus bolyongás

A szimmetrikus bolyongásról a Valószín¶ségszámítás 1. tárgyban már tanultunk.Emlékeztet®ül, legyen

S0 = 0, Sn = Sn−1 +Xn (n ≥ 1),

ahol az Xi változók függetlenek, és P (Xi = 1) = P (Xi = −1) = 1/2. A szimmetrikusbolyongás diszkrét idej¶ Markov lánc az I = Z állapottéren. Beláttuk, hogy visszatér®,de a visszatérés várható ideje végtelen, azaz nulla visszatér®.

Most további két érdekes kérdésre keressük a választ: ha egy adott id®pontig vizs-gáljuk a bolyongást (mondjuk az els® 2n lépést tekintjük), akkor a teljes id®tartam

64

Page 67: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

8. ábra. A Poisson(0,9) utódeloszlás generátorfüggvénye (bal) és a kihalásvalószín¶sége a nemzedék függvényében (jobb). (4.17. Példa).

9. ábra. A Bin(4, 1/3) utódeloszlás generátorfüggvénye (bal) és a kihalás valószín¶ségea nemzedék függvényében (jobb). (4.17. Példa).

65

Page 68: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

hányad részénél van a nullába való utolsó visszatérés, illetve a teljes id® hányad részéttölti a bolyongás a pozitív oldalon? Mindkét kérdésre meglep® lesz a válasz.

Emlékeztet®ül, a következ® jelöléseket használjuk:

u2n = P (S2n = 0) =

(2n

n

)1

22n, f2n = P (S1 6= 0, S2 6= 0, . . . , S2n−1 6= 0, S2n = 0).

Az els® visszatérés valószín¶ségét a tükrözési elv segítségével meghatároztuk:

f2n =1

2nu2n−2.

4.1. Lemma. Igazak a következ® összefüggések:

1. P (S1 6= 0, S2 6= 0, . . . , S2n 6= 0) = u2n.

2. P (S1 > 0, S2 > 0, . . . , S2n > 0) = u2n/2.

3. P (S1 ≥ 0, S2 ≥ 0, . . . , S2n ≥ 0) = u2n.

Bizonyítás. 1. Felhasználva u2n képletét, egyszer¶ átalakításokkal adódik, hogy

f2n =1

2nu2n−2 =

1

2n− 1u2n = u2n−2 − u2n.

Ezért

P (S1 6= 0, S2 6= 0, . . . , S2n 6= 0) =∞∑

k=n+1

f2k =∞∑

k=n+1

(u2k−2 − u2k) = u2n.

2. Mivel azoknak az utaknak, melyek a 2n-edik lépésig nem térnek vissza a nullába, felevégig pozitív, fele pedig végig negatív, ezért az el®z® állítás alapján készen vagyunk.3. Nézzük annak valószín¶ségét, hogy egy 2n hosszú út végig pozitív. Az els® lépésfelfelé lépés kell legyen, ennek valószín¶sége 1/2. Ha most az (1,1) pontot választjukúj origónak, akkor az a feltételünk, hogy a hátralev® 2n − 1 hosszú út ebben az újkoordinátarendszerben végig nemnegatív legyen. Ezért

P (S1 > 0, S2 > 0, . . . , S2n > 0) =1

2P (S1 ≥ 0, S2 ≥ 0, . . . , S2n−1 ≥ 0).

Ha viszont S2n−1 ≥ 0, akkor S2n ≥ 0 is teljesül, ezért

P (S1 ≥ 0, S2 ≥ 0, . . . , S2n−1 ≥ 0) = P (S1 ≥ 0, S2 ≥ 0, . . . , S2n−1 ≥ 0, S2n ≥ 0).

66

Page 69: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Ezért az el®z® állítás alapján készen vagyunk.

4.18. Tétel. Annak a valószín¶sége, hogy egy 2n hosszú bolyongás során a nullába

való utolsó visszatérés a 2k id®pontban következett be:

α2k,2n = P (S2k = 0, S2k+1 6= 0, S2k+2 6= 0, . . . , S2n 6= 0) = u2ku2n−2k, k = 0, . . . , n.

Bizonyítás. Az összes út száma 22n. A kedvez® utak száma: olyan 2k hosszú útból,melyre S2k = 0, éppen 22ku2k darab van, ezt kell folytatni olyan 2n − 2k hosszú sza-kasszal, mely nem tér vissza nullába. Ez utóbbiból az el®z® lemma els® állítása szerint22n−2ku2n−2k darab van. Ezeket egymással tetsz®legesen kombinálva, a 2n hosszú ked-vez® utak száma

22ku2k22n−2ku2n−2k = 22nu2ku2n−2k.

A tétel következménye az a nem nyilvánvaló tény, hogy az utolsó visszatérés eloszlásaszimmetrikus: α2k,2n = α2n−2k,2n. Rögzítsük most n-et, és jelölje Un a nullába valóutolsó visszatérés id®pontját. Ennek a valószín¶ségi változónak az eloszlása tehát

P (Un = 2k) = α2k,2n, k = 0, 1, . . . , n.

Az eloszlás szimmetriája miatt E(Un) = n. A meglep® viszont az, hogy ez az eloszlásnem a várható értéke körül koncentrálódik, épp ellenkez®leg, a várható érték körüliértékek a legkevésbé valószín¶ek! Például n = 10 esetén az α2k,20 valószín¶ségek k =

= 0, 1, 2, 3, 4, 5-re:

0,1762 0,0927 0,0736 0,0655 0,0617 0,0606.

A Stirling formula alapján felírható u2n aszimpotikája: u2n ∼ 1√πn. Ezért, ha n és k is

elég nagy, akkor

α2k,2n ∼1

π√k(n− k)

=1

n

1

π√

kn(1− k

n)

=1

nf

(k

n

),

ahol f(x) = 1

π√

x(1−x)a (0,1) intervallumon értelmezett függvény. Ebb®l közelítést

kaphatunk a nullába való utolsó visszatérés eloszlásfüggvényére:

P (Un < x · 2n) =∑

k: kn

<x

α2k,2n ≈1

n

∑k: k

n<x

f

(k

n

)≈∫ x

0

f(y)dy.

67

Page 70: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Szerencsére az f függvény primitív függvénye explicit megadható: 2πarcsin√y, így

kapjuk, hogyP (Un < x · 2n) ≈ 2

πarcsin

√x.

Ezért Un eloszlását n-edrend¶ diszkrét arkusz-szinusz eloszlásnak nevezik, a 4.18. Tételtpedig arkusz-szinusz törvénynek is hívhatjuk. Nagy n-re azt kapjuk, hogy a nullábavaló utolsó visszatérés kb. 10% eséllyel az id® els® 3%-ában következik be, kb. 20%eséllyel az id® els® 10%-ában következik be, illetve kb. 30% eséllyel az id® els® 20%-ában történik. Ezek az eredmények els®re meglep®ek, ellentmondanak az intuíciónknak,hogy a szimmetrikus bolyongás gyakran visszatér az origóba.

Vizsgáljunk meg most egy másik kérdést, mégpedig azt, hogy az útnak hányad részefut a pozitív, és hányad része a negatív oldalon.

4.19. Tétel. Annak a valószín¶sége, hogy egy 2n hosszú bolyongásnak 2k lépése van

a pozitív oldalon:

b2k,2n = u2ku2n−2k, k = 0, . . . , n.

Vagyis a pozitív oldalon megtett lépések számának ugyanaz az eloszlása, mint a nullábavaló utolsó visszatérésnek. (Ebben az esetben az utak tükrözésével nyilvánvaló, hogy apozitív oldalon tett lépések számának eloszlása szimmetrikus kell legyen.)

Bizonyítás. n szerinti indukcióval bizonyítunk, az n = 1 eset triviális. Tegyük fel, hogy 2n-nél

rövidebb utakra már beláttuk az állítást.

A 2n hosszú utakra rátérve, el®ször is b2n,2n = P (S1 ≥ 0, S2 ≥ 0, . . . , S2n ≥ 0) = u2n, ahogy

korábban láttuk, és szimmetria miatt b0,2n = u2n is teljesül. Legyen most 1 ≤ k ≤ n− 1, tehát olyanutakat nézünk, melyek a pozitív és negatív oldalon is járnak. Legyen a nullába való els® visszatérés

id®pontja 2r, ekkor 1 ≤ r ≤ n− 1. Két eset lehet:1. eset: az els® 2r lépés a pozitív oldalon van, ekkor nyilván r ≤ k, és a megfelel® valószín¶ség

12f2rb2k−2r,2n−2r.

(f2r az esélye, hogy az els® visszatérés id®pontja 2r, 12 az esélye, hogy ez a 2r hosszú kezd®szakasz

pozitív, és b2k−2r,2n−2r az esélye, hogy a hátralév® szakasznak még 2k−2r lépése van a pozitív oldalon.)

2. eset: az els® 2r lépés a negatív oldalon van, ekkor nyilván r ≤ n− k, és a megfelel® valószín¶ség

12f2rb2k,2n−2r.

Ezért

b2k,2n =k∑

r=1

12f2rb2k−2r,2n−2r +

n−k∑r=1

12f2rb2k,2n−2r.

68

Page 71: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

A jobboldalon szerepl® b mennyiségek már mind 2n-nél rövidebb utakra vonatkoznak, azaz használ-

hatjuk az indukciós feltevést:

b2k,2n =12

k∑r=1

f2ru2k−2ru2n−2k +12

n−k∑r=1

f2ru2ku2n−2k−2r.

Felhasználva a Valószín¶ségszámítás 1. tárgyban már látott

u2k =k∑

r=1

f2ru2k−2r

összefüggést (a 2k hosszú, nullába visszatér® utakat aszerint csoportosítjuk, hogy mikor volt a nullába

való els® visszatérés), kapjuk, hogy

k∑r=1

f2ru2k−2ru2n−2k = u2n−2k

k∑r=1

f2ru2k−2r = u2n−2ku2k,

és hasonlóann−k∑r=1

f2ru2ku2n−2k−2r = u2k

n−k∑r=1

f2ru2n−2k−2r = u2ku2n−2k.

A kett®t összerakva épp a bizonyítandó képletet kapjuk.

Összevetésként nézzük most meg azt az esetet, amikor rögzített végpontú bolyon-gást vizsgálunk. Tekintsük tehát a (0, 0) pontból a (2n, 0) pontba vezet® utakat. Ilyen-b®l

(2nn

)darab van, és ezek mind egyforma valószín¶ség¶ek.

4.20. Tétel. Annak a valószín¶sége, hogy egy 2n hosszú, nullába érkez® bolyongás 2k

lépést tesz meg a pozitív oldalon:

β2k,2n =1

n+ 1, k = 0, . . . , n.

Tehát a pozitív oldalon megtett lépések számának minden lehetséges értéke egyformánvalószín¶! A tétel bizonyításától eltekintünk, az el®z®höz hasonlóan, indukcióval lehetbelátni.

Történeti érdekességként nézzük meg, hogy 1876-ban Galton hogyan elemzett adatokat. Egy

növényfaj magasságát szerették volna megnövelni valamilyen kezeléssel, ehhez n növényt kezeltek,

másik n-et viszont nem. A kezelt növények magassága a1 > a2 > . . . > an, míg a kezeletleneké b1 >

> b2 > . . . > bn lett. Vajon hatásos volt a kezelés? Galton megszámolta, hogy hány esetben teljesült

az ai > bi esemény, azaz kiszámolta a következ® statisztikát:

Gn = |i : ai > bi|.

69

Page 72: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Ha Gn értéke nagy, az a kezelés hatásosságára utal. Galton adatainál n = 15 volt, és Gn = 13 adódott.

Galton úgy találta, hogy ez elegend® bizonyíték a kezelés hatásosságára. Egyetértünk vele?

5. Folytonos idej¶ folyamatok

A folytonos idej¶ folyamatoknak két típusával fogunk foglalkozni: folytonos idej¶Markov láncokkal és felújítási folyamatokkal. A folytonos idej¶ Markov láncok ugyan-úgy egy diszkrét állapottér állapotai között bolyonganak, mint a diszkrét idej¶ Markovláncok, csak nem id®egységenként ugranak valamely állapotból egy másikba, hanemminden állapotban exponenciális eloszlású ideig tartózkodnak. A felújítási folyamatokpedig úgynevezett számláló folyamatok: a folyamat értéke a t id®pontban azt mutatjameg, hogy eddig az id®pontig hány úgynevezett felújítás történt.

5.1. A Poisson folyamat

El®ször egy nagyon speciális folyamattal, a Poisson folyamattal ismerkedünk meg.Legyen λ > 0. Az N(t)t≥0 (nemnegatív egész értékeket felvev®) folyamatot λ inten-zitású Poisson folyamatnak nevezzük, ha

• N(0) = 0.

• Egy t hosszúságú intervallumban a folyamat növekménye Poisson(tλ) eloszlású:

N(s+ t)−N(s) ∼ Poisson(tλ) ∀s ≥ 0, t > 0.

• A folyamat független növekmény¶, azaz tetsz®leges n-re és 0 = t0 < t1 < . . . < tn

növekv® id®pontokra az

N(t1)−N(t0), N(t2)−N(t1), . . . , N(tn)−N(tn−1)

valószín¶ségi változók függetlenek.

A Poisson folyamatra úgy gondolunk, mint egy számláló folyamatra, amely valamelytörténések bekövetkezését számolja: N(t) azt adja meg, hogy hány történés volt a (0, t]

intervallumban. A történésekre gyakran használjuk a felújítás elnevezést is. Vizsgál-hatjuk például alkatrészek cseréjét egy gépben, telefonhívások beérkezését egy központ-ba, autók elhaladását egy keresztez®désben, stb.

70

Page 73: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

A denícióból könnyen következik, hogy ha egy Poisson folyamatot kiritkítunk (azazminden felújítási pontot, egymástól és a folyamattól függetlenül, p valószín¶séggel tar-tunk meg, 1 − p valószín¶séggel pedig kitöröljük), akkor szintén Poisson folyamatotkapunk. Hiszen a független növekmény¶ség nem sérül, egy konkrét intervallumot nézvepedig a Valószín¶ségszámítás 1. tárgyban beláttuk, hogy a Poisson eloszlás ritkítása isPoisson eloszlás lesz.

Hasonlóan látható be, hogy ha két független, λ illetve µ intenzitású Poisson folyama-tot egyesítünk, akkor λ+µ intenzitású Poisson folyamatot kapunk. A független növek-mény¶ség most sem sérül, egy konkrét intervallumot nézve pedig a Valószín¶ségszámítás1. tárgyban beláttuk, hogy Poisson eloszlások konvolúciója is Poisson eloszlás, aparaméterek összeadódnak.

Végül az is könnyen látszik, hogy a Poisson folyamat minden pillanatban újrakezd®dik, azaz ha a t0 id®pontban kezdjük el nézni a folyamatot, akkor N(t0 + t) −−N(t0)t≥0 is Poisson folyamat.

Bizonyítás nélkül jegyezzük meg, hogy Poisson folyamat esetén az N(t) = n feltételmellett ez az n felújítás úgy helyezkedik el a (0, t] intervallumban, mintha n pontotegyenletes eloszlás szerint választottunk volna. Ebb®l következik, hogy az N(t) =

= n feltétel mellett s < t esetén N(s) ∼ Bin(n, s/t) kell legyen, hiszen az n darabvéletlenszer¶en ledobott felújítás mindegyike, egymástól függetlenül, s/t eséllyel esika (0, s] intervallumba. Ezt az eredményt ki is tudjuk számolni. Legyen k ≤ n :

P (N(s) = k|N(t) = n) =P (N(s) = k,N(t)−N(s) = n− k)

P (N(t) = n)=

e−λs (λs)k

k!e−λ(t−s) (λ(t−s))n−k

(n−k)!

e−λt (λt)n

n!

=

(n

k

)(st

)k (1− s

t

)n−k

.

Vizsgáljuk most meg, hogy mennyi id® telik el a felújítások között! Legyen az els®felújítás id®pontja S1. Erre

P (S1 ≤ t) = P (N(t) ≥ 1) = 1− P (N(t) = 0) = 1− e−λt,

azaz S1 Exp(λ) eloszlású. Legyen most az n-edik felújítás id®pontja Sn ! Belátható, hogyminden n-re Sn−Sn−1 is Exp(λ) eloszlású, és függetlenek egymástól. Ebb®l következik,hogy Sn Gamma(n, λ) eloszlású. A következ® lemma jól használható, ha két (vagy több)Poisson folyamat egyesítésében arra vagyunk kíváncsiak, hogy az egyes felújítási pontokmelyik folyamatból származnak.

71

Page 74: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

5.1. Lemma. Ha Xi ∼ Exp(λi) függetlenek, akkor Y = minXi is exponenciális elosz-lású, λ =

∑λi paraméterrel. Továbbá

P (Y = Xi) =λi

λ.

Bizonyítás. Az els® állítás bizonyítása: minden x > 0 esetén

P (Y > x) = P (Xi > x ∀i) =∏

i

P (Xi > x) =∏

i

e−λix = e−∑

i λix = e−λx,

vagyis Y valóban a kívánt exponenciális eloszlású. A második állításra rátérve, akkorlesz a minimum értéke Xi, ha Xi kisebb az összes többi változó minimumánál. Legyentehát Z = minj:j 6=iXj. Ezzel a jelöléssel az Y = Xi esemény azzal ekvivalens, hogyXi < Z. Az els® állítás szerint Z is exponenciális eloszlású, µ =

∑j:j 6=i λj paraméterrel,

és független Xi-t®l. Kiintegrálva,

P (Xi < Z) =

∫ ∞

0

∫ ∞

x

λie−λixµe−µydy dx =

∫ ∞

0

λie−λixe−µx dx =

λi

λi + µ=λi

λ.

5.1. Feladat. Tegyük fel, hogy a Kovács úr irodájába közvetlenül befutó telefonhívá-sok Poisson folyamatot alkotnak, 3 darab/óra intenzitással. A Kovács úr titkárn®jéhezbefutó telefonhívások ett®l független Poisson folyamatot alkotnak, 10 darab/óra inten-zitással. A titkárn® minden hívást, egymástól függetlenül, 1/2 valószín¶séggel kapcsolbe Kovács úr irodájába.(a) Milyen folyamatot alkotnak az irodába befutó hívások?(b) Most 10 óra van. Várhatóan hánykor fut be a következ® közvetlen hívás az irodába?(c) Mennyi az esélye, hogy 12 és 12.30 között a titkárn®höz pontosan négy telefonhívásfut be?(d) Most 11 óra van. Feltéve, hogy az elmúlt egy órában a titkárn®höz nyolc hívásfutott be, mennyi az esélye, hogy 10 és 10.15 között nem futott be hozzá hívás?(e) Tudjuk, hogy 11 és 12 óra között 5 hívás futott be Kovács úr irodájába. Mennyi a11.30 és 12.30 között befutott hívások számának várható értéke?(f) Most dél van. Mennyi az esélye, hogy Kovács úr irodájában a következ® hívás egyközvetlen hívás lesz?(g) Két közvetlen hívás között átlagosan hány hívást kapcsol be a titkárn®?Megoldás:

(a) Poisson folyamatot alkotnak, 8 darab/óra intenzitással.

72

Page 75: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

(b) 1/3 óra múlva, azaz 10 óra 20 perckor.(c) Fél óra alatt a titkárn®höz befutó hívások száma Poisson(5) eloszlású, ezért pon-tosan négy hívás esélye e−554/4! = 0,035.(d) A feltételünk mellett a 10 és 10.15 között befutott hívások száma Bin(8, 1/4) elosz-lású, ezért a keresett valószín¶ség (3/4)8 = 0,1.(e) 11.30 és 12 között várhatóan az 5 hívás fele, azaz 2,5 futott be, 12 és 12.30 közöttpedig, a feltételt®l függetlenül, várhatóan 4 hívás fut be. Ezért a válasz 6,5 hívás.(f) Mivel az irodába befutó hívások egy 3 darab/óra (közvetlen hívások) és egy 5darab/óra (titkárn® által bekapcsolt hívások) intenzitású Poisson folyamat egyesítésekéntállnak el®, annak esélye, hogy a következ® hívás közvetlen hívás lesz, 3/(3 + 5) = 3/8.(g) Egy közvetlen hívás után jöv® hívások mindegyikér®l tudjuk, hogy egymástólfüggetlenül, 3/8 eséllyel közvetlen hívások, 5/8 eséllyel pedig a titkárn® kapcsolja be®ket. Ezért az els® közvetlen hívás sorszáma Geo(3/8) eloszlású. Ennek várható értéke8/3. Tehát el®tte várhatóan 8/3− 1 = 5/3 hívást kapcsol be a titkárn®.

5.2. Felújítási folyamatok

A felújítási folyamatok a Poisson folyamat általánosításai : ezek is bizonyos ese-mények, felújítások számát követik nyomon. Fel fogjuk tenni, hogy a felújítások közötteltelt id®tartamok függetlenek és azonos eloszlásúak, azonban nem feltétlenül exponen-ciális eloszlásúak, mint a Poisson folyamatnál.

Tegyük fel, hogy a folyamatot egy felújítás id®pontjában kezdjük el nézni, azaz at = 0 id®pontban történt egy felújítás (ez a nulladik felújítás). A felújítások közötteltelt Xi id®tartamokról feltesszük, hogy függetlenek, azonos eloszlásúak, és P (Xi >

> 0) = 1. Még pontosabban, legyen Xi az (i−1)-edik és az i-edik felújítás között elteltid®, ekkor az n-edik felújítás id®pontja:

Sn =n∑

i=1

Xi, ha n ≥ 1, S0 = 0.

Jelölje N(t) a (0, t] intervallumban a felújítások számát, ekkor N(0) = 0 és

N(t) = maxn : Sn ≤ t t > 0.

Az N(t)t≥0 folyamatot nevezzük felújítási folyamatnak. Legyen mégM(t) = E(N(t))

a felújítások várható száma (0, t]-ben, ezt nevezzük felújítási függvénynek.

73

Page 76: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Felújítási folyamatokat lehet alkalmazni például készletezési feladatokban, sorbanál-lási problémáknál, részecskeszámláló berendezések vizsgálatánál. Ha azXi valószín¶ségiváltozók Exp(λ) eloszlásúak, akkor a felújítási folyamat éppen a λ intenzitású Poissonfolyamat lesz.

A továbbiakban jelölje Xi eloszlásfüggvényét F (x), ha ez abszolút folytonos, akkora s¶r¶ségfüggvény legyen f(x) = F ′(x). Az egyszer¶ség kedvéért azt is feltesszük,hogy E(Xi) = µ és D2(Xi) = σ2 léteznek. A felújítási folyamattal kapcsolatban azegyik lényeges észrevétel, hogy a felújítások száma a (0, t] intervallumban akkor és csakakkor lesz legalább k, ha a k-adik felújítás id®pontja legfeljebb t, képlettel

N(t) ≥ k = Sk ≤ t.

Mivel Sk független, azonos eloszlásúak összege, így Sk eloszlását jól ismerjük. Példáulkönnyen lehet nagy számok törvényét bizonyítani a felújítási folyamatra. Vegyük ugya-nis észre, hogy

SN(t) ≤ t < SN(t)+1,

ahol SN(t) jelöli a (0, t] intervallumban az utolsó felújítás id®pontját, SN(t)+1 pedig a tutáni els® felújítás id®pontját. Felhasználva, hogy limt→∞N(t) = ∞, a nagy számoker®s törvénye alapján

µ = limt→∞

SN(t)

N(t)≤ lim

t→∞

t

N(t)≤ lim

t→∞

SN(t)+1

N(t)= µ.

Megkaptuk tehát, hogy limt→∞N(t)

t= 1

µ(1 valószín¶séggel), azaz ha a folyamat nagyon

sokáig tart, akkor az egy id®egységre es® felújítások száma közelít®leg 1/µ lesz.

5.1. Példa. Tegyük fel, hogy egy gép bizonyos alkatrészének cseréjét modellezzükfelújítási folyamattal : ha az alkatrész tönkremegy, akkor azonnal kicseréljük egyugyanolyan típusúra, azaz felújítást végzünk (feltesszük, hogy a csere id®tartama el-hanyagolható). A cserék között eltelt id®kr®l (ezek éppen az alkatrészek élettartamai)feltehetjük, hogy függetlenek, és azonos eloszlásúak. Legyen egy alkatrész élettartamaátlagosan µ = 1/4 év. Ekkor ha nagyon hosszú ideig gyeljük meg a folyamatot, akkoraz egy évre es® felújítások száma 1/µ = 4 körül lesz, és ez nem függ az élettartamkonkrét eloszlásától ! Tehát pl. 1000 év alatt körülbelül 4000 felújításra lesz szükség.

A felújítási tétel arról szól, hogy ha a felújítási folyamat már régóta zajlik, akkoregy adott id® alatt várhatóan hány felújításra számíthatunk.

74

Page 77: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

5.2. Tétel. (Wald azonosság) A t id®pont utáni els® felújítás várható értéke:

E(SN(t)+1) = µ(M(t) + 1).

Bizonyítás. Deníció szerint SN(t)+1 =∑N(t)+1

i=1 Xi, ez tehát egy véletlen tagszámúösszeg. Err®l fogjuk belátni, hogy várható értéke megegyezik egy tag várható értékénekés a tagok várható számának szorzatával. Indikátor változók segítségével az SN(t)+1

valószín¶ségi változót végtelen összegként írhatjuk fel :

SN(t)+1 =∞∑i=1

Xi · I(i ≤ N(t) + 1).

Viszont

i ≤ N(t) + 1) = N(t) ≥ i− 1 = Si−1 ≤ t =

i−1∑j=1

Xj ≤ t

miatt az Xi és az I(i ≤ N(t) + 1) valószín¶ségi változók függetlenek. Ezért

E(SN(t)+1) =∞∑i=1

E(Xi)E(I(N(t) ≥ i− 1)) = µ∞∑i=1

P (N(t) ≥ i− 1) =

µ(1 +∞∑i=0

P (N(t) > i)) = µ(1 +M(t)).

A bizonyításban felhasználtuk, hogy ha Z nemnegatív egész érték¶ valószín¶ségi vál-tozó, akkor E(Z) =

∑∞i=0 P (Z > i). Például a Poisson folyamat esetén a felújítási

függvény M(t) = λt = t/µ. Az exponenciális eloszlás örökifjú tulajdonsága miattE(SN(t)+1) = t+µ, tehát valóban teljesül az egyenl®ség. Ugyanakkor például általábanE(SN(t)) 6= µM(t), a Poisson folyamaton ellen®rizve t = µM(t) > E(SN(t)), hiszenSN(t) < t 1 valószín¶séggel.

5.3. Tétel. (Elemi felújítási tétel) Ha E(Xi) = µ <∞, akkor

limt→∞

M(t)

t=

1

µ.

75

Page 78: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Bizonyítás. El®ször azt az esetet nézzük, amikorXi eloszlása korlátos, tehát van olyanc konstans, hogy P (Xi ≤ c) = 1. Ekkor a t utáni els® felújítás id®pontjára teljesül, hogy

t < SN(t)+1 ≤ t+ c.

Várható értéket véve, a Wald azonosság miatt

t < µ(1 +M(t)) ≤ t+ c,

ebb®l átrendezéssel kapjuk, hogy minden t-re

1

µ− 1

t<M(t)

t≤ 1

µ− 1

t+

c

tµ.

A t→∞ határértéket véve, a rend®relv szerint készen vagyunk.Ha Xi eloszlása nem korlátos, akkor a fels® becsléshez levágást kell alkalmazni, ezt

nem részletezzük.

Azt mondjuk, hogy egy X valószín¶ségi változó eloszlása rácsos, ha van olyan α > 0

szám, hogyP (X = kα valamilyen k ∈ Z-re) = 1,

vagyisX csak az α konstans egész számú többszöröseit tudja értékként felvenni. Példáula nevezetes diszkrét eloszlások (binomiális, Poisson, geometriai, stb.) rácsosak α =

= 1 konstanssal. A folytonos eloszlások nyilván nem rácsosak. Az egyszer¶ség kedvéértmostantól feltesszük, hogy Xi eloszlása nem rácsos (rácsos esetre kicsit módosítani kella képleteket). A következ® felújítási tételt bizonyítás nélkül mondjuk ki.

5.4. Tétel. (Felújítási tétel) Minden h > 0 esetén

limt→∞

(M(t)−M(t− h)) =h

µ,

azaz ha a folyamat már régóta zajlik, akkor egy h hosszú intervallumban a felújítások

várható száma körülbelül h/µ.

5.5. Példa. Folytassuk az 5.1. Példát! Tegyük fel mondjuk, hogy az alkatrészek élet-tartama folytonos eloszlású (így biztosan nem rácsos). Az elemi felújítási tétel aztmondja nekünk, hogy ha egy nagyon hosszú id®tartamot nézünk, akkor évente át-

lagosan 1/µ = 4 felújítást kell végeznünk, tehát pl. 1000 év alatt várható értékben

76

Page 79: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

körülbelül 4000 felújítás lesz. A felújítási tétel pedig azt állítja, hogy ha a felújításifolyamat már nagyon régóta zajlik, akkor a következ® például h = 2 évben a felújítá-sok várható száma körülbelül h/µ = 8 lesz.

Végül három érdekes valószín¶ségi változó határeloszlását vizsgáljuk meg. Afelújítások nyelvén fogalmazva, ha a t id®pillanatban nézünk rá a rendszerre, akkor azéppen m¶köd® alkatrészhez a következ® három élettartamot rendelhetjük hozzá:

γt = SN(t)+1 − t hátralév® élettartamδt = t− SN(t) eddigi/pillanatnyi élettartamβt = SN(t)+1 − SN(t) teljes élettartam

Megmutatható, hogy mindhárom élettartamnak van határeloszlása, ha t→∞, azaz haa folyamat már régóta tart, akkor hozzávet®legesen meghatározhatjuk ennek a háromélettartamnak az eloszlását. Az eredményeket bizonyítás nélkül közöljük.

5.6. Tétel. A hátralev® és a pillanatnyi élettartam határeloszlása:

limt→∞

P (γt < x) = limt→∞

P (δt < x) =1

µ

∫ x

0

(1− F (y))dy =: H(x), x ≥ 0.

A teljes élettartam határeloszlása (ha Xi eloszlása abszolút folytonos):

limt→∞

P (βt < x) =1

µ

∫ x

0

yf(y)dy =: T (x), x ≥ 0.

Meghatározhatjuk a háromfajta élettartam aszimprotikus várható értékét is : a H elosz-lásfüggvényhez tartozó s¶r¶ségfüggvény:

h(x) = H ′(x) =1− F (x)

µ.

Ezért nagy t esetén

E(γt) ≈ E(δt) ≈∫ ∞

0

x · 1− F (x)

µdx =

1

µ

∫ ∞

0

x(1− F (x))dx.

Az integrált parciális integrálással számíthatjuk ki (u = 1 − F (x) és v′ = x szerep-osztással, és feltesszük, hogy létezik az f(x) s¶r¶ségfüggvény):∫ ∞

0

x(1− F (x))dx =

[(1− F (x))

x2

2

]∞0

+

∫ ∞

0

f(x)x2

2dx = 0 +

E(X2i )

2=σ2 + µ2

2.

77

Page 80: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Ezt leosztva µ-vel, megkapjuk, hogy

E(γt) ≈ E(δt) ≈µ2 + σ2

2µ=µ

2+σ2

2µ.

A teljes élettartam aszimptotikus s¶r¶ségfüggvénye

t(x) = T ′(x) =xf(x)

µ,

aszimptotikus várható értéke pedig nyilván µ+ σ2

µ.

A tétel fontos üzenete, hogy a t id®pillanatban éppen m¶köd® alkatrész teljes élettar-tama nem ugyanolyan eloszlású, mint egy tetsz®leges alkatrész élettartama. Megkaptuk,hogy ennek a teljes élettartamnak a várható értéke mindig nagyobb, mint µ (kivéve,ha Xi konstans). Ez szemléletesen azért van így, mert ha a számegyenesen véletlen-szer¶en rábökünk egy id®pillanatra (t-re), akkor az nagyobb eséllyel lesz egy hosszabbXi intervallumban, mint egy rövidebben. Úgy is mondhatjuk, hogy egy hosszabb inter-vallumot könnyebb eltalálni. Ha létezik az f(x) s¶r¶ségfüggvény, akkor láttuk, hogy ateljes élettartam aszimptotikus s¶r¶ségfüggvénye xf(x)-szel arányos, ez szemléletesenazt fejezi ki, hogy az egyes Xi intervallumokat a hosszukkal arányos valószín¶séggeltalálja el a t id®pillanat.

5.7. Példa. Poisson folyamat esetén γt és δt függetlenek egymástól, γt exponenciáliseloszlású, δt pedig t-ben levágott exponenciális eloszlású (a pillanatnyi élettartam nyil-ván nem lehet t-nél nagyobb). Így γt és δt határeloszlása µ várható érték¶ exponenciális,a teljes élettartam határeloszlása Gamma(2, 1/µ), ennek várható értéke 2µ.

5.8. Példa. Legyen valamely alkatrésztípus élettartama (mondjuk években) egyen-letes eloszlású a (0, 1) intervallumon. Ha egy alkatrész tönkremegy, azonnal lecseréljük.Ekkor F (x) = x, f(x) = 1 (x ∈ (0, 1)), µ = 1/2, σ2 = 1/12. Ha a folyamat már régótazajlik, akkor a hátralév® illetve a pillanatnyi élettartam s¶r¶ségfüggvénye körülbelülh(x) = 2(1−x) (x ∈ (0, 1)), várható értéke pedig körülbelül 1/3 év. A teljes élettartams¶r¶ségfüggvénye körülbelül t(x) = 2x (x ∈ (0, 1)), várható értéke pedig körülbelül 2/3

év.

5.3. Folytonos idej¶ Markov láncok

Ebben a szakaszban olyan folytonos idej¶ folyamatokat vizsgálunk, melyek jöv®belifejl®dése csak a pillanatnyi állapottól függ, a múltbeliekt®l nem. Most minden t ≥ 0

78

Page 81: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

esetén adott az Xt : Ω → I valószín¶ségi változó, mely a folyamat állapotát adja mega t id®pillanatban (I megszámlálható állapottér). Legyen

pij(t) = P (Xs+t = j|Xs = i), t ≥ 0,

ahol az átmenetvalószín¶ségr®l feltesszük, hogy homogén, azaz nem függ s-t®l. Apij(t) értékekb®l alkotott mátrixot jelölje P (t) (P (0) az egységmátrix). Ekkor P (t)

sztochasztikus mátrix, és a Markov tulajdonság miatt teljesül a Chapman-Kolmogorovösszefüggés, azaz P (s + t) = P (s)P (t). Mivel most nincs legrövidebb id®köz, ezértbonyolultabb a helyzet, mint a diszkrét id® esetén, ahol elegend® volt az egylépésesátmenetmátrixot megadni. Folytonos id® esetén azt az észrevételt tehetjük, hogy haa P (t) mátrixcsaládot ismerjük a nulla egy környezetében, az már meghatározza acsaládot minden t-re. Tegyük fel ugyanis, hogy adottak a P (t) mátrixok valamilyen[0, ε) intervallumon. Ekkor tetsz®leges t > 0 érték esetén legyen n olyan nagy, hogyt/n < ε teljesüljön, ekkor a Chapman-Kolmogorov egyenletek szerint

P (t) = P (t/n)n

kiszámítható.Megmutatható, hogy a pij(t) függvények deriválhatók a (0,∞) félegyenesen, s®t a

0-ban is létezik a jobboldali deriváltjuk. Legyen ez a jobboldali derivált p′ij(0) = qij,azaz

limt→0

pii(t)− 1

t= qii(≤ 0),

limt→0

pij(t)− 0

t= qij(≥ 0), i 6= j.

5.1. Deníció. A folytonos idej¶ Xtt≥0 Markov lánc (innitezimális) generátora aQ = P ′(0) mátrix.

Mivel a P (t) mátrix minden sorösszege 1, deriválva azt kapjuk, hogy a Q generátor-mátrix minden sorösszege nulla:

∀i :∑

j

qij = 0, más alakban∑j 6=i

qij = −qii =: qi.

79

Page 82: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

A nullában vett derivált azt fejezi ki, hogy kis id® alatt mekkora valószín¶séggel jut alánc az i állapotból a j-be:

pij(h) = P (Xt+h = j|Xt = i) = qijh+ o(h), j 6= i

pii(h) = P (Xt+h = i|Xt = i) = 1− qih+ o(h),

ahol o(h) olyan mennyiséget jelöl, amely h-val osztva nullához tart, ha h→ 0.Jelölje most Ti, hogy a lánc mennyi ideig tartózkodik az i állapotban. A Markov

tulajdonság szerint, ha a lánc az i állapotban van, akkor az, hogy még mennyi ideigfog itt tartózkodni, nem függ a múlttól, azaz attól sem, hogy mióta van már az iállapotban. Ez pont azt jelenti, hogy Ti eloszlása örökifjú, vagyis exponenciális kelllegyen! Adott Q generátor esetén a következ®képpen képzelhetjük el a Markov láncot.A kiinduló állapotot, legyen ez mondjuk i, a kezdeti eloszlás szerint választjuk. Majdi-ben tartózkodunk Exp(qi) eloszlású ideig. Ekkor átugrunk valamelyik másik állapot-ba, méghozzá a j állapotot qij/qi valószín¶séggel választjuk. Ezt folytatjuk tovább.Ugyanezt a konstrukciót elmondhatjuk úgy is, hogy ha egy ugrás az i állapotba vitt,akkor az összes többi állapotban azonnal ketyegni kezd egy-egy óra, a j állapot órájaExp(qij) eloszlású id® után csörög. Amikor az els® óra megszólal, átugrunk a hozzátartozó állapotba. A két leírás ekvivalenciáját az 5.1 Lemma bizonyítja.

Határozzuk most meg a pij(t) függvények deriváltját! Rögtön mátrixos alakba írva:

P ′(t) = limh0

P (t+ h)− P (t)

h= P (t) lim

h0

P (h)− P (0)

h= P (t)P ′(0) = P (t)Q,

ahol felhasználtuk a P (t+h) = P (t)P (h) Chapman-Kolmogorov összefüggést. Ha mostfordítva, a P (t+h) = P (h)P (t) egyenl®séget használjuk, akkor hasonlóan kapjuk, hogy

P ′(t) = limh0

P (t+ h)− P (t)

h=

(limh0

P (h)− P (0)

h

)P (t) = P ′(0)P (t) = QP (t).

Ezt a két dierenciálegyenlet-rendszert nevezik Kolmogorov-féle dierenciálegyenleteknek,mégpedig

P ′(t) = P (t)Q : el®re (forward) egyenlet

P ′(t) = QP (t) : hátra (backward) egyenlet

80

Page 83: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Az elnevezést az magyarázza, hogy pl. az el®re egyenletnél, amikor azt vizsgáltuk,hogy mekkora valószín¶séggel jut a lánc t + h id® alatt i-b®l j-be, akkor azt aszerintbontottuk fel, hogy i-b®l hová jut a lánc t id® alatt, majd el®refelé menve az id®ben,hozzátettünk még egy kis h hosszú intervallumot, így kapva meg a (t+h)-t. A hátrafeléegyenletnél viszont a t hosszú intervallum elé tettük a kis h hosszú szakaszt, azazhátrafelé mentünk az id®ben. Tehát adott Q generátormátrix mellett a Kolmogorov-féle dierenciálegyenleteket megoldva, megkapható a P (t)t≥0 átmenetmátrix család.

5.1. Példa. Legyen I = N és a Q innitezimális generátorban

−qi,i = qi,i+1 = λ, i = 0,1, . . . ,

a többi elem pedig legyen 0. Ez tehát egy olyan folyamatot határoz meg, mely egyadott i ∈ N állapotban Exp(λ) eloszlású ideig tartózkodik, majd átugrik az (i+ 1) ál-lapotba, és így tovább. Határozzuk meg az átmenetvalószín¶ségeket az el®re egyenletekmegoldásával !

Kezdjuk az átmenetmátrix els® sorával (mely a 0 állapothoz tartozik). Az els®egyenlet: p′0,0(t) = −λp0,0(t), melynek a p0,0(0) = 1 kezdeti feltételt kielégít® egyértelm¶megoldása p0,0(t) = e−λt. Legyen most n ≥ 1 :

p′0,n(t) = λp0,n−1(t)− λp0,n(t),

és p0,n(0) = 0 a kezdeti feltétel. Próbáljunk rekurzívan haladni! Legyen vn(t) =

= eλtp0,n(t), erre v′n(t) = eλtλp0,n−1(t). Ennek megoldása

vn(t) = eλtp0,n(t) = λ

∫ t

0

eλxp0,n−1(x)dx,

azazp0,n(t) = λe−λt

∫ t

0

eλxp0,n−1(x)dx. (13)

Hasonlóan kaphatjuk meg a pij(t) átmenetvalószín¶ségeket tetsz®leges j ≥ i esetén is.A rekurzív megoldást elkezdve kiírogatni, hamar felismerhet®, hogy ebben az esetben

pij(t) = e−λt (λt)j−i

(j − i)!, ha j ≥ i,

81

Page 84: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

azaz t id® alatt a folyamat ugrásainak száma Poisson(λt) eloszlású, tehát éppen a λintenzitású Poisson folyamatot kaptuk meg.

Folytonos idej¶ Markov láncoknál is vizsgálhatjuk ugyanazokat a kérdéseket, mintdiszkrét id®ben. Megkérdezhetjük, mely állapotok érintkeznek egymással, milyenek azállapotok lényegesség, visszatér®ség szempontjából, van-e stacionárius eloszlás, és tet-sz®leges kezdeti eloszlásból indulva, hová tart a lánc eloszlása? A válaszok nagyonhasonlóak a már részletesen megvizsgált diszkrét idej¶ esethez, ezért most csak nagyonröviden tekintjük át az eredményeket.

Folytonos idej¶ Markov láncban azt mondjuk, hogy a j állapot elérhet® i-b®l, havan t ≥ 0, melyre pij(t) > 0. Két állapot akkor érintkezik, ha kölcsönösen elérhet®kegymásból. Ez nyilván ekvivalenciareláció, mely osztályokra bontja az állapotteret.A lényegesség ugyanúgy deniálható, mint diszkrét id®ben, viszont a periódusnakfolytonos id®ben nincs értelme.

A visszatér®ség deníciójához tegyük fel, hogy X0 = i, és Ti most is legyen az i-benvaló tartózkodási id®. Az els® visszatérési id®t jelölje

Ri = mint > Ti : Xt = i.

Az i állapot visszatér®, ha P (Ri <∞) = 1, azaz i-b®l indítva a láncot, miután elhagy-ta az i állapotot, biztos, hogy el®bb-utóbb visszatér. Megmutatható, hogy ez azzalekvivalens, hogy

∫∞0pii(t)dt = ∞. A visszatér®ség most is osztálytulajdonság. Ha i

visszatér®, és E(Ri) < ∞, akkor pozitív rekurrens, ellenkez® esetben nulla rekurrens.Megmutatható, hogy ha egy irreducibilis lánc tranziens vagy nulla rekurrens, akkorlimt→∞ pij(t) = 0 minden i, j párra, ha viszont pozitív rekurrens, akkor limt→∞ pij(t) =

= πj > 0 minden i, j párra, ahol π az egyértelm¶en létez® stacionárius eloszlás.Hogyan tudjuk vajon a stacionárius eloszlást a generátor mátrixból kiszámítani?

A stacionárius eloszlást deniáló πTP (t) = πT (minden t ≥ 0) egyenletet a nullábanderiválva:

0 = (πT )′|t=0 = (πTP (t))′|t=0 = πTP ′(0) = πTQ,

azaz a πTQ = 0 egyenletet kaptuk. Csakúgy, mint a diszkrét id® esetében, meg-fordítható esetben teljesül a következ® egyszer¶bb egyenletrendszer is :

πiqij = πjqji minden i, j ∈ I.

82

Page 85: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Ekkor persze πTQ = 0, hiszen∑i∈I

πiqij =∑i∈I

πjqji = πj

∑i∈I

qji = πj · 0 = 0, ∀j ∈ I.

5.9. Példa. Egy gyárban két gép m¶ködik,A ésB. Mindkét gép, egymástól függetlenül,2 meghibásodás/nap intenzitással hibásodik meg. Ez azt jelenti, hogy egy gép hibátlanm¶ködési ideje exponenciális eloszlású, várható értéke 12 óra. A gyárban csak egyszerel® van, akinek átlagosan 4 órába telik egy gép megjavítása, és a javítási id® expo-nenciális eloszlású. Az A gép a fontosabb, ha ez meghibásodik, akkor a szerel® azonnalelkezdi javítani, még akkor is, ha éppen a B gép javításán dolgozott. Ebben az esetbenha végzett az A gép javításával, akkor folytatja a B gép szerelését.

A folyamatot egy négy állapotú, folytonos idej¶ Markov lánccal modellezhetjük. Anégy állapot legyen:(1) mindkét gép m¶ködik,(2) csak A m¶ködik,(3) csak B m¶ködik,(4) egyik gép sem m¶ködik.Ha az intenzitásokat darab/napban adjuk meg, akkor a meghibásodások intenzitása2, a javításé pedig 6 (átlagosan 4 óra egy javítás, tehát naponta átlagosan 6 javításfér bele). Jelölje Xt a folyamat állapotát t nap elteltével, ekkor tehát ez Markov lánc,generátora

Q =

−4 2 2 0

6 −8 0 2

6 0 −8 2

0 6 0 −6

Ha például mindkét gép m¶ködik, akkor 4 paraméter¶ exponenciális eloszlású ideigez így is marad, vagyis az 1-es állapotban való T1 tartózkodási id® Exp(4) eloszlású,várható értéke E(T1) = 1/4 nap, azaz 6 óra. Amikor elhagyjuk az 1-es állapotot, akkor1/2− 1/2 eséllyel ugrunk a 2-es vagy a 3-as állapotba, azaz 1/2− 1/2 az esélye, hogyaz A, illetve a B gép hibásodik meg. Hasonlóan, ha csak az A gép m¶ködik, akkor8 paraméter¶ exponenciális eloszlású ideig ez így is marad, vagyis a 2-es állapotbanvaló T2 tartózkodási id® Exp(8) eloszlású, várható értéke E(T2) = 1/8 nap, azaz 3

óra. Amikor elhagyjuk a 2-es állapotot, akkor 6/8 = 3/4 eséllyel az 1-es állapotbaugrunk (ez azt jelenti, hogy a szerel® megjavította a B gépet), 2/8 = 1/4 eséllyel pedig

83

Page 86: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

a 4-es állapotba (ez azt jelenti, hogy míg a szerel® a B gépet javította, az A gép ismeghibásodott).

A Markov láncunk irreducibilis, és mivel véges állapotter¶, pozitív rekurrens.Számítsuk ki a stacionárius eloszlást! Legyen πT = (π1, π2, π3, π4). A πTQ = 0 egyen-letrendszert kiírva:

−4π1 + 6π2 + 6π3 = 0

2π1 − 8π2 + 6π4 = 0

2π1 − 8π3 = 0

2π1 + 2π3 − 6π4 = 0.

Fejezzük ki π1 segítségével a többi ismeretlent! A harmadik egyenletb®l π3 = 14π1,

majd az els® egyenletb®l π2 = 512π1, végül a második egyenletb®l π4 = 2

9π1. Mivel

π1 + π2 + π3 + π4 = 1, ezért

1 = π1 +5

12π1 +

1

4π1 +

2

9π1,

amib®l megkapjuk, hogy π1 = 3668. Tehát a stacionárius eloszlás

πT =

(36

68,15

68,

9

68,

8

68

).

Ha a folyamat már nagyon régóta tart, akkor egy adott pillanatban annak az esélye,hogy az A gép m¶ködik, π1 + π2 = 51

68= 0,75, annak az esélye, hogy a B gép m¶ködik,

π1 +π3 = 4568

= 0,66, annak az esélye pedig, hogy a szerel® épp dolgozik, π1 +π2 +π3 =

= 3268

= 0,47.

Fontos folyamatok az úgynevezett születési-halálozási folyamatok. Ezek állapotterea természetes számok halmaza, és Q olyan mátrix, melyben qi,i+1 = λi > 0 a születésiintenzitások, és qi,i−1 = µi > 0 a halálozási intenzitások, qii = −(λi + µi), és mindenmás elem nulla (legyen µ0 = 0). Ez tehát a bolyongás folytonos idej¶ megfelel®je: haa lánc az i állapotban van, akkor Exp(λi + µi) eloszlású ideig tartózkodik ott, majdλi/(λi +µi) valószín¶séggel eggyel jobbra, az (i+ 1) állapotba ugrik, µi/(λi +µi) való-szín¶séggel pedig eggyel balra, az (i− 1) állapotba ugrik. Az így deniált Markov láncnyilván irreducibilis.

84

Page 87: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

A Karlin-McGregor tétel (melyet bizonyítás nélkül közlünk) pontos leírását adjaannak, hogy egy születési-halálozási folyamat mikor lesz tranziens, nulla rekurrens,illetve pozitív rekurrens. Ehhez legyen ρ0 = 1, ρn =

∏ni=1

λi−1

µi(n ≥ 1), továbbá ρ0 = 1,

ρn =∏n

i=1µi

λi(n ≥ 1).

5.10. Tétel. (Karlin-McGregor tétel) Tekintsünk egy születési-halálozási folyam-

atot a természetes számokon, és legyen λi, µi > 0 minden szóbajöv® i-re. Akkor és csak

akkor létezik a Kolmogorov dierenciálegyenleteknek egyértelm¶ (szubsztochasztikus)

megoldása, ha S =∑∞

i=0 ρi és S =∑∞

i=0 ρi közül legalább az egyik végtelen. Ebben az

esetben a lánc

(i) tranziens, ha S = ∞ és S <∞,

(ii) nulla rekurrens, ha S = ∞ és S = ∞,

(iii) pozitív rekurrens, ha S <∞ és S = ∞.

A pozitív rekurrens esetben van stacionárius eloszlás, méghozzá π kielégíti a πiqij =

= πjqji (megfordítható Markov láncokra vonatkozó) egyenleteket. Az i = n− 1, j = n

párra felírva πn−1λn−1 = πnµn adódik, melynek megoldása

πn =λn−1

µn

πn−1 = · · · =n∏

i=1

λi−1

µi

π0 = ρnπ0.

Tehát a stacionárius eloszlást úgy kapjuk meg, hogy a (ρn)n≥0 sorozatot lenormáljukúgy, hogy 1 legyen az összeg.

5.11. Példa. (M/M/1 sor) Egy rendszerbe λ intenzitású Poisson folyamat szerintérkeznek igények, melyeket egy kiszolgáló egység szolgál ki (érkezési sorrendben). Haegy igény beérkezésekor a kiszolgáló foglalt, akkor az új igény beáll a sor végére. Akiszolgálási id® eloszlása Exp(µ). Ha Xt jelöli azt, hogy a t id®pontban hány igénytartózkodik a rendszerben (ebbe nem csak a sorban álló igényeket, hanem az ép-pen kiszolgálás alatt álló igényt is beleértjük), születési-halálozási folyamatot kapunk,melyre λi = λ, µi = µ. A Karlin-McGregor tétel alapján λ > µ esetén a lánc tranziens,λ = µ esetben nulla rekurrens, λ < µ esetén pozitív rekurrens. Utóbbi esetben astacionárius eloszlás

πi =

µ

)i(1− λ

µ

), i = 0,1, . . . .

85

Page 88: Valószín¶ségszámítás 2. - ELTEcsvillo.web.elte.hu/mtval2/stat.pdfNézzük meg a becsléseknél felsorolt els® példánál (titkárn®) a most de niált fogalmakat. El®ször

Stacionaritás esetén a rendszerben tartózkodó igények várható száma

∞∑i=0

iπi =∞∑i=1

i

µ

)i(1− λ

µ

)=λ

µ

∞∑i=1

i

µ

)i−1(1− λ

µ

)=λ

µ· 1

1− λµ

µ− λ,

ahol felhasználtuk, hogy a középs® kifejezésben szerepl® végtelen összeg éppen a p =

= 1− λ/µ paraméter¶ geometriai eloszlás várható értéke, tehát 1/p.Ha például a beérkez® igények intenzitása λ = 5 darab/óra, az azt jelenti, hogy két

igény beérkezése között Exp(5) eloszlású id® telik el, azaz átlagosan 1/5-öd óránként,azaz 12 percenként érkezik egy új igény. Legyen a kiszolgálási intenzitás µ = 6

darab/óra, azaz a kiszolgálási id® Exp(6) eloszlású, tehát egy igény kiszolgálásánakátlagos id®tartama 1/6 óra, vagyis 10 perc. Mivel átlagosan 12 percenként érkeznekaz igények, és átlagosan 10 percig tart a kiszolgálásuk, a sor hossza nem fog a végte-lenségig n®ni. Ha a rendszer már nagyon régóta m¶ködik, akkor π0 = 1/6 = 0,167

lesz a valószín¶sége, hogy a rendszer üres, π1 = 5/36 = 0,139 lesz a valószín¶sége,hogy egy igényt éppen kiszolgálnak, de senki nem áll sorban, π2 = 25/216 = 0,116

lesz a valószín¶sége, hogy egy igényt éppen kiszolgálnak, és egy igény áll sorban, stb.Továbbá elmondhatjuk, hogy átlagosan 5 igény lesz a rendszerben, tehát egy újonnanérkez® igénynek átlagosan 5 · 10 = 50 percet kell várakoznia, míg sorra kerül.

5.12. Példa. (M/M/∞ sor) Az el®z® példán annyit módosítsunk, hogy végtelen sokkiszolgáló egység van, tehát minden beérkez® igényt azonnal elkezdhetünk kiszolgálni(ez persze nem túl realisztikus, de legalább jól kezelhet® matematikailag). Most a λi =

= λ, µi = iµ intenzitások szerepelnek a generátor mátrixban. Ez a lánc mindig pozitívrekurrens lesz, stacionárius eloszlása Poisson(λ/µ). Stacionaritás esetén a rendszerbentartózkodó igények várható száma λ

µ.

Most a λ = 5, µ = 6 esetben, ismét feltételezve, hogy a rendszer nagyon régótam¶ködik, π0 = e−5/6 = 0,434 lesz a valószín¶sége, hogy a rendszer üres, π1 = e−5/6 · 5

6=

= 0,362 lesz a valószín¶sége, hogy pontosan egy kiszolgáló egység foglalt, π2 = 0,151

lesz a valószín¶sége, hogy pontosan két kiszolgáló egység foglalt, stb. Továbbá elmond-hatjuk, hogy átlagosan 5/6 igény lesz a rendszerben.

86