Upload
sabritlilikhalfallah
View
223
Download
0
Embed Size (px)
DESCRIPTION
Variabili Aleatorie statistica
Citation preview
Modelli di Variabili Aleatorie Probabilità Mattia Natali
1
Modelli di Variabili Aleatorie µ Variabili aleatorie di Bernoulli:
Ø X è di Bernoulli di parametro p ∈ 0,1( ) se P X = 1( ) = p e P X = 0( ) = 1− p . Ø Proprietà:
§ E X( ) := 1·pX 1( ) + 0·pX 0( ) = p .
§ Var X( ) = E X 2( ) − E X( )2 ma siccome X = X 2 à
Var X( ) = E X( ) − E X( )2 = p − p2 = p 1− p( ) . Ø Notazione: X è di Bernoulli di parametro p ⇔ X Be p( ) . Ø Prove di Bernoulli:
§ esperimenti casuali, indipendenti, binari (ossia che hanno solo due possibili esiti che chiamo successo e fallimento). p = P successo( ) .
§ Faccio n prove di Bernoulli con probabilità di successo p ∈ 0,1( ) . § Sia X numero di successi in queste n prove. pX k( ) = P X = k( ) .
§ X = X1 + X2 + ...+ Xn à Xk =1 se k-esima prova è successo0 se è fallimento
⎧⎨⎩
.
§ E X( ) = E X1 + ...+ Xn( ) = E X1( ) + ...+ E Xn( ) = np . § Var X( ) = Var X1 + ...+ Xn( ) = Var X1( )
p 1− p( )+ ...+Var Xn( ) = np 1− p( ) .
§ P X = k( ) = nk
⎛⎝⎜
⎞⎠⎟pk 1− p( )n− k .
• X è binomiale di parametri n, p , X Bi n, p( )( ) se
P X = k( ) =nk
⎛⎝⎜
⎞⎠⎟pk 1− p( )n− k , k ∈ 0,1,...,n{ }
0 altrimenti
⎧
⎨⎪
⎩⎪
.
• Ricordiamo che il coefficiente binomiale si calcola nk
⎛⎝⎜
⎞⎠⎟:= n!k! n − k( )! .
§ X Bi n, p( ), Y Bi m, p( ) indipendenti: • X Bi n, p( )⇔ X = X1 + ...+ Xn , Xk Be p( ) indipendenti. • Y Bi m, p( )⇔ Y = Y1 + ...+Ym , Yk Be p( ) indipendenti. • X +Y = X1 + ...+ Xn +Y1 + ...+Ym = somma di n + m . Be p( ) indipendenti ⇒
X +Y Bi n + mi , p( ) . Ø Utilizzo: quando X può assumere solo i valori 0,1 (successo o fallimento).
µ Densità di Poisson: Ø Ci sono in media λ impurità per unità di lunghezza = Ik =
1n.
Ø X = numero di impurità sul segmento. E X( ) = λ , Xk = numero di impurità in Ik Be p( ) .
Modelli di Variabili Aleatorie Probabilità Mattia Natali
2
Ø X = X1 + ...+ Xn , E X( ) = E X1( ) + ...+ E Xn( ) = np . X Bi n, λ
n⎛⎝⎜
⎞⎠⎟ .
Ø P X = k( ) = nk
⎛⎝⎜
⎞⎠⎟
λn
⎛⎝⎜
⎞⎠⎟k
1− λn
⎛⎝⎜
⎞⎠⎟n− k
=n!
k! n − k( )!λ k
nk1− λ
n⎛⎝⎜
⎞⎠⎟n
con n→+∞=e−λ
1− λn
⎛⎝⎜
⎞⎠⎟−k
1
=
=n n −1( )... n − k +1( )
nk→1
1− λn
⎛⎝⎜
⎞⎠⎟−k
→1
λ k
k!1− λ
n⎛⎝⎜
⎞⎠⎟n
→λ k
k!e−λ .
Ø Definizione: X è una variabile aleatoria di Poisson di parametro λ > 0 se
P X = k( ) =λ k
k!e−λ , k ∈ 0,1,2,...{ }
0 altrimenti
⎧⎨⎪
⎩⎪.
Ø Legge del filo: § La variabile aleatoria di Poisson può essere utilizzata come approssimazione di una binomiale
di parametri n, p( ) quando
n 1 prove di Bernoullip1 probabilità di successo
⎧⎨⎩
.
§ Poisson λ( ) ≅ Bi n, λn
⎛⎝⎜
⎞⎠⎟= Bi n, p( ) ≅ Poisson np( ) .
Ø Proprietà: § X Po(λ)⇒ E X( ) = Var X( ) = λ .
§ X Po λ( ),Y Po µ( )⇒ X +Y Po λ + µ( ) . Ø Utilizzo: è un’ottima approssimazione di una binomiale di parametri n, p( ) , quando n è molto
grande e p molto piccolo ponendo λ = np . In altri termini, il totale dei “successi” in un gran numero n di ripetizioni indipendenti di un esperimento che ha una piccola probabilità di riuscita p, è una variabile aleatoria con distribuzione approssimativamente di Poisson, con media λ = np .
µ Variabile aleatoria Geometrica: Ø Successione di prove di Bernoulli con p = P successo( ) e X = numero di prove necessarie per
vedere il primo successo. § P X = k( ) con k ∈ 1,2,...{ } .
• P X = 1( ) = P I prova = "successo"( ) = p .
• P X = 2( ) = P I prova = "insuccesso"II prova = "succeso"
⎛⎝⎜
⎞⎠⎟= p 1− p( ) .
• P X = k( ) = p 1− p( )k−1 perché prima del successo della k -‐esima prova ci sono stati
k −1 insuccessi.
Ø Definizione: X Geom p( ) se P X = k( ) = p 1− p( )k−1 k ∈ 1,2,...{ }0 altrimenti
⎧⎨⎪
⎩⎪.
Ø 1 = P X = k( )k∑ = p 1− p( )k−1
k=1
+∞
∑ , sia q := 1− p⇔ p = 1− q con 0 < q < 1 à qk−1k=1
+∞
∑ =1
1− q
à qk=0
+∞
∑ =1
1− q.
Modelli di Variabili Aleatorie Probabilità Mattia Natali
3
Ø mX t( ) = E etX⎡⎣ ⎤⎦ = etk 1− p( )k−1 pi=1
+∞
∑ = et k−1( ) 1− p( )k pk=0
+∞
∑ = pet et 1− p( )⎡⎣ ⎤⎦q
k
k=1
+∞
∑ = et 1− p( ) < 1
⇔ t < − ln 1− p( )
Ø pet et 1− p( )⎡⎣ ⎤⎦q
k
k=1
+∞
∑ = pet p1− et 1− p( ) =
pe− t − 1− p( ) . Perché è una serie geometrica.
Ø mX 0( ) = 1 .
Ø ′mX t( ) = p e− t( )e− t − 1− p( )⎡⎣ ⎤⎦
2 = mX t( ) e− t
e− t − 1− p( ) = mX t( ) 11− et 1− p( ) .
§ ′mX 0( ) = 1p= E X( ) .
Ø ′′mX t( ) = ′mX t( ) 1− et 1− p( )⎡⎣ ⎤⎦ − −et 1− p( )⎡⎣ ⎤⎦1− et 1− p( )⎡⎣ ⎤⎦
2 .
§ ′′mX 0( ) =1pp +1− p
p2=2 − pp2
= E X 2( ) .
§ Var X( ) = E X 2( ) − E X( )2 = 2 − pp2
−1p2
=1− pp2
=1p2
−1p.
Ø X Geom p( ) , P X > k( ) = P le prime k prove sono insuccessi( ) = 1− p( )... 1− p( )k volte
= 1− p( )k
⇒ P X ≤ k( ) = 1− 1− p( )k . Ø Proprietà di assenza di memoria:
§ P X > k + h | X > h( ) = P X > k( ) . § Dimostrazione:
• P X > k + h | X > h( ) = P X > k + h& X > h( )P X > h( ) =
P X > k + h( )P X > h( ) =
1− p( )k+h1− p( )h
=
= 1− p( )k = P X > k( ) . § P a < X ≤ b | X > h( ) = P a − h < X ≤ b − h( ) .
Ø Utilizzo: è utile quando vogliamo sapere la probabilità che la k -‐esima ripetizione sia il primo successo.
µ Variabile aleatoria ipergeometrica: Ø Definizione: una variabile aleatoria X si dice ipergeometrica di parametri N ,M e n se ha massa
di probabilità P X = i( ) =
Ni
⎛⎝⎜
⎞⎠⎟Mn − i
⎛⎝⎜
⎞⎠⎟
N + Mn
⎛⎝⎜
⎞⎠⎟
con i = 0,1,...,n .
Ø Utilizzo: possiamo capirlo tramite un esempio. Una scatola contiene N batterie accettabili e M difettose. Si estraggono senza rimessa e in maniera casuale n batterie. Denotiamo con X il numero di batterie accettabili contenute nel campione estratto.
Modelli di Variabili Aleatorie Probabilità Mattia Natali
4
µ Variabili aleatoria uniforme: Ø Se noi prendessimo un segmento lungo 1 e un intervallo che va da a a b ivi contenuto, se x è
scelto casuale significa che la probabilità che x ∈ a,b[ ] dipende soltanto dalla lunghezza del segmento e non dalla sua posizione.
Ø L’insieme U è uniforme in 0,1[ ] se la sua densità è fU u( ) := 1 u ∈ 0,1[ ]0 altrimenti
⎧⎨⎪
⎩⎪.
§ P U ∈ u,u + du[ ]( ) = du con u ∈ 0,1[ ] . § P a <U ≤ b( ) = b − a . § 0 < a < b < 1 P a + h <U ≤ b + h( ) = b − a con 0 < a + h < b + h < 1 .
Ø Definizione generale: una variabile aleatoria continua si dice uniforme sull’intervallo α,β[ ] , se ha
funzione di densità data da f x( ) =1
β −αse α ≤ x ≤ β
0 altrimenti
⎧
⎨⎪
⎩⎪
.
Ø U U 0,1[ ] . I passi successivi quindi sono riferiti ad un intervallo ampio 1 .
§ E U( ) = uf u( )du−∞
+∞
∫ = udu0
1
∫ =u2
2 0,1
=12.
§ E U 2( ) = u2 f u( )du−∞
+∞
∫ = u2 du0
1
∫ =u3
3 0,1
=13⇒Var U( ) = 1
3−14=4 − 312
=112
.
§ U U 0,1[ ] , FU u( ) = fU x( )dx−∞
+∞
∫ =0x1
x < 00 ≤ x < 1x ≥ 1
⎧
⎨⎪
⎩⎪
.
Ø b − a( )U + a = X con b > a . § U = 1 à b − a( )1+ a = b . § U = 0 à b − a( )0 + a = a .
Ø X ~U a,b[ ] , X = b − a( )U + a , U ~U 0,1[ ] . Ø E X( ) = E b − a( )U + a⎡⎣ ⎤⎦ = b − a( )E U( ) + a = b − a
2+ a = a + b
2.
Ø Var X( ) = Var b − a( )U + a⎡⎣ ⎤⎦ = b − a( )2Var U( ) = b − a( )212
.
Ø FX x( ) = P X ≤ x( ) = P b − a( ),U + a ≤ x( ) = P U ≤x − ab − a
⎛⎝⎜
⎞⎠⎟= FU
x − ab − a
⎛⎝⎜
⎞⎠⎟ .
Ø ′FX x( ) = ddxFU
x − ab − a
⎛⎝⎜
⎞⎠⎟= ′FU
x − ab − a
⎛⎝⎜
⎞⎠⎟1
b − a= fU
x − ab − a
⎛⎝⎜
⎞⎠⎟1
b − a.
Ø fX x( ) =1
b − a0
0 < x − ab − a
< 1
altrimenti
⎧
⎨⎪
⎩⎪
.
§ 0 < x − ab − a
< 1⇔ 0 < x − a < b − a⇔ a < x < b .
Modelli di Variabili Aleatorie Probabilità Mattia Natali
5
Ø FX x( ) = FUx − ab − a
⎛⎝⎜
⎞⎠⎟=
0x − ab − a1
x < a
0 < x − ab − a
< 1⇔ a < x < b
x ≥ b
⎧
⎨⎪⎪
⎩⎪⎪
.
Ø Utilizzo: quando la variabile aleatoria ha le stesse probabilità di cadere vicino a un qualunque punto dell’intervallo.
µ Variabili aleatorie normali o gaussiane:
Ø Definizione: z è normale standard se la sua densità fZ z( ) := 12π
e−z2
2 .
§ fZ z( )dz = 1⇔ 2π = e−z2
2 dz−∞
+∞
∫−∞
+∞
∫ .
§ 12π
e−s2
2 ds−∞
z
∫ := Φ z( ) := P Z ≤ z( ) .
§ Φ −z( ) = 1− Φ z( ) .
Ø mZ t( ) = E etZ⎡⎣ ⎤⎦ = etZ 12π
e−z2
2 dz−∞
+∞
∫ =12π
e−12z2 −2tz+ t2( )+ t
2
2 dz−∞
+∞
∫ =12π
et2
2 e−z− t( )22 dz
−∞
+∞
∫
sostituisco u = z − t , du = dz à m z( ) = et2
2 12π
e−u2
2 du−∞
+∞
∫=1
= et2
2 .
§ mZ 0( ) = 1 .
§ ′mZ t( ) = tet2
2 = tmZ t( ) . • ′mZ 0( ) = 0 .
§ ′′mZ t( ) = mZ t( ) + t ′mZ t( ) . • ′′mZ 0( ) = mZ 0( ) + 0 = 1⇒ E Z( ) = 0 , E Z 2( ) = 1 = Var Z( ) .
Ø Definizione: X variabile aleatoria con E X( ) = 0 , Var X( ) = 1⇒ X è standard.
Ø Definizione: X variabile aleatoria è normale se: X = aZ + b , a > 0 , b ∈ , Z è normale standard. Se Z è normale standard ⇔ −Z è normale standard.
Ø Def: X è normale con media µ e varianza σ 2 X ~ N µ,σ 2( )( ) se X = σZ + µ , Z normale
standard Z ~ N 0,1( ) . Ø X ~ N µ,σ 2( ) , Y = αX + β ∈N ,( ) con a ≠ 0 .
§ Dimostrazione: X ~ N µ,σ 2( )⇔ X = σZ + µ , Z ~ N 0,1( )⇒Y = αX + β = α σZ + µ( ) + β = ασ( )Z +αµ + β .
§ E Y( ) = E αX + β( ) = αE X( ) + β = αµ + β .
§ Var Y( ) = Var αX + β( ) = α 2Var X( ) . Ø X ~ N µ,σ 2( ) , calcoliamo la funzione di ripartizione e densità.
Modelli di Variabili Aleatorie Probabilità Mattia Natali
6
§ Con X = σZ + µ , FX x( ) = P X ≤ x( ) = P σZ + µ ≤ x( ) = P Z ≤x − µσ
⎛⎝⎜
⎞⎠⎟= Φ
x − µσ
⎛⎝⎜
⎞⎠⎟ à
FX = Φx − µσ
⎛⎝⎜
⎞⎠⎟ .
§ P a < X < b( ) = FX b( ) − FX a( ) per le variabili aleatorie continue.
P a < X < b( ) = Φb − µσ
⎛⎝⎜
⎞⎠⎟− Φ
a − µσ
⎛⎝⎜
⎞⎠⎟ .
§ fX x( ) = ′FX x( ) = ddx
Φx − µσ
⎛⎝⎜
⎞⎠⎟= ′Φ
x − µσ
⎛⎝⎜
⎞⎠⎟1σ
= fZx − µσ
⎛⎝⎜
⎞⎠⎟1σ
=12π
e−12
x−µσ
⎛⎝⎜
⎞⎠⎟2⎡
⎣⎢⎢
⎤
⎦⎥⎥ 1σ
=
=12πσ 2
e−x−µ( )2
2σ 2⎡
⎣⎢⎢
⎤
⎦⎥⎥ .
Ø X ~ N µ,σ 2( ) , X − µσ
~ N 0,1( ) .
§ E X − µσ
⎛⎝⎜
⎞⎠⎟=E X( ) − µ
σ= 0 , Var X − µ
σ⎛⎝⎜
⎞⎠⎟= V −
1σX −
µσ
⎛⎝⎜
⎞⎠⎟=1σ 2 Var X( ) = 1 .
Ø Teorema: X1,X2 ,...,Xn normali indipendenti ⇒ X1 + ...+ Xn è normale.
§ Dimostrazione: X ~ N µ,σ 2( ) . mX t( ) = E etX( ) ma siccome è normale sappiamo che ∃ X = σZ + µ , Z ~ N 0,1( ) .
mX t( ) = E et σZ +µ( )⎡⎣ ⎤⎦ = E e tσ( )Zetµ⎡⎣ ⎤⎦ = etµE e tσ( )
′tz⎡
⎣⎢⎤⎦⎥= etµmZ tσ( ) = etµe
tσ( )22 = e
t2σ 2
2+ tµ
⎡
⎣⎢⎢
⎤
⎦⎥⎥ à
mX = et2σ 2
2+ tµ
⎡
⎣⎢⎢
⎤
⎦⎥⎥ .
• mX1 + ...+Xn= mX1
t( )...mXnt( ) = exp t 2σ 2
1
2+ tµ1
⎧⎨⎩
⎫⎬⎭...exp t 2σ 2
n
2+ tµn
⎧⎨⎩
⎫⎬⎭=
exp t 2σ 2k
2+ tµk
⎛⎝⎜
⎞⎠⎟k=1
n
∑⎧⎨⎩⎪
⎫⎬⎭⎪= exp t 2
2σ 2
kk=1
n
∑′σ( )2
+ t µkk=1
n
∑µ '
⎧
⎨⎪
⎩⎪
⎫
⎬⎪
⎭⎪= exp t 2
2′σ( )2 + t ′µ
⎧⎨⎩
⎫⎬⎭
⇒ X1 + ...+ Xn ~ N µkk=1
n
∑ , σ 2k
k=1
n
∑⎛⎝⎜
⎞⎠⎟.
Ø Utilizzo: questo tipo di variabile aleatoria è molto importante e utilizzata grazie al teorema del limite centrale che tratterremo più avanti.
µ Esponenziali: Ø Def: X è esponenziale di parametro λ > 0 X ~ € λ( )( ) se fX x( ) = λe−λx x > 0
0 altrimenti⎧⎨⎩
.
Ø FX x( ) = fX s( )ds−∞
x
∫ =0 x < 0
λe−λs ds0
x
∫ = −e−λs⎡⎣ ⎤⎦x
0= 1− e−λx x ≥ 0
⎧⎨⎪
⎩⎪.
Modelli di Variabili Aleatorie Probabilità Mattia Natali
7
Ø Funzione generatrice dei momenti:
mX t( ) = E etX( ) = etx fX x( )dx
−∞
+∞
∫ = etxλe−λx ds0
+∞
∫ = λ e− λ− t( )λ '
x dx0
+∞
∫ con λ > t à
=λ
λ − t( ) λ − t( )e− λ− t( )x dx0
+∞
∫=1
.
§ mX t( ) = λλ − t
.
§ m 'X t( ) = −λ −1( )λ − t( )2
=λ
λ − t( )2 à ′mX 0( ) = 1
λ= E X( ) .
§ ′′mX t( ) = −λ λ − t( ) −1( )λ − t( )4
=2λ
λ − t( )3 à ′′mX 0( ) = 2λ
λ 3=2λ2
= E X 2( ) .
§ Var X( ) = 2λ2
−1λ2
=1λ2
.
Ø Assenza di memoria: § X ~ € λ( )⇒ P X > t + s | X > t( ) = P X > s( ) .
§ Dimostrazione: P X > t + s | X > t( ) = P X > t + s& X > t( )P X > t( ) =
P X > t + s( )P X > t( ) =
=1− FX t + s( )1− FX t( ) =
e−λ t+ s( )
e−λt= e−λs = P X > s( ) , ricorda che
P X > z( ) = e−λx ⇒ FX x( ) = 1− e−λx .
Ø cX ~ € λc
⎛⎝⎜
⎞⎠⎟ .
µ Variabili aleatorie di tipo Γ :
Ø Definizione: X è Γ α,λ( ) se fX X( ) =λα
Γ α( ) xα −1e−λx x > 0
0 altrimenti
⎧
⎨⎪
⎩⎪
.
Ø Nota: Γ α( ) serve a far sì che la densità faccia uno in −∞,+∞( ) :
fX x( )dx−∞
+∞
∫ = 1 = λα
Γ α( ) xα −1e−λx dx0
+∞
∫ ⇒ Γ α( ) = λα xα −1e−λx dx0
+∞
∫ facciamo il cambiamento
di variabili y = λx , dy = λdx à λα yλ
⎛⎝⎜
⎞⎠⎟α−1
e− y dyλ0
+∞
∫ =λα
λα yα −1e− y dy0
+∞
∫ = Γ α( ) .
Ø Γ α( ) := xα −1e− x dx0
+∞
∫ .
Ø Gamma di Eulero: Γ 1( ) = e− x dx0
+∞
∫ = 1 .
§ Osservazione: Γ 1,λ( ) = € λ( ) . § Per mezzo dell’integrazione per parti:
Γ α( ) = yα −1e− y dy0
+∞
∫ = −e− yyα −1 +∞
0+ α −1( )y α −1( )−1e− y dy =
0
+∞
∫= a −1( ) y α −1( )−1e− y dy
0
+∞
∫ = α −1( )Γ α −1( ) à Γ α( ) = α −1( )Γ α −1( ) . § Γ n( ) = n −1( )Γ n −1( ) = n −1( ) n − 2( )Γ n − 2( )....Γ 1( ) = n −1( )! .
Modelli di Variabili Aleatorie Probabilità Mattia Natali
8
Ø X ~ Γ a,λ( ) . Funzione generatrice dei momenti:
§
E etX( ) = λα
Γ α( ) xα −1e−λxetx dx0
+∞
∫ =λα
Γ α( ) xα −1e− λ− t( )x dx0
+∞
∫ =λα
λ − t( )αλ − t( )αΓ α( ) xα −1e− λ− t( ) dx
0
+∞
∫=1
=
=λα
λ − t( )α.
§ mX t( ) = λλ − t
⎛⎝⎜
⎞⎠⎟α
.
• ′mX t( ) = α λλ − t
⎛⎝⎜
⎞⎠⎟α −1 −λ −1( )
λ − t( )2⎡
⎣⎢⎢
⎤
⎦⎥⎥=
αλα
λ − t( )α +1 à ′mX 0( ) = αλ.
• ′′mX t( ) = −αλα α +1( ) λ − t( )α 1( )
λ − t( )2α +2 à ′′mX 0( ) = α α +1( )λ2
.
§ E X( ) = αλ;
§ E X 2( ) = α α +1( )λ2
;
§ Var X( ) = α α +1( )λ2
−α 2
λ2=
αλ2
.
Ø Proprietà: X ~ Γ α,λ( ),Y ~ Γ β,λ( ) indipendenti ⇒ X +Y ~ Γ α + β,λ( ) .
§ Dimostrazione: mX+Y t( ) = mX t( )mY t( ) = λλ − t
⎛⎝⎜
⎞⎠⎟α λ
λ − t⎛⎝⎜
⎞⎠⎟β
=λ
λ − t⎛⎝⎜
⎞⎠⎟α +β
⇒ X +Y ~ Γ α + β,λ( ) . § Utilità:
• Capire X,Y ~ € λ( ) indipendenti.
♦ X ~ € λ( ) = Γ 1,λ( )Y ~ € λ( ) = Γ 1,λ( ) à X +Y ~ Γ 2,λ( ) .
♦ In generale: X1,...,Xn ~ € λ( ) à X1 + X2 + ...+ Xn ~ Γ n,λ( ) .
µ Distribuzioni Chi-‐quadro: Ø Z1
2 + ...+ Zn2 ~ Γ n
2, 12
⎛⎝⎜
⎞⎠⎟= χ 2 n( ) chi-‐quadro con n gradi di libertà.
§ X ~ χ 2 n( )⇔ X ~ Γ n2, 12
⎛⎝⎜
⎞⎠⎟ .
§ E X[ ] =n212
= n .
§ Var X( ) =n212
⎛⎝⎜
⎞⎠⎟2 = 2n .
Modelli di Variabili Aleatorie Probabilità Mattia Natali
9
§ X ~ χ 2 n( ) , fX x( ) =1
2n2
1
Γ n2
⎛⎝⎜
⎞⎠⎟xn2−1e−x2 x > 0
0 altrimenti
⎧
⎨⎪⎪
⎩⎪⎪
.
§ X ~ χ 2 n( ),Y ~ χ 2 m( ) indipendenti à
X +Y = X12 + ...+ Xn
2 +Y 21 + ...+Ym
2 ⇒ X +Y ~ χ 2 n + m( ) . Ø Se X è una chi-‐quadro con n gradi di libertà e α è un reale compreso tra 0 e 1 , si definisce la
quantità χ 2α ,n tramite l’equazione seguente: P X ≥ χ 2
α ,n( ) = α .
µ Distribuzioni t: Ø Se Z e Cn sono variabili aleatorie indipendenti, la prima normale standard e la seconda chi-‐
quadro con n gradi di libertà, allora la variabile aleatoria Tn definita come Tn :=ZCn n
si dice
avere distribuzione t con n gradi di libertà à Tn ~ tn . Tale variabile aleatorie viene definita spesso t di Student.
§ fT t( ) =Γ n +1
2⎛⎝⎜
⎞⎠⎟
Γ n2
⎛⎝⎜
⎞⎠⎟ nπ 1+ t
2
n⎛⎝⎜
⎞⎠⎟
n+12
con t a n gradi di libertà.
§ E Tn[ ] = 0 con n ≥ 2 . § Var Tn( ) = n
n − 2 con n ≥ 3 .
Ø Se Tn ~ tα ,n con α ∈ 0,1( ) à P Tn ≥ tα ,n( ) = α .
§ T è simmetrica à P Tn ≥ −tα ,n( ) = 1−α .
µ Teoremi e Teorie: Ø Teoria dell’affidabilità:
§ T = istante di rottura. T > t ⇔ all’istante t il sistema funziona. § P T > t( ) = 1− FT t( ) = funzione di sopravvivenza.
§ Def: intensità di rischio o tasso di guasto. λT t( ) := fT t( )1− FT t( ) .
§ P T ∈(t,t + dt] |T > t( ) = P T ∈(t,t + dt]&T > t( )
P T > t( ) =P T ∈(t,t + dt]( )
1− FT t( ) fT t( )dt1− FT t( ) = λT t( )dt
§ T > 0 λT t( )⇒ fT t( ) è nota.
§ λT t( ) := fT t( )1− FT t( ) = −
ddtln 1− FT t( )( ) integrando il tutto à
λT s( )ds0
t
∫ = −ddsln 1− FT s( )( )ds
0
t
∫ = − ln 1− FT t( )( ) − ln 1− FT 0( )( )⎡⎣ ⎤⎦ ,
Modelli di Variabili Aleatorie Probabilità Mattia Natali
10
λT s( )ds
0
t
∫ = ln 1− FT 0( )( )=0
− ln 1− FT t( )( ) ⇒1− FT t( ) = e− λT s( )ds0
t
∫ .
FT t( ) = 1− exp − λT s( )ds0
t
∫{ } . Ricorda che: fT t( ) = −ddt1− FT t( )( ) .
§ λT t( ) = λ ⇔ T ~ € λ( ) à FT t( ) = 1− exp − λ ds0
t
∫{ } = 1− e−λt . § λT ⇒ P T > t + s |T > s( ) ≤ P T < t( ) , ( significa non decrescente).
• P T > t + s |T > s( ) = P T > t + s&T > s( )P T > s( ) =
P T > t + s( )P T > s( ) =
1− FT t + s( )1− FT s( ) =
=exp − λT u( )du
0
t+ s
∫{ }exp − λT u( )du
0
s
∫{ } = exp − λT u( )du0
t+ s
∫ − λT u( )du0
s
∫( ){ } = exp − λT u( )dus
t+ s
∫( ){ }
• P T > t( ) = 1− FT t( ) = exp − λT u( )du0
t
∫{ } . • Facendo i grafici vediamo che P T > t + s |T > s( ) ≤ P T < t( ) effettivamente è vera.
§ T è Weibull ⇔ λT t( ) = αβt β−1 . Ø Teorema del limite centrale:
§ X1,X2 ,... variabili aleatorie indipendenti, tutte con la stessa formula di ripartizione,
E X1( ) = E X2( ) = ... = µ , Var X1( ) = Var X2( ) = ... = σ 2 .
§ 1n
Xkk=1
n
∑ = Xn media campionaria.
• E Xn( ) = µ .
• Var Xn( ) = σ 2
n.
• P Xn − µ > ε( ) →n→∞
0 (legge dei grandi numeri).
• Var Xn − µ( ) = Var Xn( ) = σ 2
n. Xn µ ± k Var Xn( ) = µ ±
σn.
§ Xn − µ σ
n.
§ Teorema limite centrale: X1,X2 ,.. variabili aleatorie indipendenti con la stessa formula di
ripartizione E X1( ) = E X2( ) = ... = µ , Var X1( ) = Var X2( ) = ... = σ 2 ⇒Xn − µσ
n .
limn→+∞
P Xn − µσ
n ≤ z⎛⎝⎜
⎞⎠⎟= Φ z( ) = 1
2πe−u2
2 du−∞
z
∫ .
§
Zn =Xn − µσn1
n ≈ N 0,1( ) . Xn =Znσn
+ µ , Xn ≈ N µ,σ2
n⎛⎝⎜
⎞⎠⎟.
Modelli di Variabili Aleatorie Probabilità Mattia Natali
11
§ nXn = n1n
Xkk=1
n
∑ = Xkk=1
n
∑ à
n Znσn
+ µ⎛⎝⎜
⎞⎠⎟= σ nZn
≈N 0,1( ) + nµ à E Xk
k=1
n
∑⎛⎝⎜⎞⎠⎟= nµ ,
Var Xkk=1
n
∑⎛⎝⎜⎞⎠⎟= nσ 2 .