11
Modelli di Variabili Aleatorie Probabilità Mattia Natali 1 Modelli di Variabili Aleatorie Variabili aleatorie di Bernoulli: X è di Bernoulli di parametro p 0,1 ( ) se PX = 1 ( ) = p e PX = 0 ( ) = 1 p . Proprietà: EX ( ) := p X 1 () + p X 0 () = p . Var X ( ) = EX 2 ( ) EX ( ) 2 ma siccome X = X 2 Var X ( ) = EX ( ) EX ( ) 2 = p p 2 = p 1 p ( ) . Notazione: X è di Bernoulli di parametro p X B e p ( ) . Prove di Bernoulli: esperimenti casuali, indipendenti, binari (ossia che hanno solo due possibili esiti che chiamo successo e fallimento). p = P successo ( ) . Faccio n prove di Bernoulli con probabilità di successo p 0,1 ( ) . Sia X numero di successi in queste n prove. p X k () = PX = k ( ) . X = X 1 + X 2 + ... + X n X k = 1 se k-esima prova è successo 0 se è fallimento . EX ( ) = EX 1 + ... + X n ( ) = EX 1 ( ) + ... + EX n ( ) = np . Var X ( ) = Var X 1 + ... + X n ( ) = Var X 1 ( ) p 1p ( ) + ... + Var X n ( ) = np 1 p ( ) . PX = k ( ) = n k p k 1 p ( ) n k . X è binomiale di parametri n, p , X B i n, p ( ) ( ) se PX = k ( ) = n k p k 1 p ( ) n k , k 0,1,..., n { } 0 altrimenti . Ricordiamo che il coefficiente binomiale si calcola n k := n! k ! n k ( )! . X B i n, p ( ) , Y B i m, p ( ) indipendenti: X B i n, p ( ) X = X 1 + ... + X n , X k B e p ( ) indipendenti. Y B i m, p ( ) Y = Y 1 + ... + Y m , Y k B e p ( ) indipendenti. X + Y = X 1 + ... + X n + Y 1 + ... + Y m = somma di n + m . B e p ( ) indipendenti X + Y B i n + m i , p ( ) . Utilizzo: quando X può assumere solo i valori 0,1 (successo o fallimento). Densità di Poisson: Ci sono in media λ impurità per unità di lunghezza = I k = 1 n . X = numero di impurità sul segmento. EX ( ) = λ , X k = numero di impurità in I k B e p ( ) .

Variabili Aleatorie statistica

Embed Size (px)

DESCRIPTION

Variabili Aleatorie statistica

Citation preview

Page 1: Variabili Aleatorie statistica

Modelli  di  Variabili  Aleatorie   Probabilità   Mattia  Natali    

  1  

Modelli  di  Variabili  Aleatorie  µ Variabili  aleatorie  di  Bernoulli:  

Ø X  è  di  Bernoulli  di  parametro   p ∈ 0,1( )  se  P X = 1( ) = p  e  P X = 0( ) = 1− p .  Ø Proprietà:  

§ E X( ) := 1·pX 1( ) + 0·pX 0( ) = p .  

§ Var X( ) = E X 2( ) − E X( )2  ma  siccome   X = X 2  à  

Var X( ) = E X( ) − E X( )2 = p − p2 = p 1− p( ) .  Ø Notazione:   X  è  di  Bernoulli  di  parametro   p  ⇔   X Be p( ) .  Ø Prove  di  Bernoulli:    

§ esperimenti  casuali,  indipendenti,  binari  (ossia  che  hanno  solo  due  possibili  esiti  che  chiamo  successo  e  fallimento).   p = P successo( ) .  

§ Faccio   n  prove  di  Bernoulli  con  probabilità  di  successo   p ∈ 0,1( ) .  § Sia   X  numero  di  successi  in  queste   n  prove.   pX k( ) = P X = k( ) .  

§ X = X1 + X2 + ...+ Xn  à   Xk =1 se k-esima prova è successo0 se è fallimento

⎧⎨⎩

.  

§ E X( ) = E X1 + ...+ Xn( ) = E X1( ) + ...+ E Xn( ) = np .  § Var X( ) = Var X1 + ...+ Xn( ) = Var X1( )

p 1− p( )+ ...+Var Xn( ) = np 1− p( ) .  

§ P X = k( ) = nk

⎛⎝⎜

⎞⎠⎟pk 1− p( )n− k .  

• X  è  binomiale  di  parametri   n, p ,   X Bi n, p( )( )  se  

P X = k( ) =nk

⎛⎝⎜

⎞⎠⎟pk 1− p( )n− k , k ∈ 0,1,...,n{ }

0 altrimenti

⎨⎪

⎩⎪

.  

• Ricordiamo  che  il  coefficiente  binomiale  si  calcola  nk

⎛⎝⎜

⎞⎠⎟:= n!k! n − k( )! .  

§ X Bi n, p( ), Y Bi m, p( )  indipendenti:  • X Bi n, p( )⇔ X = X1 + ...+ Xn ,   Xk Be p( )  indipendenti.  • Y Bi m, p( )⇔ Y = Y1 + ...+Ym ,   Yk Be p( )  indipendenti.  • X +Y = X1 + ...+ Xn +Y1 + ...+Ym =  somma  di   n + m .  Be p( )  indipendenti  ⇒  

X +Y Bi n + mi , p( ) .  Ø Utilizzo:  quando   X  può  assumere  solo  i  valori   0,1  (successo  o  fallimento).  

 

µ Densità  di  Poisson:  Ø Ci  sono  in  media  λ  impurità  per  unità  di  lunghezza  = Ik =

1n.  

Ø X =  numero  di  impurità  sul  segmento.  E X( ) = λ ,   Xk =  numero  di  impurità  in   Ik Be p( ) .  

Page 2: Variabili Aleatorie statistica

Modelli  di  Variabili  Aleatorie   Probabilità   Mattia  Natali    

  2  

Ø X = X1 + ...+ Xn ,  E X( ) = E X1( ) + ...+ E Xn( ) = np .   X Bi n, λ

n⎛⎝⎜

⎞⎠⎟ .  

Ø P X = k( ) = nk

⎛⎝⎜

⎞⎠⎟

λn

⎛⎝⎜

⎞⎠⎟k

1− λn

⎛⎝⎜

⎞⎠⎟n− k

=n!

k! n − k( )!λ k

nk1− λ

n⎛⎝⎜

⎞⎠⎟n

con n→+∞=e−λ

1− λn

⎛⎝⎜

⎞⎠⎟−k

1

=  

=n n −1( )... n − k +1( )

nk→1

1− λn

⎛⎝⎜

⎞⎠⎟−k

→1

λ k

k!1− λ

n⎛⎝⎜

⎞⎠⎟n

→λ k

k!e−λ .  

Ø Definizione:   X  è  una  variabile  aleatoria  di  Poisson  di  parametro  λ > 0  se  

P X = k( ) =λ k

k!e−λ , k ∈ 0,1,2,...{ }

0 altrimenti

⎧⎨⎪

⎩⎪.  

Ø Legge  del  filo:  § La  variabile  aleatoria  di  Poisson  può  essere  utilizzata  come  approssimazione  di  una  binomiale  

di  parametri   n, p( )  quando  

n 1 prove di Bernoullip1 probabilità di successo

⎧⎨⎩

.  

§ Poisson λ( ) ≅ Bi n, λn

⎛⎝⎜

⎞⎠⎟= Bi n, p( ) ≅ Poisson np( ) .  

Ø Proprietà:  § X Po(λ)⇒ E X( ) = Var X( ) = λ .  

§ X Po λ( ),Y Po µ( )⇒ X +Y Po λ + µ( ) .  Ø Utilizzo:  è  un’ottima  approssimazione  di  una  binomiale  di  parametri   n, p( ) ,  quando  n  è  molto  

grande  e   p  molto  piccolo  ponendo  λ = np .  In  altri  termini,  il  totale  dei  “successi”  in  un  gran  numero  n  di  ripetizioni  indipendenti  di  un  esperimento  che  ha  una  piccola  probabilità  di  riuscita   p,  è  una  variabile  aleatoria  con  distribuzione  approssimativamente  di  Poisson,  con  media  λ = np .  

 

µ Variabile  aleatoria  Geometrica:  Ø Successione  di  prove  di  Bernoulli  con   p = P successo( )  e   X =  numero  di  prove  necessarie  per  

vedere  il  primo  successo.  § P X = k( )  con   k ∈ 1,2,...{ } .  

• P X = 1( ) = P I prova = "successo"( ) = p .  

• P X = 2( ) = P I prova = "insuccesso"II prova = "succeso"

⎛⎝⎜

⎞⎠⎟= p 1− p( ) .  

• P X = k( ) = p 1− p( )k−1  perché  prima  del  successo  della   k -­‐esima  prova  ci  sono  stati  

k −1  insuccessi.  

Ø Definizione:   X Geom p( )  se  P X = k( ) = p 1− p( )k−1 k ∈ 1,2,...{ }0 altrimenti

⎧⎨⎪

⎩⎪.  

Ø 1 = P X = k( )k∑ = p 1− p( )k−1

k=1

+∞

∑ ,  sia  q := 1− p⇔ p = 1− q  con  0 < q < 1  à   qk−1k=1

+∞

∑ =1

1− q  

à   qk=0

+∞

∑ =1

1− q.  

Page 3: Variabili Aleatorie statistica

Modelli  di  Variabili  Aleatorie   Probabilità   Mattia  Natali    

  3  

Ø mX t( ) = E etX⎡⎣ ⎤⎦ = etk 1− p( )k−1 pi=1

+∞

∑ = et k−1( ) 1− p( )k pk=0

+∞

∑ = pet et 1− p( )⎡⎣ ⎤⎦q

k

k=1

+∞

∑ = et 1− p( ) < 1

⇔ t < − ln 1− p( )  

Ø pet et 1− p( )⎡⎣ ⎤⎦q

k

k=1

+∞

∑ = pet p1− et 1− p( ) =

pe− t − 1− p( ) .  Perché  è  una  serie  geometrica.  

Ø mX 0( ) = 1 .  

Ø ′mX t( ) = p e− t( )e− t − 1− p( )⎡⎣ ⎤⎦

2 = mX t( ) e− t

e− t − 1− p( ) = mX t( ) 11− et 1− p( ) .  

§ ′mX 0( ) = 1p= E X( ) .  

Ø ′′mX t( ) = ′mX t( ) 1− et 1− p( )⎡⎣ ⎤⎦ − −et 1− p( )⎡⎣ ⎤⎦1− et 1− p( )⎡⎣ ⎤⎦

2 .  

§ ′′mX 0( ) =1pp +1− p

p2=2 − pp2

= E X 2( ) .  

§ Var X( ) = E X 2( ) − E X( )2 = 2 − pp2

−1p2

=1− pp2

=1p2

−1p.  

Ø X Geom p( ) ,  P X > k( ) = P le prime k prove sono insuccessi( ) = 1− p( )... 1− p( )k volte

= 1− p( )k  

⇒ P X ≤ k( ) = 1− 1− p( )k .  Ø Proprietà  di  assenza  di  memoria:  

§ P X > k + h | X > h( ) = P X > k( ) .  § Dimostrazione:  

• P X > k + h | X > h( ) = P X > k + h& X > h( )P X > h( ) =

P X > k + h( )P X > h( ) =

1− p( )k+h1− p( )h

=  

= 1− p( )k = P X > k( ) .  § P a < X ≤ b | X > h( ) = P a − h < X ≤ b − h( ) .  

Ø Utilizzo:  è  utile  quando  vogliamo  sapere  la  probabilità  che  la   k -­‐esima  ripetizione  sia  il  primo  successo.  

 

µ Variabile  aleatoria  ipergeometrica:  Ø Definizione:  una  variabile  aleatoria   X  si  dice  ipergeometrica  di  parametri  N ,M  e   n  se  ha  massa  

di  probabilità  P X = i( ) =

Ni

⎛⎝⎜

⎞⎠⎟Mn − i

⎛⎝⎜

⎞⎠⎟

N + Mn

⎛⎝⎜

⎞⎠⎟

 con   i = 0,1,...,n .  

Ø Utilizzo:  possiamo  capirlo  tramite  un  esempio.  Una  scatola  contiene  N  batterie  accettabili  e  M  difettose.  Si  estraggono  senza  rimessa  e  in  maniera  casuale   n  batterie.  Denotiamo  con   X  il  numero  di  batterie  accettabili  contenute  nel  campione  estratto.      

Page 4: Variabili Aleatorie statistica

Modelli  di  Variabili  Aleatorie   Probabilità   Mattia  Natali    

  4  

µ Variabili  aleatoria  uniforme:  Ø Se  noi  prendessimo  un  segmento  lungo  1  e  un  intervallo  che  va  da  a  a  b  ivi  contenuto,  se   x  è  

scelto  casuale  significa  che  la  probabilità  che   x ∈ a,b[ ]  dipende  soltanto  dalla  lunghezza  del  segmento  e  non  dalla  sua  posizione.  

Ø L’insieme  U  è  uniforme  in   0,1[ ]  se  la  sua  densità  è   fU u( ) := 1 u ∈ 0,1[ ]0 altrimenti

⎧⎨⎪

⎩⎪.  

§ P U ∈ u,u + du[ ]( ) = du  con  u ∈ 0,1[ ] .  § P a <U ≤ b( ) = b − a .  § 0 < a < b < 1  P a + h <U ≤ b + h( ) = b − a  con   0 < a + h < b + h < 1 .  

Ø Definizione  generale:  una  variabile  aleatoria  continua  si  dice  uniforme  sull’intervallo   α,β[ ] ,  se  ha  

funzione  di  densità  data  da   f x( ) =1

β −αse α ≤ x ≤ β

0 altrimenti

⎨⎪

⎩⎪

.  

Ø U U 0,1[ ] .  I  passi  successivi  quindi  sono  riferiti  ad  un  intervallo  ampio  1 .  

§ E U( ) = uf u( )du−∞

+∞

∫ = udu0

1

∫ =u2

2 0,1

=12.  

§ E U 2( ) = u2 f u( )du−∞

+∞

∫ = u2 du0

1

∫ =u3

3 0,1

=13⇒Var U( ) = 1

3−14=4 − 312

=112

.  

§ U U 0,1[ ] ,  FU u( ) = fU x( )dx−∞

+∞

∫ =0x1

x < 00 ≤ x < 1x ≥ 1

⎨⎪

⎩⎪

.  

Ø b − a( )U + a = X  con  b > a .  § U = 1  à   b − a( )1+ a = b .  § U = 0  à   b − a( )0 + a = a .  

Ø X ~U a,b[ ] ,   X = b − a( )U + a ,  U ~U 0,1[ ] .  Ø E X( ) = E b − a( )U + a⎡⎣ ⎤⎦ = b − a( )E U( ) + a = b − a

2+ a = a + b

2.  

Ø Var X( ) = Var b − a( )U + a⎡⎣ ⎤⎦ = b − a( )2Var U( ) = b − a( )212

.  

Ø FX x( ) = P X ≤ x( ) = P b − a( ),U + a ≤ x( ) = P U ≤x − ab − a

⎛⎝⎜

⎞⎠⎟= FU

x − ab − a

⎛⎝⎜

⎞⎠⎟ .  

Ø ′FX x( ) = ddxFU

x − ab − a

⎛⎝⎜

⎞⎠⎟= ′FU

x − ab − a

⎛⎝⎜

⎞⎠⎟1

b − a= fU

x − ab − a

⎛⎝⎜

⎞⎠⎟1

b − a.  

Ø fX x( ) =1

b − a0

0 < x − ab − a

< 1

altrimenti

⎨⎪

⎩⎪

.  

§ 0 < x − ab − a

< 1⇔ 0 < x − a < b − a⇔ a < x < b .  

Page 5: Variabili Aleatorie statistica

Modelli  di  Variabili  Aleatorie   Probabilità   Mattia  Natali    

  5  

Ø FX x( ) = FUx − ab − a

⎛⎝⎜

⎞⎠⎟=

0x − ab − a1

x < a

0 < x − ab − a

< 1⇔ a < x < b

x ≥ b

⎨⎪⎪

⎩⎪⎪

.  

Ø Utilizzo:  quando  la  variabile  aleatoria  ha  le  stesse  probabilità  di  cadere  vicino  a  un  qualunque  punto  dell’intervallo.    

µ Variabili  aleatorie  normali  o  gaussiane:  

Ø Definizione:   z  è  normale  standard  se  la  sua  densità   fZ z( ) := 12π

e−z2

2 .  

§ fZ z( )dz = 1⇔ 2π = e−z2

2 dz−∞

+∞

∫−∞

+∞

∫ .  

§ 12π

e−s2

2 ds−∞

z

∫ := Φ z( ) := P Z ≤ z( ) .  

§ Φ −z( ) = 1− Φ z( ) .  

Ø mZ t( ) = E etZ⎡⎣ ⎤⎦ = etZ 12π

e−z2

2 dz−∞

+∞

∫ =12π

e−12z2 −2tz+ t2( )+ t

2

2 dz−∞

+∞

∫ =12π

et2

2 e−z− t( )22 dz

−∞

+∞

sostituisco  u = z − t ,  du = dz  à  m z( ) = et2

2 12π

e−u2

2 du−∞

+∞

∫=1

= et2

2 .  

§ mZ 0( ) = 1 .  

§ ′mZ t( ) = tet2

2 = tmZ t( ) .  • ′mZ 0( ) = 0 .  

§ ′′mZ t( ) = mZ t( ) + t ′mZ t( ) .  • ′′mZ 0( ) = mZ 0( ) + 0 = 1⇒ E Z( ) = 0 ,  E Z 2( ) = 1 = Var Z( ) .  

Ø Definizione:   X  variabile  aleatoria  con  E X( ) = 0 ,  Var X( ) = 1⇒ X  è  standard.  

Ø Definizione:   X  variabile  aleatoria  è  normale  se:   X = aZ + b ,  a > 0 ,   b ∈ ,   Z  è  normale  standard.  Se   Z  è  normale  standard  ⇔  −Z  è  normale  standard.  

Ø Def:   X  è  normale  con  media  µ  e  varianza  σ 2   X ~ N µ,σ 2( )( )  se   X = σZ + µ ,   Z  normale  

standard   Z ~ N 0,1( ) .  Ø X ~ N µ,σ 2( ) ,  Y = αX + β ∈N ,( )  con  a ≠ 0 .  

§ Dimostrazione:   X ~ N µ,σ 2( )⇔ X = σZ + µ ,   Z ~ N 0,1( )⇒Y = αX + β = α σZ + µ( ) + β = ασ( )Z +αµ + β .  

§ E Y( ) = E αX + β( ) = αE X( ) + β = αµ + β .  

§ Var Y( ) = Var αX + β( ) = α 2Var X( ) .  Ø X ~ N µ,σ 2( ) ,  calcoliamo  la  funzione  di  ripartizione  e  densità.  

Page 6: Variabili Aleatorie statistica

Modelli  di  Variabili  Aleatorie   Probabilità   Mattia  Natali    

  6  

§ Con   X = σZ + µ ,  FX x( ) = P X ≤ x( ) = P σZ + µ ≤ x( ) = P Z ≤x − µσ

⎛⎝⎜

⎞⎠⎟= Φ

x − µσ

⎛⎝⎜

⎞⎠⎟  à  

FX = Φx − µσ

⎛⎝⎜

⎞⎠⎟ .  

§ P a < X < b( ) = FX b( ) − FX a( )  per  le  variabili  aleatorie  continue.  

P a < X < b( ) = Φb − µσ

⎛⎝⎜

⎞⎠⎟− Φ

a − µσ

⎛⎝⎜

⎞⎠⎟ .  

§ fX x( ) = ′FX x( ) = ddx

Φx − µσ

⎛⎝⎜

⎞⎠⎟= ′Φ

x − µσ

⎛⎝⎜

⎞⎠⎟1σ

= fZx − µσ

⎛⎝⎜

⎞⎠⎟1σ

=12π

e−12

x−µσ

⎛⎝⎜

⎞⎠⎟2⎡

⎣⎢⎢

⎦⎥⎥ 1σ

=

=12πσ 2

e−x−µ( )2

2σ 2⎡

⎣⎢⎢

⎦⎥⎥ .  

Ø X ~ N µ,σ 2( ) ,   X − µσ

~ N 0,1( ) .  

§ E X − µσ

⎛⎝⎜

⎞⎠⎟=E X( ) − µ

σ= 0 ,  Var X − µ

σ⎛⎝⎜

⎞⎠⎟= V −

1σX −

µσ

⎛⎝⎜

⎞⎠⎟=1σ 2 Var X( ) = 1 .  

Ø Teorema:   X1,X2 ,...,Xn  normali  indipendenti  ⇒ X1 + ...+ Xn  è  normale.  

§ Dimostrazione:   X ~ N µ,σ 2( ) .  mX t( ) = E etX( )  ma  siccome  è  normale  sappiamo  che  ∃  X = σZ + µ ,   Z ~ N 0,1( ) .  

mX t( ) = E et σZ +µ( )⎡⎣ ⎤⎦ = E e tσ( )Zetµ⎡⎣ ⎤⎦ = etµE e tσ( )

′tz⎡

⎣⎢⎤⎦⎥= etµmZ tσ( ) = etµe

tσ( )22 = e

t2σ 2

2+ tµ

⎣⎢⎢

⎦⎥⎥  à  

mX = et2σ 2

2+ tµ

⎣⎢⎢

⎦⎥⎥ .  

• mX1 + ...+Xn= mX1

t( )...mXnt( ) = exp t 2σ 2

1

2+ tµ1

⎧⎨⎩

⎫⎬⎭...exp t 2σ 2

n

2+ tµn

⎧⎨⎩

⎫⎬⎭=

exp t 2σ 2k

2+ tµk

⎛⎝⎜

⎞⎠⎟k=1

n

∑⎧⎨⎩⎪

⎫⎬⎭⎪= exp t 2

2σ 2

kk=1

n

∑′σ( )2

+ t µkk=1

n

∑µ '

⎨⎪

⎩⎪

⎬⎪

⎭⎪= exp t 2

2′σ( )2 + t ′µ

⎧⎨⎩

⎫⎬⎭

⇒ X1 + ...+ Xn ~ N µkk=1

n

∑ , σ 2k

k=1

n

∑⎛⎝⎜

⎞⎠⎟.  

Ø Utilizzo:  questo  tipo  di  variabile  aleatoria  è  molto  importante  e  utilizzata  grazie  al  teorema  del  limite  centrale  che  tratterremo  più  avanti.  

 

µ Esponenziali:  Ø Def:   X  è  esponenziale  di  parametro  λ > 0   X ~ € λ( )( )  se   fX x( ) = λe−λx x > 0

0 altrimenti⎧⎨⎩

.  

Ø FX x( ) = fX s( )ds−∞

x

∫ =0 x < 0

λe−λs ds0

x

∫ = −e−λs⎡⎣ ⎤⎦x

0= 1− e−λx x ≥ 0

⎧⎨⎪

⎩⎪.  

Page 7: Variabili Aleatorie statistica

Modelli  di  Variabili  Aleatorie   Probabilità   Mattia  Natali    

  7  

Ø Funzione  generatrice  dei  momenti:  

mX t( ) = E etX( ) = etx fX x( )dx

−∞

+∞

∫ = etxλe−λx ds0

+∞

∫ = λ e− λ− t( )λ '

x dx0

+∞

∫  con  λ > t  à  

λ − t( ) λ − t( )e− λ− t( )x dx0

+∞

∫=1

.  

§ mX t( ) = λλ − t

.  

§ m 'X t( ) = −λ −1( )λ − t( )2

λ − t( )2  à   ′mX 0( ) = 1

λ= E X( ) .  

§ ′′mX t( ) = −λ λ − t( ) −1( )λ − t( )4

=2λ

λ − t( )3  à   ′′mX 0( ) = 2λ

λ 3=2λ2

= E X 2( ) .  

§ Var X( ) = 2λ2

−1λ2

=1λ2

.  

Ø Assenza  di  memoria:  § X ~ € λ( )⇒ P X > t + s | X > t( ) = P X > s( ) .  

§ Dimostrazione:  P X > t + s | X > t( ) = P X > t + s& X > t( )P X > t( ) =

P X > t + s( )P X > t( ) =

=1− FX t + s( )1− FX t( ) =

e−λ t+ s( )

e−λt= e−λs = P X > s( ) ,  ricorda  che  

P X > z( ) = e−λx ⇒ FX x( ) = 1− e−λx .  

Ø cX ~ € λc

⎛⎝⎜

⎞⎠⎟ .  

 

µ Variabili  aleatorie  di  tipo  Γ :  

Ø Definizione:   X  è  Γ α,λ( )  se   fX X( ) =λα

Γ α( ) xα −1e−λx x > 0

0 altrimenti

⎨⎪

⎩⎪

.  

Ø Nota:  Γ α( )  serve  a  far  sì  che  la  densità  faccia  uno  in   −∞,+∞( ) :  

fX x( )dx−∞

+∞

∫ = 1 = λα

Γ α( ) xα −1e−λx dx0

+∞

∫ ⇒ Γ α( ) = λα xα −1e−λx dx0

+∞

∫  facciamo  il  cambiamento  

di  variabili   y = λx ,  dy = λdx  à  λα yλ

⎛⎝⎜

⎞⎠⎟α−1

e− y dyλ0

+∞

∫ =λα

λα yα −1e− y dy0

+∞

∫ = Γ α( ) .  

Ø Γ α( ) := xα −1e− x dx0

+∞

∫ .  

Ø Gamma  di  Eulero:  Γ 1( ) = e− x dx0

+∞

∫ = 1 .  

§ Osservazione:  Γ 1,λ( ) = € λ( ) .  § Per  mezzo  dell’integrazione  per  parti:

Γ α( ) = yα −1e− y dy0

+∞

∫ = −e− yyα −1 +∞

0+ α −1( )y α −1( )−1e− y dy =

0

+∞

∫= a −1( ) y α −1( )−1e− y dy

0

+∞

∫ = α −1( )Γ α −1( )  à  Γ α( ) = α −1( )Γ α −1( ) .  § Γ n( ) = n −1( )Γ n −1( ) = n −1( ) n − 2( )Γ n − 2( )....Γ 1( ) = n −1( )! .  

Page 8: Variabili Aleatorie statistica

Modelli  di  Variabili  Aleatorie   Probabilità   Mattia  Natali    

  8  

Ø X ~ Γ a,λ( ) .  Funzione  generatrice  dei  momenti:  

§

E etX( ) = λα

Γ α( ) xα −1e−λxetx dx0

+∞

∫ =λα

Γ α( ) xα −1e− λ− t( )x dx0

+∞

∫ =λα

λ − t( )αλ − t( )αΓ α( ) xα −1e− λ− t( ) dx

0

+∞

∫=1

=

=λα

λ − t( )α.  

§ mX t( ) = λλ − t

⎛⎝⎜

⎞⎠⎟α

.  

• ′mX t( ) = α λλ − t

⎛⎝⎜

⎞⎠⎟α −1 −λ −1( )

λ − t( )2⎡

⎣⎢⎢

⎦⎥⎥=

αλα

λ − t( )α +1  à   ′mX 0( ) = αλ.  

• ′′mX t( ) = −αλα α +1( ) λ − t( )α 1( )

λ − t( )2α +2  à   ′′mX 0( ) = α α +1( )λ2

.  

§ E X( ) = αλ;  

§ E X 2( ) = α α +1( )λ2

;  

§ Var X( ) = α α +1( )λ2

−α 2

λ2=

αλ2

.  

Ø Proprietà:   X ~ Γ α,λ( ),Y ~ Γ β,λ( )  indipendenti  ⇒ X +Y ~ Γ α + β,λ( ) .  

§ Dimostrazione:  mX+Y t( ) = mX t( )mY t( ) = λλ − t

⎛⎝⎜

⎞⎠⎟α λ

λ − t⎛⎝⎜

⎞⎠⎟β

λ − t⎛⎝⎜

⎞⎠⎟α +β

⇒ X +Y ~ Γ α + β,λ( ) .  § Utilità:  

• Capire   X,Y ~ € λ( )  indipendenti.  

♦ X ~ € λ( ) = Γ 1,λ( )Y ~ € λ( ) = Γ 1,λ( )  à   X +Y ~ Γ 2,λ( ) .  

♦ In  generale:   X1,...,Xn ~ € λ( )  à   X1 + X2 + ...+ Xn ~ Γ n,λ( ) .    

µ Distribuzioni  Chi-­‐quadro:  Ø Z1

2 + ...+ Zn2 ~ Γ n

2, 12

⎛⎝⎜

⎞⎠⎟= χ 2 n( )  chi-­‐quadro  con   n  gradi  di  libertà.  

§ X ~ χ 2 n( )⇔ X ~ Γ n2, 12

⎛⎝⎜

⎞⎠⎟ .  

§ E X[ ] =n212

= n .  

§ Var X( ) =n212

⎛⎝⎜

⎞⎠⎟2 = 2n .  

Page 9: Variabili Aleatorie statistica

Modelli  di  Variabili  Aleatorie   Probabilità   Mattia  Natali    

  9  

§ X ~ χ 2 n( ) ,   fX x( ) =1

2n2

1

Γ n2

⎛⎝⎜

⎞⎠⎟xn2−1e−x2 x > 0

0 altrimenti

⎨⎪⎪

⎩⎪⎪

.  

§ X ~ χ 2 n( ),Y ~ χ 2 m( )  indipendenti  à  

X +Y = X12 + ...+ Xn

2 +Y 21 + ...+Ym

2 ⇒ X +Y ~ χ 2 n + m( ) .  Ø Se   X  è  una  chi-­‐quadro  con   n  gradi  di  libertà  e  α  è  un  reale  compreso  tra  0  e  1 ,  si  definisce  la  

quantità   χ 2α ,n  tramite  l’equazione  seguente:  P X ≥ χ 2

α ,n( ) = α .  

 

µ Distribuzioni  t:  Ø Se  Z  e  Cn  sono  variabili  aleatorie  indipendenti,  la  prima  normale  standard  e  la  seconda  chi-­‐

quadro  con   n  gradi  di  libertà,  allora  la  variabile  aleatoria  Tn  definita  come  Tn :=ZCn n

 si  dice  

avere  distribuzione   t  con   n  gradi  di  libertà  à  Tn ~ tn .  Tale  variabile  aleatorie  viene  definita  spesso   t  di  Student.  

§ fT t( ) =Γ n +1

2⎛⎝⎜

⎞⎠⎟

Γ n2

⎛⎝⎜

⎞⎠⎟ nπ 1+ t

2

n⎛⎝⎜

⎞⎠⎟

n+12

 con   t  a   n  gradi  di  libertà.  

§ E Tn[ ] = 0  con  n ≥ 2 .  § Var Tn( ) = n

n − 2  con   n ≥ 3 .  

Ø Se  Tn ~ tα ,n  con  α ∈ 0,1( )  à  P Tn ≥ tα ,n( ) = α .  

§ T  è  simmetrica  à  P Tn ≥ −tα ,n( ) = 1−α .  

 

µ Teoremi  e  Teorie:  Ø Teoria  dell’affidabilità:  

§ T =  istante  di  rottura.  T > t ⇔  all’istante   t  il  sistema  funziona.  § P T > t( ) = 1− FT t( ) =  funzione  di  sopravvivenza.  

§ Def:  intensità  di  rischio  o  tasso  di  guasto.  λT t( ) := fT t( )1− FT t( ) .  

§ P T ∈(t,t + dt] |T > t( ) = P T ∈(t,t + dt]&T > t( )

P T > t( ) =P T ∈(t,t + dt]( )

1− FT t( ) fT t( )dt1− FT t( ) = λT t( )dt

 § T > 0  λT t( )⇒ fT t( )  è  nota.  

§ λT t( ) := fT t( )1− FT t( ) = −

ddtln 1− FT t( )( )  integrando  il  tutto  à  

λT s( )ds0

t

∫ = −ddsln 1− FT s( )( )ds

0

t

∫ = − ln 1− FT t( )( ) − ln 1− FT 0( )( )⎡⎣ ⎤⎦ ,  

Page 10: Variabili Aleatorie statistica

Modelli  di  Variabili  Aleatorie   Probabilità   Mattia  Natali    

  10  

λT s( )ds

0

t

∫ = ln 1− FT 0( )( )=0

− ln 1− FT t( )( )  ⇒1− FT t( ) = e− λT s( )ds0

t

∫ .  

FT t( ) = 1− exp − λT s( )ds0

t

∫{ } .  Ricorda  che:   fT t( ) = −ddt1− FT t( )( ) .  

§ λT t( ) = λ ⇔ T ~ € λ( )  à  FT t( ) = 1− exp − λ ds0

t

∫{ } = 1− e−λt .  § λT ⇒ P T > t + s |T > s( ) ≤ P T < t( ) ,  (  significa  non  decrescente).  

• P T > t + s |T > s( ) = P T > t + s&T > s( )P T > s( ) =

P T > t + s( )P T > s( ) =

1− FT t + s( )1− FT s( ) =

=exp − λT u( )du

0

t+ s

∫{ }exp − λT u( )du

0

s

∫{ } = exp − λT u( )du0

t+ s

∫ − λT u( )du0

s

∫( ){ } = exp − λT u( )dus

t+ s

∫( ){ }  

• P T > t( ) = 1− FT t( ) = exp − λT u( )du0

t

∫{ } .  • Facendo  i  grafici  vediamo  che  P T > t + s |T > s( ) ≤ P T < t( )  effettivamente  è  vera.  

§ T  è  Weibull  ⇔ λT t( ) = αβt β−1 .  Ø Teorema  del  limite  centrale:  

§ X1,X2 ,...  variabili  aleatorie  indipendenti,  tutte  con  la  stessa  formula  di  ripartizione,  

E X1( ) = E X2( ) = ... = µ ,  Var X1( ) = Var X2( ) = ... = σ 2 .  

§ 1n

Xkk=1

n

∑ = Xn  media  campionaria.  

• E Xn( ) = µ .  

• Var Xn( ) = σ 2

n.  

• P Xn − µ > ε( ) →n→∞

0  (legge  dei  grandi  numeri).  

• Var Xn − µ( ) = Var Xn( ) = σ 2

n.   Xn µ ± k Var Xn( ) = µ ±

σn.  

§ Xn − µ σ

n.  

§ Teorema  limite  centrale:   X1,X2 ,..  variabili  aleatorie  indipendenti  con  la  stessa  formula  di  

ripartizione  E X1( ) = E X2( ) = ... = µ ,  Var X1( ) = Var X2( ) = ... = σ 2 ⇒Xn − µσ

n .  

limn→+∞

P Xn − µσ

n ≤ z⎛⎝⎜

⎞⎠⎟= Φ z( ) = 1

2πe−u2

2 du−∞

z

∫ .  

§

Zn =Xn − µσn1

n ≈ N 0,1( ) .   Xn =Znσn

+ µ ,   Xn ≈ N µ,σ2

n⎛⎝⎜

⎞⎠⎟.  

Page 11: Variabili Aleatorie statistica

Modelli  di  Variabili  Aleatorie   Probabilità   Mattia  Natali    

  11  

§ nXn = n1n

Xkk=1

n

∑ = Xkk=1

n

∑  à  

n Znσn

+ µ⎛⎝⎜

⎞⎠⎟= σ nZn

≈N 0,1( ) + nµ  à  E Xk

k=1

n

∑⎛⎝⎜⎞⎠⎟= nµ ,  

Var Xkk=1

n

∑⎛⎝⎜⎞⎠⎟= nσ 2 .