32
APPUNTI DI CALCOLO DELLE PROBABILIT ` A Corso di Analisi dei Mercati Finanziari Laurea Magistrale BAMF, Universit` a di Firenze Docente: Prof. Maria Elvira Mancino [email protected]fi.it Settembre 2008

CALCOLO DELLE PROBABILITA

Embed Size (px)

DESCRIPTION

APPUNTI DI CALCOLO DELLE PROBABILITµA Corso di Analisi dei Mercati Finanziari Laurea Magistrale BAMF, Universitµa di Firenze Docente: Prof. Maria Elvira Mancino [email protected]¯.it Settembre 2008

Citation preview

Page 1: CALCOLO DELLE PROBABILITA

APPUNTI DICALCOLO DELLE PROBABILITA

Corso di Analisi dei Mercati FinanziariLaurea Magistrale BAMF, Universita di Firenze

Docente: Prof. Maria Elvira [email protected]

Settembre 2008

Page 2: CALCOLO DELLE PROBABILITA

Capitolo 1

SPAZI PROBABILIZZATI

Il calcolo delle probabilita intende misurare il grado di fiducia che abbiamo nel verificarsidi un evento non certo, per esempio: ”domani piove”, ”nel lancio di una moneta, escecroce”, etc.

1.1 Gli eventi

Sia Ω l’insieme di tutti i possibili risultati di un esperimento (che chiameremo spaziodei campioni). Per esempio: se l’esperimento in questione e il lancio di un dado, alloraΩ = (esce testa), (esce croce). Indicheremo con ∅ l’insieme vuoto e lo chiameremol’evento impossibile e chiameremo Ω l’evento certo.

Consideriamo inoltre una famiglia di sottoinsiemi di Ω, che indicheremo con A, chegode delle seguenti proprieta:

(i) Ω ∈ A,(ii) se A ∈ A allora Ac ∈ A,(iii) se (An)n e una successione di elementi di A allora ∪nAn ∈ A.

Una classe che gode delle proprieta (i),(ii),(iii) si dice σ-algebra. Gli elementi di A sichiamano eventi.

Esempio 1.1.1 (i)La piu piccola σ-algebra associata ad Ω e A = ∅, Ω.(ii) Se Ω ha cardinalita finita l’insieme delle parti di Ω, ossia la famiglia di tutti i suoipossibili sottoinsiemi, e una σ-algebra.(iii) Se A e un sottoinsieme di Ω, allora A = ∅, A, Ac, Ω e una σ-algebra e si chiama laσ-algebra generata da A.(iv) Dati n eventi A1, . . . , An di A si dice σ-algebra generata da A1, . . . , An la piu piccolaσ-algebra che contiene A1, . . . , An.

Esercizio Provare che seA e una σ-algebra, allora, data una successione (An)n di elementidi A, risulta ∩nAn ∈ A. (Si suggerisce di usare le relazioni: (∪iAi)

c = ∩iAci , (∩iAi)

c =∪iA

ci .)

1

Page 3: CALCOLO DELLE PROBABILITA

1.2 La misura di probabilita

Definizione 1.2.1 Una probabilita P e un’applicazione

P : A → [0, 1]

tale che(i) P (Ω) = 1,(ii) se (An)n e una successione di eventi disgiunti a due a due, allora

P (∪nAn) =∑n

P (An).

La proprieta (ii) si chiama additivita numerabile.

Esempio 1.2.2 Consideriamo l’esperimento che consiste nel lanciare una volta una mon-eta, possibilmente truccata. Possiamo prendere come spazio dei campioni Ω = H, T doveH e l’evento esce croce e T e l’evento esce testa. Sia A la σ-algebra ∅, H, T, Ω.Una possibile misura di probabilita P e data da:

P (∅) = 0, P (H) = p, P (T ) = 1− p, P (Ω) = 1,

dove p ∈ [0, 1]. Se p = 12

il gioco e equo, altrimenti e truccato.

Osservazione 1.2.3 Se l’insieme Ω ha cardinalita finita, sia N , e se la natura del prob-lema e tale che possiamo supporre che tutti i possibili risultati abbiano la stessa probabilitadi verificarsi, sia p = P (ω) per ogni ω ∈ Ω, allora risulta

1 = P (Ω) =∑

ω∈Ω

P (ω) = p×N,

da cui si ricava

p =1

N.

Inoltre, per ogni sottoinsieme A di Ω, si ottiene

P (A) =∑

ω∈A

P (ω) = p× cardinalita(A) =cardinalita(A)

cardinalita(Ω).

Nell’ultima formula si ritrova la definizione di probabilita in termini di frequenza, cioela probabilita di un evento e il rapporto tra il numero di casi favorevoli (cardinalita (A))e il numero di casi possibili (cardinalita (Ω)).

Proposizione 1.2.4 La probabilita P gode delle seguenti proprieta:(i) per ogni A ∈ A, P (Ac) = 1− P (A),(ii) se A, B ∈ A con A ⊆ B, P (B) = P (A) + P (B \ A) ≥ P (A),(iii) se A,B ∈ A, P (A ∪B) = P (A) + P (B)− P (A ∩B).

2

Page 4: CALCOLO DELLE PROBABILITA

Dim. (i) Poiche A ∪ Ac = Ω e A ∩ Ac = ∅, allora P (A ∪ Ac) = P (A) + P (Ac) = 1.(ii) Poiche B = A ∪ (B \ A) e poiche gli eventi A e B \ A sono disgiunti, allora

P (B) = P (A) + P (B \ A).

(iii) Risulta A ∪B = A ∪ (B \ A) e gli eventi A e B \ A sono disgiunti. Allora

P (A ∪B) = P (A) + P (B \ A) = P (A) + P (B \ (A ∩B)) =

= P (A) + P (B)− P (A ∩B).

2

Esercizio 1.2.5 Dimostrare per induzione su n che se A1, . . . , An ∈ A allora

P (∪ni=1Ai) =

i

P (Ai)−∑

i<j

P (Ai ∩ Aj) +∑

i<j<k

P (Ai ∩ Aj ∩ Ak)− · · ·

+(−1)n+1P (A1 ∩ . . . An).

Proposizione 1.2.6 Sia (An)n una successione crescente di eventi (cioe A1 ⊆ A2 ⊆ · · ·)e sia A = ∪∞n=0An. Allora

P (A) = limn

P (An).

Analogamente, se (An)n una successione decrescente di eventi (cioe A1 ⊇ A2 ⊇ · · ·) e siaA = ∩∞n=0An. Allora

P (A) = limn

P (An).

Dim. RisultaA = A1 ∪ (A2 \ A1) ∪ (A3 \ A2) ∪ . . .

dunque A e unione disgiunta di eventi. Allora per la (ii) della definizione (1.2.1)

P (A) = P (A1) +∞∑

i=1

P (Ai+1 \ Ai) =

= P (A1) + limn→∞

n−1∑

i=1

[P (Ai+1 − P (Ai)] = limn→∞P (An).

Dimostrare per ESERCIZIO il risultato sulla famiglia decrescente di eventi passando alcomplementare e usando la prima parte. 2

3

Page 5: CALCOLO DELLE PROBABILITA

1.3 La probabilita condizionale

Definizione 1.3.1 Siano A,B due eventi tali che P (B) > 0. La probabilita con-dizionale di A dato B e definita da

P (A|B) =P (A ∩B)

P (B).

Una famiglia di eventi B1, . . . , Bn si dice una partizione di Ω se Bi ∩ Bj = ∅ sei 6= j e ∪n

i=1Bi = Ω.

Proposizione 1.3.2 Per ogni coppia A,B ∈ AP (A) = P (A|B)P (B) + P (A|Bc)P (Bc). (1.1)

Piu in generale se A1, . . . , An e una partizione di Ω, (si dice anche una partizionedell’evento certo), si ha

P (A) =n∑

i=1

P (A|Bi)P (Bi). (1.2)

Dim. Dimostriamo (1.1). Risulta A = (A ∩ B) ∪ (A ∩ Bc). Inoltre i due eventi A ∩ B eA ∩Bc sono disgiunti. Dunque

P (A) = P (A ∩B) + P (A ∩Bc) = P (A|B)P (B) + P (A|Bc)P (Bc).

Dimostrare (1.2) per Esercizio. 2

Esercizio 1.3.3 Dimostrare che se A1, . . . , An sono n eventi allora vale

P (A1 ∩ A2 ∩ . . . ∩ An) =

= P (A1)P (A2|A1)P (A3|A1 ∩ A2) · · ·P (An|A1 ∩ A2 ∩ . . . ∩ An−1).

Proposizione 1.3.4 Siano A1, . . . , An eventi disgiunti tali che ∪ni=1Ai = Ω (ovvero una

partizione di Ω). Allora per ogni evento B

P (Ai|B) =P (Ai)P (B|Ai)∑n

k=1 P (Ak)P (B|Ak). (1.3)

Dim. Risulta

P (Ai|B) =P (Ai)P (B|Ai)

P (B),

ma poiche gli Ai sono una partizione di Ω

P (B) =n∑

k=1

P (Ak ∩B) =n∑

k=1

P (Ak)P (B|Ak).

2

La formula (1.3) prende il nome di formula di Bayes.

4

Page 6: CALCOLO DELLE PROBABILITA

1.4 L’indipendenza tra eventi

Definizione 1.4.1 Si dice che due eventi A e B sono indipendenti se

P (A ∩B) = P (A)P (B).

Definizione 1.4.2 Una famiglia (Ai)i∈I si dice indipendente se

P (∩i∈JAi) =∏

i∈J

P (Ai),

per tutti i sottoinsiemi finiti J di I.

1.5 Lo schema delle prove ripetute

Supponiamo di effettuare una successione di esperimenti tra loro indipendenti e tali checiascuno puo dare luogo solo a due possibili risultati, che indicheremo come successo einsuccesso.

Per esempio consideriamo una successione di n lanci ripetuti di una moneta. Sup-poniamo che esca testa con probabilita p e croce con probabilita 1− p.

Vogliamo calcolare quale e la probabilita di ottenere come risultato degli n lanci unaprefissata sequenza di teste e croci, per esempio consideriamo la particolare sequenza incui le prime k volte si e ottenuto testa e le seguenti n− k si e ottenuto croce . Indichiamocon Ai l’evento (il risultato dell’i-esimo lancio e testa) e quindi P (Ai) = p. L’evento a cuisiamo interessati e allora

A1 ∩ . . . ∩ Ak ∩ Ack+1 ∩ . . . ∩ Ac

n.

Poiche gli eventi Ai sono indipendenti, risulta

P (A1 ∩ . . . ∩ Ak ∩ Ack+1 ∩ . . . ∩ Ac

n) = P (A1) · · ·P (Ak)P (Ack+1) · · ·P (Ac

n) = pk(1− p)n−k.

Infine basta osservare che il risultato ottenuto dipende solo dal numero di teste e di crocipresenti nella sequenza e non dal loro ordine. Conclusione: la probabilita di ottenere in nlanci di una moneta (dove p e la probabilita che esca testa) una prefissata sequenza di kteste (e n− k croci) e pk(1− p)n−k.

Il precedente modello viene anche indicato come schema di Bernoulli (o schemasuccesso-insuccesso).

1.6 Calcolo combinatorio

Il calcolo combinatorio ha lo scopo di calcolare la cardinalita degli insiemi finiti. Osservi-amo che due insiemi hanno la stessa cardinalita se si possono mettere in corrispondenzabiunivoca.

(1) L’insieme prodotto (M ×N), dove M ha cardinalita m e N ha cardinalita n, hacardinalita mn.

5

Page 7: CALCOLO DELLE PROBABILITA

(2) Se m ≤ n la cardinalita dell’insieme delle applicazioni iniettive f : M → N e

n!

(n− k)!.

Si parla di disposizioni di m elementi tra N elementi: e una m-upla ordinata (n1, . . . , nm)di elementi di N tutti distinti tra loro. Se m = n si parla di permutazioni.

(3) L’insieme dei sottoinsiemi di N di cardinalita m ha cardinalita

(nm

)=

n!

k!(n− k)!.

6

Page 8: CALCOLO DELLE PROBABILITA

Capitolo 2

VARIABILI ALEATORIEDISCRETE

Definizione 2.0.1 Dato uno spazio di probabilita (Ω,A, P ) e un insieme discreto X =x1, x2, . . . ⊂ IR si dice variabile aleatoria discreta un’applicazione X : (Ω,A, P ) →X , tale che per ogni xi ∈ X

(ω : X(ω) = xi) ∈ A.

Osserviamo che se X e una variabile aleatoria discreta ha senso calcolare P (ω :X(ω) = xi) dato che P e definita sulla σ-algebra A.

Osservazione 2.0.2 La condizione(i) per ogni x ∈ X , (ω : X(ω) = x) ∈ Ae equivalente alla condizione(ii) per ogni x ∈ X , (ω : X(ω) ≤ x) ∈ A.Infatti si ha

(ω : X(ω) ≤ x) = ∪xi≤x(ω : X(ω) = xi).

Pertanto (ω : X(ω) ≤ x) e un evento, essendo una unione al piu numerabile di eventi.

Esempio 2.0.3 Sia A un insieme di Ω, la funzione indicatrice di A definita:

IA(ω) =

1 se ω ∈ A0 se ω ∈ Ac

e una variabile aleatoria se e solo se A e un evento, ossia A ∈ A.

Esempio 2.0.4 Sia X una variabile aleatoria a valori in un insieme finito. X e unavariabile aleatoria se e solo se X =

∑Ni=1 aiIAi

dove Ai sono eventi, ai ∈ R.

Esempio 2.0.5 Sia X una variabile aleatoria a valori in un insieme finito. Si dice σ-algebra generata da X la σ-algebra generata dagli eventi A = (X = x) al variare di x tratutti i valori assunti da X.

7

Page 9: CALCOLO DELLE PROBABILITA

2.1 Le distribuzioni di probabilita

Definizione 2.1.1 Data una variabile aleatoria discreta X risulta definita la funzione

fX : IR → IR+

mediantefX(x) = P (ω : X(ω) = x).

fX(x) si dice la densita di probabilita di X.

La funzione fX gode delle seguenti proprieta:(i) fX(x) = 0 tranne al piu un’infinita numerabile di valori,(ii)

∑x∈X fX(x) = 1.

Definizione 2.1.2 Si dice distribuzione di probabilita della variabile aleatoria X lafunzione

FX : IR → [0, 1]

definita daFX(x) = P (ω : X(ω) ≤ x).

Se x1 < x2 < . . . sono i valori assunti dalla variabile aleatoria X allora la funzioneFX e costante nell’intevallo (xi, xi+1), infatti se xi < x < xi+1 allora gli eventi (X ≤ x) e(X ≤ xi) coincidono.

Osservazione 2.1.3 La conoscenza della distribuzione di probabilita equivale alla conoscenzadella densita. Infatti mediante

FX(x) =∑

xi≤x

fX(xi)

si esprime la funzione di distribuzione in termini della densita di probabilita. Inoltre siax1 < x2 < . . . allora

fX(xi) = P (X = xi) = P (xi−1 < X ≤ xi) = FX(xi)− FX(xi−1).

Pertanto la funzione di densita si esprime in termini della funzione di distribuzione.

2.2 Le distribuzioni congiunte

Definizione 2.2.1 Date n variabili aleatorie discrete definite sullo spazio probabilizzato(Ω,A, P ) a valori in X si definisce la funzione di densita congiunta del vettore(X1, X2, . . . , Xn) mediante

f(X1,X2,...,Xn)(x1, x2, . . . , xn) = P (X1 = x1, X2 = x2, . . . , Xn = xn) (2.1)

al variare di x1, . . . , xn ∈ X .

8

Page 10: CALCOLO DELLE PROBABILITA

Dato un vettore (X1, X2, . . . , Xn) di variabili aleatorie le densita di probabilita fXi

delle singole variabili Xi si dicono densita marginali. Se si conosce la densita congiunta sipossono sempre ricavare le densita marginali. Per semplicita di notazioni consideriamo ilcaso di un vettore di due variabili aleatorie (X, Y ) e indichiamo con (xi)i e (yi)i i valoriassunti da X e Y rispettivamente. Si ha

fX(x) = P (∪i(X = x, Y = yi)) =∑

i

P (X = x, Y = yi) =∑

i

f(X,Y )(x, yi).

Il viceversa e falso.

Definizione 2.2.2 Date n variabili aleatorie discrete definite sullo spazio probabilizzato(Ω,A, P ) si definisce la distribuzione di probabilita congiunta del vettore (X1, X2, . . . , Xn)mediante

F(X1,X2,...,Xn)(x1, x2, . . . , xn) = P (X1 ≤ x1, X2 ≤ x2, . . . , Xn ≤ xn). (2.2)

2.3 L’indipendenza tra variabili aleatorie

Definizione 2.3.1 Siano X1, . . . , Xn variabili aleatorie discrete definite sullo spazio prob-abilizzato (Ω,A, P ) e a valori in X . Si dice che le variabili X1, . . . , Xn sono indipendentise per ogni x1, . . . , xn ∈ X si ha

P (X1 = x1, X2 = x2, . . . , Xn = xn) = P (X1 = x1)P (X2 = x2) · · ·P (Xn = xn). (2.3)

L’identita (2.3) puo essere scritta anche mediante le funzioni di densita di probabilita: perogni x1, . . . , xn ∈ X

f(X1,X2,...,Xn)(x1, x2, . . . , xn) = fX1(x1)fX2(x2) · · · fXn(xn). (2.4)

Osservazione 2.3.2 La condizione (2.3) e equivalente alla seguente

P (X1 ∈ A1, X2 ∈ A2, . . . , Xn ∈ An) = P (X1 ∈ A1)P (X2 ∈ A2) · · ·P (Xn ∈ An) (2.5)

per ogni A1, . . . , An ∈ I. Infatti

P (X1 ∈ A1, X2 ∈ A2, . . . , Xn ∈ An) =∑

x1∈A1,...,xn∈An

f(X1,X2,...,Xn)(x1, x2, . . . , xn) =

=∑

x1∈A1,...,xn∈An

fX1(x1)fX2(x2) · · · fXn(xn) =

=∑

x1∈A1

fX1(x1) · · ·∑

xn∈An

fXn(xn) = P (X1 ∈ A1)P (X2 ∈ A2) · · ·P (Xn ∈ An).

Proposizione 2.3.3 Se X e Y sono due variabili aleatorie indipendenti (e f e g sonodue funzioni misurabili) allora anche g(X) e h(Y ) sono variabili aleatorie indipendenti.

9

Page 11: CALCOLO DELLE PROBABILITA

2.4 Esempi di distribuzioni discrete

Distribuzione di BernoulliLa variabile aleatoria X assume solo i valori 1 e 0 rispettivamente con probabilita p e1− p (dove p ∈ (0, 1)). Quindi la densita e

fX(x) =

p se x = 11− p se x = 00 se x 6= 0, 1.

Distribuzione binomialeSupponiamo di effettuare n prove di Bernoulli indipendenti, siano X1, . . . , Xn le vari-abili aleatorie indipendenti che rappresentano il risultato delle singole prove. La variabilealeatoria X = X1 + · · · + Xn conta il numero dei successi nelle n prove. La densita di Xe:

fX(k) =

(nk

)pk(1− p)n−k se k = 0, 1, . . . , n

0 altrimenti.

Distribuzione multinomialeSupponiamo di effettuare n prove indipendenti, ciascuna delle quali puo avere k possibilirisultati, e supponiamo che l’i-esimo risultato abbia probabilita pari a pi. Sia Ni la variabilealeatoria che conta il numero di volte che compare l’i-esimo risultato:

P (N1 = n1, . . . , Nk = nk) =n!

n1! . . . nk!pn1

1 . . . pnkk

per ogni n1, . . . , nk con n1 + n2 + . . . + nk = n. Si dice che il vettore N = (N1, . . . , Nk) hadistribuzione multinomiale.

Distribuzione geometricaSupponiamo di effettuare una successione di prove di Bernoulli indipendenti, siano X1, X2, . . .le variabili aleatorie indipendenti che rappresentano il risultato delle singole prove. Sia Tla variabile aleatoria che rappresenta l’istante del primo successo:

T = infn ≥ 1|Xn = 1.Allora

P (T > k) = P (X1 = 0, X2 = 0, . . . , Xk = 0) =

= P (X1 = 0)P (X2 = 0) · · ·P (Xk = 0) = (1− p)k.

Ne segue cheP (T = k) = P (T > k − 1)− P (T > k) = p(1− p)k−1.

La densita di probabilita

fX(k) =

p(1− p)k se k = 0, 1, 2, . . .0 altrimenti.

10

Page 12: CALCOLO DELLE PROBABILITA

Una proprieta caratteristica della legge geometrica e la proprieta di assenza di memoria.Risulta infatti che, se X e una variabile aleatoria con distribuzione geometrica e se m ≥ 0,

P (X = k + m|X ≥ k) =P (X = k + m,X ≥ k)

P (X ≥ k)=

P (X = k + m)

P (X ≥ k)=

p(1− p)k+m

(1− p)k= p(1− p)m = P (X = m).

Quindi se X rappresenta l’istante del primo successo in uno schema di Bernoulli di para-metro p, allora la probabilita di dover attendere ancora m prove per avere il primo successo,sapendo che non si e ottenuto alcun successo nelle prime k prove, e uguale alla probabilitache si avrebbe se le prime k prove non fossero avvenute.

Distribuzione di PoissonSia λ > 0 la densita

fX(k) =

λk

k!e−λ se k = 0, 1, . . .

0 altrimentie detta densita di Poisson di parametro λ.

2.5 Densita di una funzione di una variabile aleatoria

Sia X una variabile aleatoria di dimensione m e φ una funzione φ : IRm → IR. Sia fX

la densita di X. Calcoliamo la distribuzione di probabilita della variabile aleatoria φ(X).Risulta

P (φ(X) = y) = P (X ∈ φ−1(y)) =∑

x∈φ−1(y)

fX(x). (2.6)

Esempio 2.5.1 Siano X e Y due variabili aleatorie di densita congiunta f(X,Y ), allora lavariabile aleatoria Z = X + Y ha densita

fZ(z) =∑

t∈IR

f(X,Y )(t, z − t).

Basta applicare (2.6) alla variabile (X, Y ) e alla funzione φ(x, y) = x + y:

P (Z = z) = P (X + Y = z) =∑

(x,y):x+y=z

f(X,Y )(x, y) =∑

x∈IR

f(X,Y )(x, z − x).

2.6 Densita condizionale

Definizione 2.6.1 Date due variabili aleatorie discrete X e Y si dice densita con-dizionale di X dato Y = y la funzione

fX|Y (x|y) = P (X = x|Y = y)

per ogni y tale che P (Y = y) > 0.

11

Page 13: CALCOLO DELLE PROBABILITA

Dunque vale che

fX|Y (x|y) =f(X,Y )(x, y)

fY (y)

per ogni y tale che fY (y) > 0.

Definizione 2.6.2 Date due variabili aleatorie discrete X e Y si dice funzione di dis-tribuzione condizionale di X dato Y = y la funzione

FX|Y (x|y) = P (X ≤ x|Y = y)

per ogni y tale che P (Y = y) > 0.

2.7 Media

Definizione 2.7.1 Data una variabile aleatoria discreta X definita sullo spazio proba-bilizzato (Ω,A, P ) e a valori in X si definisce media (o speranza matematica, valoreatteso)

E[X] =∑

xi∈XxifX(xi) (2.7)

sotto la condizione che ∑

xi∈X|xi|fX(xi) < ∞.

Proposizione 2.7.2 La media ha le seguenti proprieta:(i) se X ≥ 0 q.c. allora E[X] ≥ 0,(ii) se c1, c2 sono due costanti reali allora E[c1X + c2Y ] = c1E[X] + c2E[Y ].

Dim. (i) e ovvia. Per quanto riguarda (ii), siano xi e yj i valori assunti dalle variabili Xe Y allora

E[c1X + c2Y ] =∑

i,j

(c1xi + c2yj)f(X,Y )(xi, yj) =

= c1

i,j

xif(X,Y )(xi, yj) + c2

i,j

yjf(X,Y )(xi, yj).

Dalle relazioni∑

i f(X,Y )(xi, yj) = fY (yj) e∑

j f(X,Y )(xi, yj) = fX(xi) segue che l’ultimotermine e uguale a

c1

i

xifX(xi) + c2

j

yjfY (yj) = c1E[X] + c2E[Y ].

2

Teorema 2.7.3 Sia X = (X1, . . . , Xn) una variabile aleatoria n-dimensionale e sia φ :IRn → IR una funzione misurabile. Chiamiamo Z la variabile aleatoria φ(X). Allora

E[Z] =∑x

φ(x)fX(x)

se la serie e assolutamente convergente.

12

Page 14: CALCOLO DELLE PROBABILITA

Dim. Per semplicita dimostriamo il teorema nel caso n = 2. Siano z1, z2, . . . i valori assuntida Z. Sia Ai = φ−1(zi) = (xk

1, xk2) : φ(xk

1, xk2) = zi. Risulta

E[|Z|] =∑

i

|zi|P (Z = zi) =∑

i

|zi|∑

(xk1 ,xk

2)∈Ai

f(X1,X2)(xk1, x

k2) =

=∑

i

(xk1 ,xk

2)∈Ai

|zi|f(X1,X2)(xk1, x

k2) =

(xk1 ,xk

2)

|φ(xk1, x

k2)|f(X1,X2)(x

k1, x

k2).

Questo dimostra che Z ammette media finita. Per calcolare la media basta ripetere ilcalcolo fatto senza il valore assoluto. 2

Proposizione 2.7.4 Se X, Y sono due variabili aleatorie indipendenti allora

E[XY ] = E[X]E[Y ].

Dim. Grazie al teorema (2.7.3) presa φ(x, y) = xy, risulta:

E[XY ] =∑xi,yj

xiyjf(X,Y )(xi, yj) =∑xi,yj

xiyjfX(xi)fY (yj)

dove l’ultimo passaggio e dovuto al fatto che, poiche le variabili X e Y sono indipendenti,per ogni xi e yj

f(X,Y )(xi, yj) = fX(xi)fY (yj).

Ma ∑xi,yj

xiyjfX(xi)fY (yj) = E[X]E[Y ].

2

Osservazione 2.7.5 Se X e una variabile aleatoria a valori interi positivi allora

E[X] =∞∑

k=1

P (X ≥ k).

Dim. Esercizio.

2.8 Momenti

Definizione 2.8.1 Data una variabile aleatoria discreta X definita sullo spazio probabi-lizzato (Ω,A, P ) e a valori in X si definisce momento di ordine k

E[Xk], (2.8)

purche E[|X|k] < ∞.

Definizione 2.8.2 Data una variabile aleatoria discreta X definita sullo spazio probabi-lizzato (Ω,A, P ) e a valori in X si definisce momento centrato di ordine k

E[(X − E[X])k]. (2.9)

Grazie al teorema (2.7.3) se X ha densita discreta fX allora

E[Xk] =∑

i

xki fX(xi).

13

Page 15: CALCOLO DELLE PROBABILITA

2.9 Varianza e covarianza

Definizione 2.9.1 Si dice varianza di una variabile aleatoria X la quantita

V ar[X] = E[(X − E[X])2].

Esercizio Verificare che V ar[X] = E[X2]− E[X]2.

Definizione 2.9.2 Si dice covarianza tra due variabili aleatorie X e Y la quantita

Cov(X, Y ) = E[(X − E[X])(Y − E[Y ])].

Proposizione 2.9.3 La varianza ha le seguenti proprieta:(i) se λ ∈ IR allora V ar[λX] = λ2V ar[X],(ii) V ar[X + Y ] = V ar[X] + V ar[Y ] + 2Cov(X,Y ),(iii) se X e Y sono indipendenti allora V ar[X + Y ] = V ar[X] + V ar[Y ].

Dim. (i) Usando il fatto che la media e lineare

V ar[λX] = E[(λX − E[λX])2] = E[λ2(X − E[X])2] = λ2E[(X − E[X])2] = λ2V ar[X].

(ii)V ar[X + Y ] = E[(X + Y − E[X + Y ])2]

= E[(X − E[X])2 + 2(XY − E[X]E[Y ]) + (Y − E[Y ])2]

= V ar[X] + 2(E[XY ]− E[X]E[Y ]) + V ar[Y ].

(iii) Se X e Y sono indipendenti allora

E[XY ]− E[X]E[Y ] = 0

e quindiV ar[X + Y ] = V ar[X] + V ar[Y ].

2

Definizione 2.9.4 Si dice coefficiente di correlazione tra due variabili aleatorie X eY la quantita

ρ(X, Y ) =Cov(X, Y )√

V ar[X]V ar[Y ].

Esempio 2.9.5 (i) Se X ha distribuzione di Bernoulli di parametro p

E[X] =∑x

xfX(x) = 0 · (1− p) + 1 · p = p

E[X2] =∑x

x2fX(x) = 0 · (1− p) + 1 · p = p

V ar[X] = E[X2]− E[X]2 = p(1− p).

14

Page 16: CALCOLO DELLE PROBABILITA

(ii) Se X ha distribuzione binomiale di parametri n e p, basta osservare che X = X1+. . .+Xn dove le variabili Xi sono indipendenti e hanno distribuzione di Bernoulli di parametrop, pertanto

E[X] = E[X1] + . . . + E[Xn] = np

V ar[X] = V ar[X1] + . . . + V ar[Xn] = np(1− p).

(iii) Se X ha distribuzione di Poisson di parametro λ

E[X] =n∑

k=0

kλk

k!e−λ = e−λλ

n∑

k=0

λk

k!= λ

E[X2] =∞∑

k=0

k2λk

k!e−λ = e−λλ

∞∑

k=1

kλk−1

(k − 1)!= e−λλ

∞∑

h=0

(h + 1)λh

h!=

= e−λλ∞∑

h=0

hλh

h!+ e−λλ

∞∑

h=0

λh

h!= λ2 + λ

V ar[X] = E[X2]− E[X]2 = λ2 + λ− λ2 = λ.

(iv) Se X ha distribuzione geometrica di parametro p, usiamo (2.7.5) per calcolare lasperanza

E[X] =∞∑

k=1

(1− p)k =1

p− 1 =

1− p

p.

2.10 Funzioni Generatrici

Definizione 2.10.1 Data una variabile aleatoria X a valori interi positivi, si dice fun-zione generatrice di X la funzione

GX(t) = E[tX ], t ∈ IR.

In particolare se fX e la densita di X allora

GX(t) =∞∑

k=0

tkfX(k)

pertanto la funzione generatrice dipende solo dalla densita di X. (Osserviamo che lafunzione generatrice e definita purche

∑∞k=0 |t|kfX(k).)

Viceversa la funzione generatrice individua univocamente la densita: infatti se levariabili aleatorie X e Y hanno la stessa funzione generatrice risulta:

∞∑

k=0

tkfX(k) = GX(t) = GY (t) =∞∑

k=0

tkfY (k).

L’identita tra queste due serie di potenze vale se e solo se per ogni k ≥ 0, fX(k) = fY (k).Ovvero le variabili X e Y hanno la stessa densita di probabilita. In particolare

fX(k) =1

k!

dk

dtkGX(t)|t=0.

15

Page 17: CALCOLO DELLE PROBABILITA

Osservazione 2.10.2 Dalla conoscenza della funzione generatrice si ricavano facilmentei momenti di una variabile aleatoria. Infatti:

G′X(t) =

∞∑

k=1

k tk−1fX(k) ⇒ G′X(1) =

∞∑

k=1

k fX(k) = E[X].

Iterando

G′′X(t) =

∞∑

k=2

k(k − 1) tk−2fX(k) ⇒ G′′X(1) =

∞∑

k=2

k(k − 1) fX(k) = E[X2]− E[X], ‘

infineE[X2] = G′′

X(1) + G′X(1).

In maniera analoga si calcolano i momenti di ordine k > 2.

Esempio 2.10.3 (i) Densita binomiale B(n,p)

GX(t) =n∑

k=0

tk(

nk

)pk(1− p)n−k =

n∑

k=0

(nk

)(tp)k(1− p)n−k = (tp + 1− p)n

(ii) Densita geometrica di parametro p

GX(t) =∞∑

k=0

tk p(1− p)k = p∞∑

k=0

(t(1− p))k =p

1− t(1− p)

(iii) Densita di Poisson di parametro λ

GX(t) =∞∑

k=0

tke−λ λk

k!e−λ

∞∑

k=0

(tλ)k

k!= e−λeλt.

Esempio 2.10.4 Siano X e Y due variabili aleatorie indipendenti. Allora la funzionegeneratrice di X + Y e

GX+Y (t) = GX(t)GY (t).

Dim.GX+Y (t) = E[tX+Y ] = E[tX ]E[tY ] = GX(t)GY (t).

2

EsercizioSiano X e Y variabili aleatorie indipendenti con distribuzione di Poisson, rispettivamentedi parametri λ e µ. Allora la distribuzione della variabile aleatoria X + Y e una dis-tribuzione di Poisson di parametro λ + µ. Infatti:

GX+Y (t) = GX(t)GY (t) = eλ(t−1)eµ(t−1) = e(λ+µ)(t−1).

16

Page 18: CALCOLO DELLE PROBABILITA

Capitolo 3

VARIABILI ALEATORIECONTINUE

Definizione 3.0.5 Dato uno spazio di probabilita (Ω,A, P ) si dice variabile aleatoriacontinua un’applicazione X : (Ω,A, P ) → IR tale che per ogni t ∈ IR

(ω : X(ω) ≤ t) ∈ A.

Definizione 3.0.6 Data una variabile aleatoria continua X, si definisce la distribuzionedi probabilita di X la funzione FX : IR → [0, 1]

FX(t) = P (ω : X(ω) ≤ t).

Proposizione 3.0.7 Sia FX una funzione di distribuzione di probabilita. FX gode delleseguenti proprieta:(i) FX e una funzione non decrescente;(ii) limx→−∞ FX(x) = 0, limx→+∞ FX(x) = 1;(iii) FX e continua a destra.

Dim. La (i) segue immediatamente dalla relazione: (X ≤ x) ⊂ (X ≤ y) se x ≤ y.Dimostriamo la (iii). La dimostrazione di (ii) e simile. Dobbiamo provare che

limx→x+

0

FX(x) = FX(x0).

Poiche la funzione FX e non decrescente, basta provare che

limxn→x0

FX(xn) = FX(x0)

se xn e una successione decrescente a x0. Consideriamo gli eventi An = (X ≤ xn). Poichela successione di eventi (An) e decrescente, allora posto

A =: ∩nAn

per la proprieta (1.2.6) si ha:lim

nP (An) = P (A).

17

Page 19: CALCOLO DELLE PROBABILITA

Pertanto e sufficiente dimostrare che

A = (X ≤ x0).

Dimostriamo la doppia inclusione A ⊂ (X ≤ x0) and (X ≤ x0) ⊂ A. Sia ω ∈ A alloraper ogni n, X(ω) ≤ xn quindi X(ω) ≤ limn xn = x0. Viceversa sia ω tale che X(ω) ≤ x0.Siccome per ogni n e xn > x0, risulta anche X(ω) ≤ xn cioe ω ∈ An per ogni n. 2

In generale non vale la continuita a sinistra per le funzioni di distribuzione.

Osservazione 3.0.8 Se FX e una funzione di distribuzione continua, allora, per ognix ∈ IR, vale P (X = x) = 0.

Dim. Facciamo vedere che per ogni funzione di distribuzione FX risulta

P (X = x) = FX(x)− FX(x−)

dove FX(x−) =: limx→x− FX(x). Sia xn una successione crescente a x. Allora FX(x−) =limn FX(xn). Pertanto

FX(x)− FX(x−) = limn

(FX(x)− FX(xn)) = limn

P (xn < X ≤ x).

La famiglia degli eventi An =: (xn < X ≤ x) e una famiglia decrescente dunque per la(1.2.6) si ha limn P (An) = P (A) dove A =: ∩nAn. Basta verificare che A = (X = x).Verifichiamo la doppia inclusione. Sia ω ∈ A allora per ogni n e xn < X(ω) ≤ x dunquelimn xn = x < X(ω) ≤ x, cioe X(ω) = x. Viceversa: se X(ω) = x allora ovviamenteω ∈ An per ogni n. 2

3.1 Variabili aleatorie assolutamente continue

Definizione 3.1.1 Una funzione f : IR → IR+ si dice una densita di probabilita se:(i) f e integrabile e ≥ 0,(ii)

∫ +∞−∞ f(x)dx = 1.

Definizione 3.1.2 Data una variabile aleatoria continua X e la sua distribuzione diprobabilita FX , si dice che X e assolutamente continua se FX ammette una densita diprobabilita, ovvero se, per ogni x ∈ IR

FX(x) =∫ x

−∞fX(t)dt. (3.1)

Da (3.1) segue in particolare che, per ogni a, b ∈ IR, a < b

P (a ≤ X ≤ b) = FX(b)− FX(a) =∫ b

afX(t) dt.

18

Page 20: CALCOLO DELLE PROBABILITA

3.2 Densita congiunte

Definizione 3.2.1 Data la coppia di variabili aleatorie continue (X, Y ), la distribuzionedi probabilita congiunta di X e Y e definita da

F(X,Y )(x, y) = P (X ≤ x, Y ≤ y),

per ogni x, y ∈ IR.Si dice che la coppia di variabili aleatorie X e Y ha densita di probabilita congiunta

se esiste una funzione f(X,Y ) integrabile e ≥ 0 tale che

F(X,Y )(x, y) =∫ x

−∞dt

∫ y

−∞f(X,Y )(t, s) ds.

Osservazione 3.2.2 Come per le variabili aleatorie discrete, dalle distribuzioni di prob-abilita congiunte (rispettivamente densita congiunte) si possono ricavare le distribuzionidi probabilita marginali (rispettivamente densita marginali). Risulta

FX(x) = limy→+∞F(X,Y )(x, y),

FY (y) = limx→+∞F(X,Y )(x, y).

fX(t) =∫ +∞

−∞f(X,Y )(t, s)ds

fY (s) =∫ +∞

−∞f(X,Y )(t, s)dt.

Definizione 3.2.3 Date m variabili aleatorie X1, . . . Xm si dicono indipendenti se

P (a1 ≤ X1 ≤ b1, . . . , am ≤ X1 ≤ bm) = P (a1 ≤ X1 ≤ b1) · · ·P (am ≤ X1 ≤ bm)

per a1, . . . , am, b1, . . . , bm ∈ IR.

Osservazione 3.2.4 Due variabili aleatorie X, Y risultano indipendenti se e solo se

f(X,Y )(x, y) = fX(x)fY (y)

per ogni (x, y) ∈ IR2 tranne al piu per un insieme di misura nulla.

3.3 Densita di una funzione di una variabile aleatoria

Esempio 3.3.1 Data una variabile aleatoria assolutamente continua X con densita fX .Siano a, b due costanti reali, con a 6= 0, allora la densita della variabile aleatoria Y =aX + b e

fY (y) =1

|a|fX(y − b

a).

19

Page 21: CALCOLO DELLE PROBABILITA

Dim. Risulta

FY (y) = P (Y ≤ y) = P (aX + b ≤ y) = P (aX ≤ y − b).

Sia a > 0 allora

P (aX ≤ y − b) = P (X ≤ y − b

a) = FX(

y − b

a)

Da cui derivando

fY (y) =1

afX(

y − b

a).

Se a < 0 si ha

FY (y) = P (X ≥ y − b

a) = 1− FX(

y − b

a),

da cui derivando

fY (y) = −1

afX(

y − b

a).

2

Esempio 3.3.2 Date due variabili aleatorie X,Y con densita congiunta f(X,Y )(x, y). Al-lora la densita della variabile Z = X + Y e

fZ(z) =∫ +∞

−∞f(X,Y )(x, z − x) dx.

Dim. Risulta

FZ(t) = P (X + Y ≤ t) =∫

(x,y):x+y≤tf(X,Y )(x, y) dx dy

=∫ +∞

−∞dx

∫ t−x

−∞f(X,Y )(x, y) dy =

∫ +∞

−∞dx

∫ t

−∞f(X,Y )(x, z − x) dz

dove nell’ultimo integrale abbiamo usato il cambio di variabile z = x+y, infine scambiandol’ordine di integrazione

=∫ t

−∞dz

∫ +∞

−∞f(X,Y )(x, z − x) dx.

2

3.4 Esempi di distribuzioni assolutamente continue

Densita uniforme La funzione

fX(t) =

1 se 0 < t < 10 altrimenti

e una densita di probabilita. La funzione di distribuzione uniforme e

FX(x) =

0 se t < 0t se 0 ≤ t ≤ 11 se t > 1.

20

Page 22: CALCOLO DELLE PROBABILITA

In particolare se a, b ∈ [0, 1]

P (a < X < b) =∫ b

adt = b− a.

Densita esponenziale La funzione

fX(t) =

λe−λt se t > 00 altrimenti

e una densita di probabilita. La funzione di distribuzione esponenziale e

FX(x) =

1− e−λx se t > 00 altrimenti.

Densita gamma La funzione

fX(t) =

λα

Γ(α)e−λttα−1 se t > 0

0 altrimenti,

con α > 0 e λ > 0, e una densita di probabilita. Si indica con Γ(α, λ). La funzioneΓ : IR+ → IR+ e definita

Γ(α) =∫ ∞

0tα−1e−t dt.

Si puo verificare che Γ(1) = 1, per α > 0 Γ(α + 1) = αΓ(α), da cui segue che, per ogniintero positivo n, Γ(n) = (n− 1)!.

Proposizione 3.4.1 Siano X1 e X2 variabili aleatorie indipendenti con densita Γ(α1, λ)e Γ(α2, λ) rispettivamente. La densita di X = X1 + X2 e una Γ(α1 + α2, λ).

Dim. Applicando la proposizione (3.3.2) si ha

fX(y) =λα1

Γ(α1)

λα2

Γ(α2)

∫ y

0xα1−1e−λx(y − x)α2−1e−λ(y−x)

=λα1+α2

Γ(α1)Γ(α2)e−λy

∫ y

0xα1−1(y − x)α2−1dx =

λα1+α2

Γ(α1)Γ(α2)e−λy

∫ 1

0(ty)α1−1(y − ty)α2−1 y dt

dove nell’ultimo integrale abbiamo effettuato il cambio di variabile x = ty,

=

(λα1+α2

Γ(α1)Γ(α2)

∫ 1

0tα1−1(1− t)α2−1 dt

)yα1+α2−1e−λy.

Pertanto fX e una densita Γ(α1 + α2, λ). 2

Densita Normale La funzione

fX(x) =1√2π

e−x2

2 , x ∈ IR

e una densita di probabilita. Si dice che e una densita Normale di parametri 0 e 1 e siindica N (0, 1). Siano µ, σ numeri reali con σ > 0 allora la variabile aleatoria Y = µ + σXha densita

fY (y) =1

|σ|fX(y − µ

σ) =

1√2πσ

exp((y − µ)2

2σ2).

Si dice che Y ha distribuzione N (µ, σ2).

21

Page 23: CALCOLO DELLE PROBABILITA

3.5 Momenti

Definizione 3.5.1 Sia X una variabile aleatoria assolutamente continua con densita fX .Si dice che X ammette media (speranza matematica, valore atteso, ...) finita se

∫ +∞

−∞|x|fX(x)dx < ∞,

e in tal caso si pone

E[X] =∫ +∞

−∞xfX(x)dx.

In maniera analoga si definiscono i momenti di ordine k ≥ 2.

Definizione 3.5.2 Sia X una variabile aleatoria assolutamente continua con densita fX .Si dice che X ammette momento di ordine k ≥ 2 finito se

∫ +∞

−∞|x|kfX(x)dx < ∞,

e in tal caso si pone

E[Xk] =∫ +∞

−∞xkfX(x)dx.

Valgono per le variabili aleatorie assolutamente continue le proprieta (2.7.2), (2.7.3),(2.7.4), (2.9.3).

Esempio 3.5.3 Distribuzione uniforme su [0, 1]. Risulta:

E[X] =∫ 1

0x dx =

1

2,

E[X2] =∫ 1

0x2 dx =

1

3,

V ar[X] = E[X2]− E[X]2 =1

3− 1

4=

1

12.

Distribuzione gamma Γ(α, λ). Sia k ≥ 1 risulta:

E[Xk] =λα

Γ(α)

∫ +∞

0xkxα−1e−λxdx =

λα

Γ(α)

∫ +∞

0xk+α−1e−λxdx

=λα

Γ(α)

Γ(α + k)

λα+k

(λα+k

Γ(α + k)

∫ ∞

0xk+α−1e−λxdx

)=

Γ(α + k)

λkΓ(α).

In particolare:

E[X] =Γ(α + 1)

λΓ(α)=

α

λ

E[X2] =Γ(α + 2)

λ2Γ(α)=

α(α + 1)

λ2

22

Page 24: CALCOLO DELLE PROBABILITA

V ar[X] =α

λ2.

Distribuzione esponenziale E(λ). Poiche la distribuzione E(λ) coincide con unaΓ(1, λ) si ha:

E[X] =1

λ

V ar[X] =1

λ2.

Distribuzione normale N (0, 1). Poiche la funzione xe−x2

2 e una funzione dispari,si ha

E[X] =1√2π

∫ +∞

−∞xe−

x2

2 dx = 0.

Inoltre

V ar[X] = E[X2] =1√2π

∫ +∞

−∞x2e−

x2

2 dx = 1.

Se Y e una normale N (µ, σ2), allora Y = σX + µ dove X e una normale N (0, 1):

E[Y ] = µ + σE[X] = µ

V ar[Y ] = σ2V ar[X] = σ2.

3.6 Speranza condizionale

Definizione 3.6.1 Date due variabili aleatorie discrete X e Y si dice densita con-dizionale di X dato Y = y la funzione

fX|Y (x|y) = P (X = x|Y = y)

per ogni y tale che P (Y = y) > 0.

Dunque vale che

fX|Y (x|y) =f(X,Y )(x, y)

fY (y)

per ogni y tale che fY (y) > 0.

Definizione 3.6.2 Date due variabili aleatorie discrete X e Y si dice funzione di dis-tribuzione condizionale di X dato Y = y la funzione

FX|Y (x|y) = P (X ≤ x|Y = y)

per ogni y tale che P (Y = y) > 0.

Definizione 3.6.3 Date due variabili aleatorie discrete X e Y si dice speranza con-dizionale di X dato Y = y

E[X|Y = y] =∑x

xfX|Y (x|y)

per ogni y tale che P (Y = y) > 0.

23

Page 25: CALCOLO DELLE PROBABILITA

Posto ψ(y) = E[X|Y = y], la variabile aleatoria ψ(Y ) e detta speranza con-dizionale di X data Y . ψ(Y ) si indica con E[X|Y ].

Teorema 3.6.4 La speranza condizionale E[X|Y ] soddisfa

E[E[X|Y ]] = E[X].

Dim.E[E[X|Y ]] = E[ψ(Y )] =

∑y

ψ(y)fY (y) =∑y

∑x

xfX|Y (x|y)fY (y)

=∑x,y

xf(X,Y )(x, y) =∑x

xfX(x) = E[X].

24

Page 26: CALCOLO DELLE PROBABILITA

Capitolo 4

I TEOREMI LIMITE

4.1 La Legge dei Grandi Numeri

Definizione 4.1.1 Una successione di variabili aleatorie reali (Xn)n converge quasi cer-tamente verso una variabile aleatoria X se l’evento

(ω : limn

Xn(ω) = X(ω))

ha probabilita pari ad 1.Una successione di variabili aleatorie reali (Xn)n converge in probabilita verso una

variabile aleatoria X se per ogni ε > 0 si ha

limn

P (ω : |Xn(ω)−X(ω)| > ε) = 0.

Si puo dimostrare che la convergenza quasi certa implica la convergenza in probabilita.Il viceversa e falso.

Teorema 4.1.2 Disuguaglianza di Cebicev Data una variabile aleatoria X, per ogniε > 0 vale

P (|X − E[X]| > ε) ≤ V ar[X]

ε2.

Dim. Definiamo la variabile aleatoria

Y = ε2I|X−E[X]|>ε.

Vale(X − E[X])2 ≥ Y.

Allora passando alle medie:

V ar[X] = E[(X − E[X])2] ≥ E[Y ] = E[ε2I|X−E[X]|>ε] = ε2P (|X − E[X]| > ε).

2

25

Page 27: CALCOLO DELLE PROBABILITA

Teorema 4.1.3 Sia (Xn)n una successione di variabili aleatorie indipendenti e aventitutte la stessa legge. Sia µ la loro media e σ2 la loro varianza. Allora

X1 + . . . + Xn

n→ µ

in probabilita.

Dim. Sia Xn = X1+...+Xn

n. Risulta:

E[Xn] = µ

V ar[Xn] =σ2

n.

Allora per la disuguaglianza di Cebicev:

P (|Xn − µ| > ε) ≤ V ar[Xn]

ε2=

σ2

nε2→ 0.

2

4.2 Il Teorema Centrale del Limite

Definizione 4.2.1 Una successione di variabili aleatorie reali (Xn)n converge in dis-tribuzione verso una variabile aleatoria X se, per ogni x ∈ IR di continuita per lafunzione di distribuzione di X, FX(x), si ha

limn

FXn(x) = FX(x).

Teorema 4.2.2 Sia (Xn)n una successione di variabili aleatorie indipendenti e aventitutte la stessa legge. Sia µ la loro media e σ2 la loro varianza. Allora

Sn =X1 + . . . Xn − nµ

σ√

n→ N (0, 1)

in distribuzione.

26

Page 28: CALCOLO DELLE PROBABILITA

Capitolo 5

PROCESSI STOCASTICI

5.1 Il Moto Browniano

Il processo stocastico che va sotto il nome di moto Browniano prende il nome dal botan-ico inglese R. Brown (1826), il quale osservo che le particelle microscopiche sospese in unliquido erano soggette a continui urti con le molecole e di conseguenza eseguivano movi-menti a zigzag. Tuttavia il primo lavoro quantitativo sul moto browniano e dovuto adEinstein (1905), il quale scoprı che, in contrasto con la loro apparente irregolarita, questimovimenti delle particelle potevano essere analizzati mediante leggi di probabilita, poichela posizione delle particelle in un periodo di tempo segue la distribuzione Normale. Infineun approccio rigorosamente matematico allo studio del moto browniano come processostocastico ha inizio con N. Wiener (1923), poi sviluppato da P. Levy.

Assieme al processo di Poisson, il moto Browniano costituisce una delle due fonda-mentali specie di processi stocastici, sia nella teoria che nelle applicazioni, il primo ”atraiettorie discontinue”, mentre il secondo ”a traiettorie continue”.

Descriviamo una maniera di definire il Moto Browniano tramite una procedura limitea partire da una passeggiata aleatoria simmetrica (random walk).

Pensiamo alle particelle microscopiche in movimento (chiaramente le particelle os-servate da Brown si muoveranno in uno spazio tridimensionale ma noi ci limitiamo aconsiderare la proiezione su un asse coordinato).Iniziamo con il supporre che ad ogni istante la particella compie un passo a destra o asinistra con probabilita 1

2. Quindi rappresentiamo ciascun passo mediante una variabile

aleatoria avente legge di Bernoulli simmetrica:

ξn =

+1 con probabilita 1/2 ;−1 con probabilita 1/2 .

Le ξn sono variabili aleatorie indipendenti.Sia X0 la posizione iniziale (posso sempre supporre che X0 = 0) , allora la posizioneal tempo n, cioe dopo n passi, dato che abbiamo supposto che ogni passo e compiutonell’unita di tempo, e :

Xn = ξ1 + . . . + ξn.

27

Page 29: CALCOLO DELLE PROBABILITA

Segnaliamo due proprieta della passeggiata aleatoria (Xn):(i) omogeneita nel tempo : per ogni m,n interi le variabili aleatorie Xm e Xm+n−Xn

hanno la stessa distribuzione;(ii) incrementi indipendenti : le variabili aleatorie Xmi

− Xnie Xmj

− Xnjsono

indipendenti se gli intervalli ]ni,mi] e ]nj,mj] sono disgiunti.Chiaramente chiederemo che l’analogo processo a tempi continui (il moto Browniano)

abbia queste proprieta. Osservo che E[ξi] = 0 e V ar[ξi] = 1 per ogni i , quindi E[Xn] = 0

e V ar[Xn] = n. Allora per il Teorema Centrale del Limite, per n →∞ in distribuzione

Xn√n→ N (0, 1).

Poiche per ogni unita di tempo gli urti tra le particelle sono moltissimi, riduciamol’unita di tempo e di conseguenza anche l’unita di lunghezza.

Sia δ la nuova unita di tempo, cioe il tempo fra due succesivi urti. Quindi tδ

passivengono effettuati dalla particella nel vecchio tempo t. Ogni passo e ancora una variabilealeatoria bernoulliana simmetrica e supponiamo che il passo sia di ampiezza

√δ , i.e. per

ogni k

P (ξk =√

δ) = P (ξk = −√

δ) =1

2.

Quindi si ha: E[ξk] = 0 e V ar[ξk] = δ.Allora per ogni t > 0

Xt =

[ tδ]∑

k=1

ξk

dove [ tδ] e la parte intera di t

δ.

Poiche siamo interessati ad ampiezze δ infinitesime, e δ ¿ t e quindi tδ

e grande e si puopensare ad esso come ad un intero. Quindi

E[Xt] = 0 e V ar[Xt] =t

δδ = t.

Allora per il teorema Centrale del Limite, per ogni t fissato e con δ che tende a 0, laXt avra distribuzione Normale N (0, t).Questo significa che stiamo modificando il nostro schema approssimato, in cui la particellasi muove a distanza ±√δ con uguale probabilita nel vecchio tempo δ, mandando δ a 0.Lo schema limite che si ottiene e il moto Browniano.

La seguente definizione traduce il concetto di struttura informativa crescente al pas-sare del tempo, molto naturale quando studiamo l’evoluzione di un fenomeno aleatorio.

Definizione 5.1.1 Una filtrazione F = (Ft)t∈R+ e una famiglia crescente ( i.e. Fs ⊂ Ft

per s < t) di sotto-σ-algebre di A.

Definizione 5.1.2 Il moto Browniano e un processo stocastico definito sullo spazio pro-babilizzato (Ω,F , P ) a valori in R, se valgono le seguenti proprieta:

28

Page 30: CALCOLO DELLE PROBABILITA

(i) W0 = 0;(ii) le traiettorie t 7→ Wt sono continue;(iii) per ogni t > 0 la variabile Wt e misurabile rispetto a Ft;(iv) per ogni r < s < t gli incrementi Wt − Ws e Ws − Wr sono variabili aleatorie

indipendenti;(v) per ogni s < t l’ incremento Wt −Ws ha distribuzione N (0, t− s).

5.2 I Processi di Conteggio

La teoria dei rinnovi e iniziata con lo studio dei sistemi stocastici la cui evoluzione neltempo era cosparsa di rinnovi, cioe di istanti in cui, in senso statistico, il processo ri-cominciava come ”nuovo”. Questa teoria trova oggi applicazione in una grande varieta dimodelli probabilistici, sia teorici che pratici.

Definizione 5.2.1 Sullo spazio probabilizzato (Ω,A, P ) sia (Xk)k≥1 una successione divariabili aleatorie a valori in ]0,∞[ indipendenti e identicamente distribuite. Sia poi Sn =X1 + · · ·+ Xn e per ogni t ∈ R+ poniamo

Nt =∑

n≥1

ISn≤t. (5.1)

Il processo a tempi continui (Nt)t∈R+ cosı definito e detto processo di conteggio o dirinnovo associato alla successione (Xk)k≥1.

Il processo definito da (5.1) risulta quindi un processo a valori in N ∪ ∞.La variabile aleatoria Nt registra i successivi accadimenti di un evento (e.g. un guasto,

un incidente) nell’intervallo ]0, t], cioe il numero di eventi in ]0, t]. Le Xk rappresentano ledurate di tempo tra due eventi consecutivi, cioe Xk e il tempo che intercorre tra l’evento(k− 1)-esimo e l’evento k-esimo. Le variabili aleatorie Sn rappresentano il tempo d’attesafino all’accadimento dell’n-esimo evento.

Il piu semplice prototipo fisico di modello di rinnovo e la successiva sostituzione dilampadine che si guastano. Una lampadina e istallata per un servizio al tempo 0, si guastaal tempo X1 (aleatorio). Viene quindi sostituita con una nuova lampadina, che si guasta altempo aleatorio X1 + X2. E cosı via. E naturale assumere l’indipendenza stocastica dellesuccessive durate di vita e le stesse caratteristiche probabilistiche, ovvero che le variabilialeatorie Xk siano indipendenti e identicamente distribuite. Allora la variabile Nt conta ilnumero di sostituzioni della lampadina fino all’istante t.

Ci interessa derivare alcune proprieta delle variabili aleatorie associate ai processi(Nt)t∈R+ e (Sn)n≥1 dalla conoscenza della distribuzione dei tempi di intercorrenza. Inparticolare ci interessa calcolare la funzione di rinnovo , ossia il numero atteso dei rinnovi(o guasti) nel tempo ]0, t], cioe E[Nt].

5.2.1 Il Processo di Poisson

Definizione 5.2.2 Il processo di Poisson e un processo di conteggio costruito a partireda variabili aleatorie Xk che sono distribuite esponenzialmente.

29

Page 31: CALCOLO DELLE PROBABILITA

Ricaviamo innanzitutto la legge del processo di Poisson (Nt)t∈R+ . Supponiamo dunqueche le variabili aleatorie Xk siano indipendenti ed esponenziali di parametro λ: Xk(P ) =E(λ). Per ogni t ∈ R+ e per ogni n ≥ 1, risulta

Nt ≥ n = Sn ≤ te dunque

Nt = n = Sn ≤ t < Sn+1 = Sn ≤ t\Sn+1 ≤ t.Osservo poi che Sn ha legge Γ(n, λ). Ricordo che la densita di una Γ(n, λ), e

γ(n, λ) =

0 se x ≤ 0

λn

(n−1)!e−λxxn−1 se x > 0 .

Pertanto

PSn ≤ t =∫ t

0γ(n, λ)(x)dx =

∫ t

0λe−λx (λx)n−1

(n− 1)!dx.

Allora, se n = 0, si ha:PNt = 0 = P∑

n≥1

ISn≤t = 0

= PS1 > t, . . . , Sn > t, . . . = PS1 > t = PX1 > t = e−λt

(dove abbiamo usato il fatto che S1 < S2 < . . . e che X1 ha legge E(λ)).Se n ≥ 1, si ha:

PNt = n = PSn ≤ t − PSn+1 ≤ t

=∫ t

0

[λe−λx (λx)n−1

(n− 1)!− λe−λx (λx)n

n!

]dx

=∫ t

0D

[e−λx (λx)n

n!

]dx = e−λt (λt)n

n!. (5.2)

Dunque, per ogni t > 0, la variabile aleatoria Nt ha legge di Poisson di parametro λt.Poniamo N0 = 0. Si osservi che da (5.2) segue che per n →∞, si ha che PNt = ∞ = 0.

Dunque possiamo ricavare la funzione di rinnovo: il numero medio di guasti e

E[Nt] = λt =t1λ

=t

E[X1]

cioe il numero di guasti e direttamente proporzionale alla lunghezza dell’intervallo e inver-samente proporzionale alla durata media delle singole lampadine. Fissato l’istante s > 0,

contiamo il numero di guasti nell’intervallo ]s, s + t]:

Nt+s −Ns =∑

n≥1

Is<Sn≤s+t.

Consideriamo quindi il processo a partire dall’istante s: (Nt+s −Ns)t∈R+ .

30

Page 32: CALCOLO DELLE PROBABILITA

Teorema 5.2.3 i) Gli incrementi Nt − Ns e Nu − Nv hanno la stessa distribuzione diprobabilita se t− s = u− v, ovvero P(λ(t− s));

ii) Gli incrementi Nt −Ns e Ns −Nv sono indipendenti se v < s < t.

Il risultato enunciato nel teorema precedente e abbastanza intuitivo se si pensa alla pro-prieta di assenza di memoria della legge esponenziale.

Le proprieta i) e ii) si esprimono dicendo che il processo e ad incrementi indipendentie stazionari, cioe la distribuzione del numero di eventi che avvengono in un certo intervallodi tempo dipende solo dalla lunghezza dell’intervallo.

Definizione 5.2.4 Un processo stocastico (Xt)t≥0 si dice processo di Poisson compostose puo essere rappresentato come

Xt =Nt∑

i=1

Yi

dove (Nt) e un processo di Poisson e (Yn) e una successione di variabili indipendenti eidenticamente distribuite, che sono anche indipendenti con (Nt).

Calcoliamo la media e la varianza di Xt. Usiamo l’identita

E[Xt] = E[E[Xt|Nt]].

Risulta

E[Xt|Nt = n] = E[Nt∑

i=1

Yi|Nt = n] =

E[n∑

i=1

Yi|Nt = n] = E[n∑

i=1

Yi] = nE[Y1].

QuindiE[E[Xt|Nt]] = E[Nt]E[Y1] = λtE[Y1].

Per calcolare la varianza usiamo la seguente formula (provarla per Esercizio):

V ar[X] = E[V ar[X|Y ]] + V ar[E[X|Y ]], (5.3)

dove V ar[X|Y ] e definito

V ar[X|Y ] = E[(X − E[X|Y ])2|Y ].

Risulta allora

V ar[Xt|Nt = n] = V ar[Nt∑

i=1

Yi|Nt = n] = V ar[n∑

i=1

Yi] = nV ar[Y1].

QuindiE[V ar[Xt|Nt]] = E[NtV ar[Y1]] = λt V ar[Y1].

Infine

V ar[Xt] = λt V ar[Y1] + λt E[Y1]2 = λt(V ar[Y1] + E[Y1]

2) = λt E[Y 21 ].

31